CN116850601A - 一种游戏对象处理方法、装置、计算机设备及存储介质 - Google Patents
一种游戏对象处理方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN116850601A CN116850601A CN202210306344.XA CN202210306344A CN116850601A CN 116850601 A CN116850601 A CN 116850601A CN 202210306344 A CN202210306344 A CN 202210306344A CN 116850601 A CN116850601 A CN 116850601A
- Authority
- CN
- China
- Prior art keywords
- game
- operation level
- fight
- information
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 35
- 238000000605 extraction Methods 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 39
- 238000007499 fusion processing Methods 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 32
- 238000004590 computer program Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 8
- 238000013473 artificial intelligence Methods 0.000 abstract description 13
- 238000005516 engineering process Methods 0.000 abstract description 13
- 239000010410 layer Substances 0.000 description 67
- 230000006870 function Effects 0.000 description 23
- 238000013528 artificial neural network Methods 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000003062 neural network model Methods 0.000 description 11
- 230000006378 damage Effects 0.000 description 7
- 230000001174 ascending effect Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 3
- 208000014674 injury Diseases 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002356 single layer Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 208000015041 syndromic microphthalmia 10 Diseases 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/798—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for assessing skills or for ranking players, e.g. for generating a hall of fame
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
- A63F13/795—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例提供一种游戏对象处理方法、装置、计算机设备及存储介质,可应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景;本申请实施例可以获取游戏中目标对象和对局对象的对战状态信息集合;对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;对操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。本申请实施例可以准确地确定出目标对象的操作水平。
Description
技术领域
本申请涉及人工智能技术领域,具体涉及一种游戏对象处理方法、装置、计算机设备及存储介质,该存储介质为计算机可读存储介质。
背景技术
目前针对多人在线战术竞技游戏(Multiplayer Online Battle Arena,MOBA)中游戏玩家实力定位方案最常用的是使用分值表示游戏玩家的操作水平。
具体来说,游戏玩家实力定位方案是采用通过游戏玩家在游戏对局所得到的分值,直接确定出游戏玩家的操作水平。这种方式对游戏玩家操作水平定位比较单一,无法准确定位出游戏玩家的实际操作水平。
发明内容
本申请实施例提供一种游戏对象处理方法、装置、计算机设备及存储介质,能够准确地确定目标对象的操作水平。
一种游戏对象处理方法,包括:
获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息;
对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;
根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;
对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
相应地,本申请实施例提供一种游戏对象处理装置,包括:
获取单元,可以用于获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息;
提取单元,可以用于对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;
预测单元,可以用于根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;
融合单元,可以用于对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
在一些实施例中,预测单元,具体可以用于对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息;根据每一局游戏对应的融合后状态特征信息,采用训练后操作水平预测模型对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
在一些实施例中,对战状态信息包括每一局游戏的时间序列中各时间点对应的对战状态信息;提取单元,具体可以用于对每一局游戏的时间序列中各时间点对应的对战状态信息进行特征提取,得到每一局游戏的时间序列中各时间点对应的对战状态特征信息。
对应地,预测单元,具体可以用于根据每一局游戏的时间序列,对时间序列中各时间点对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息。
在一些实施例中,游戏包括多局;融合单元,具体可以用于针对多局游戏,将其中任一局作为当前局,执行下述操作:针对当前局游戏,若当前局游戏为第一局游戏,则获取目标对象的初始综合操作水平信息,并根据初始综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;若当前局游戏不为第一局游戏,则获取目标对象上一局游戏的综合操作水平信息,并根据上一局游戏的综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;直至多局游戏中每一局游戏均计算完毕,得到每一局游戏的综合操作水平信息;根据目标对象的综合操作水平信息,确定针对目标对象的目标操作水平信息。
在一些实施例中,对战状态特征信息为采用训练后操作水平预测模型对对战状态信息进行特征提取得到的信息;游戏对象处理装置还包括训练单元,训练单元,具体可以用于获取对战数据样本集合,对战数据样本集合包括至少一局游戏中标注操作水平标签的对战数据样本,对战数据样本为针对待预测对象标注了操作水平标签的数据样本;根据对战数据样本,采用待训练操作水平预测模型对待预测对象进行操作水平预测,得到待预测对象针对每一局游戏对应的预测操作水平信息;根据对战数据样本对应的操作水平标签和预测操作水平信息,对待训练操作水平预测模型的模型参数进行收敛,得到训练后操作水平预测模型。
在一些实施例中,训练单元,具体可以用于获取第一游戏阵营和第二游戏阵营,第一游戏阵营包括待预测对象和至少一个第一参与对象,第二游戏阵营包括至少一个第二参与对象,其中,待预测对象的候选操作水平信息、第一参与对象的候选操作水平信息和第二参与对象的候选操作水平信息均为随机分配的操作水平信息;将待预测对象、第一参与对象和第二参与对象进行对战处理,以得到对战数据样本;根据待预测对象的候选操作水平信息,确定对战数据样本对应的操作水平标签;根据对战数据样本和对战数据样本对应的操作水平标签,生成对战数据样本集合。
在一些实施例中,训练单元,具体可以用于采用待训练操作水平预测模型对对战数据样本进行特征提取,得到样本特征信息;根据样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
在一些实施例中,训练单元,具体可以用于针对每一局游戏,对样本特征信息进行融合,得到融合后样本特征信息;根据融合后样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
在一些实施例中,训练单元,具体可以用于将待预测对象、第一参与对象和第二参与对象进行对战处理,得到候选对战数据;按照目标时间序列,对候选对战数据进行样本提取,得到待预测对象在每一局游戏中对应的对战数据样本。
在一些实施例中,游戏对象处理装置还包括匹配单元,匹配单元具体可以用于根据目标对象的目标操作水平信息,确定目标对象的目标水平等级信息;根据目标对象的目标水平等级信息,获取至少一个候选对局对象;从候选对局对象中提取出与目标对象匹配的目标对局对象。
此外,本申请实施例还提供一种计算机设备,包括存储器和处理器;存储器存储有计算机程序,处理器用于运行存储器内的计算机程序,以执行本申请实施例提供的任一种游戏对象处理方法。
此外,本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序适于处理器进行加载,以执行本申请实施例提供的任一种游戏对象处理方法。
此外,本申请实施例还提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时实现本申请实施例所提供的任一种游戏对象处理方法。
本申请实施例可以获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息;对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。由于本申请实施例可以根据目标对象和对局对象之间的每一局游戏对应的对战状态信息,确定出每一局游戏的操作水平信息,如此能够准确地计算出目标对象的目标操作水平信息,进而准确地确定出目标对象的操作水平。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的游戏对象处理方法的场景示意图;
图2是本申请实施例提供的游戏对象处理方法的流程示意一图;
图3是本申请实施例提供的对待训练操作水平预测模型进行训练的流程示意图;
图4是本申请实施例提供的游戏对象处理方法的流程示意二图;
图5是本申请实施例提供的待训练操作水平预测模型的结构图;
图6是本申请实施例提供的训练后操作水平预测模型的应用示意图;
图7是本申请实施例提供的针对目标对象的目标操作水平信息的收敛示意图;
图8是本申请实施例提供的游戏对象处理装置的结构示意图;
图9是本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种游戏对象处理方法、装置、计算机设备及计算机可读存储介质。其中,该游戏对象处理装置可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备。
其中,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、网络加速服务(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。终端包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端、飞行器等。本申请实施例可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。
其中,本申请实施例可以涉及人工智能(Artificial Intelligence,AI),人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
例如,参见图1,以游戏对象处理装置集成在计算机设备中为例,计算机设备可以获取游戏中目标对象和对局对象的对战状态信息集合;对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
其中,对战状态信息集合包括至少一局游戏对应的对战状态信息,每一局游戏可以对应若干对战状态信息。
其中,游戏可以是任意的游戏,例如,游戏可以是人机对局的游戏,也即玩家在游戏中控制的虚拟对象和人工智能在游戏中控制的虚拟对象进行对局的游戏;例如,游戏可以是人和人对局的游戏,也即玩家在游戏中所控制的虚拟对象进行对局的游戏。
其中,目标对象可以是指目标玩家在游戏中所控制的虚拟对象;目标对象可以包括至少一个虚拟对象。
其中,对局对象可以是指人工智能在游戏中所控制的虚拟对象,也可以是指非目标玩家在游戏中所控制的虚拟对象;对局对象可以包括至少一个虚拟对象。
其中,操作水平信息可以是表征在一局游戏中,通过预测得到的目标玩家对目标对象在操作上所展现的游戏操作实力;目标操作水平信息可以是表征在至少一局游戏中,目标玩家在对目标对象在操作上所展现的实际游戏操作实力。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优选顺序的限定。
本实施例将从游戏对象处理装置的角度进行描述,该游戏对象处理装置具体可以集成在计算机设备中,该计算机设备可以是服务器,也可以是终端等设备;其中,该终端可以包括平板电脑、笔记本电脑、以及个人计算机(PC,Personal Computer)、可穿戴设备、虚拟现实设备或其他可以获取数据的智能设备等设备。
如图2所示,该游戏对象处理方法的具体流程如步骤S101-S104:
S101、获取游戏中目标对象和对局对象的对战状态信息集合。
其中,对战状态信息集合包括至少一局游戏对应的对战状态信息。每一局游戏可以对应若干对战状态信息。
在本申请实施例中,目标对象可以是指目标玩家在游戏中所控制的虚拟对象;目标对象可以包括至少一个虚拟对象。对局对象可以是指人工智能的神经网络模型在游戏中所控制的虚拟对象,也可以是指非目标玩家在游戏中所控制的虚拟对象;对局对象可以包括至少一个虚拟对象。
例如,在本申请实施例中,对局阵营可以包括至少两个阵营,比如,对局阵营包括第一对局阵营和第二对局阵营,其中,第一对局阵营包括至少一个目标对象,第二对局阵营包括至少一个对局对象。第一对局阵营和第二对局阵营进行对战,以得到第一对局阵营和第二对局阵营进行对局的游戏局对应的游戏状态信息。
在本申请实施例中,由于在目标对象和对局对象的对局中,所产生的候选对战状态信息并非都是本申请实施例所需要的,候选对战状态信息可以是指目标对象和对局对象在对战过程中所产生的任意信息。基于此,本申请实施例针对每一局游戏,可以按照时间序列中的各时间点对候选对战状态信息进行信息提取,如此,计算机设备可以提取到每一局游戏的时间序列中各时间点对应的对战状态信息。在本申请实施例中,每一局游戏的时间序列包括多个时间点。
S102、对对战状态信息集合中包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息。
其中,对战状态特征信息可以为采用特征提取模型进行特征提取到的信息,特征提取模型可以为现有的相关技术中的神经网络模型。
对战状态特征信息还可以为采用训练后操作水平预测模型进行特征提取到的信息,训练后操作水平预测模型为对待训练操作水平预测模型进行训练后所得到的模型。
其中,对战状态特征信息可以包括至少一个状态维度对应的对战状态特征信息,状态维度可以包括阵容维度、位置维度和对战维度。
阵容维度用于表征对象在对局阵营中的阵容,对象包括目标对象和对局对象。具体来说,阵容维度的对战状态特征信息包括目标对象对应的阵容维度的对战状态特征信息和对局对象对应的阵容维度的对战状态特征信息;其中,目标对象对应的阵容维度的对战状态特征信息可以为目标对象所在的对局阵营中的阵容信息,对局对象对应的阵容维度的对战状态特征信息可以为对局对象所在的对局阵营中的阵容信息。
位置维度用于表征对象在对局阵营中的位置,对象包括目标对象和对局对象。具体来说,位置维度的对战状态特征信息包括目标对象对应的位置维度的对战状态特征信息和对局对象对应的位置维度的对战状态特征信息;其中,目标对象对应的位置维度的对战状态特征信息可以为目标对象在对局阵营中的位置信息;对局对象对应的位置维度的对战状态特征信息可以为对局对象所在对局阵营中的位置信息。
对战维度可以是指除了位置维度和阵容维度之外的维度,对战维度用于表征对象在对局中的对战状态。具体来说,对战维度的对战状态特征信息可以为目标对象和对局对象在游戏对战过程的对战信息。
本申请实施例中,对战状态信息包括每一局游戏的时间序列中各时间点对应的对战状态信息,基于此,本申请实施例可以对每一局游戏的时间序列中各时间点对应的对战状态信息进行特征提取,得到每一局游戏的时间序列中各时间点对应的对战状态特征信息。
由于训练后操作水平预测模型为对待训练操作水平预测模型进行训练后所得到的模型,基于此,本申请实施例可以对待训练操作水平预测模型进行训练,如图3所示,训练过程如步骤A1-A3:
A1、获取对战数据样本集合。
其中,对战数据样本集合包括至少一局游戏中标注操作水平标签的对战数据样本,对战数据样本为针对待预测对象标注了操作水平标签的数据样本。
在本申请实施例中,计算机设备获取对战数据样本集合的方式可以如下:
例如,计算机设备可以获取第一游戏阵营和第二游戏阵营,第一游戏阵营包括待预测对象和至少一个第一参与对象,第二游戏阵营包括至少一个第二参与对象;将待预测对象、第一参与对象和第二参与对象进行对战处理,以得到对战数据样本;根据待预测对象的候选操作水平信息,确定对战数据样本对应的操作水平标签;根据对战数据样本和对战数据样本对应的操作水平标签,生成对战数据样本集合。
其中,本申请实施例为了模拟玩家在新手阶段所匹配的对局对象和游戏难度不准确的情况,本申请实施例中待预测对象的候选操作水平信息、第一参与对象的候选操作水平信息和第二参与对象的候选操作水平信息均为随机分配的操作水平信息。在本申请实施例中,候选操作水平信息可以以游戏操作难度等级表征。在本申请实施例中,待预测对象、第一参与对象和第二参与对象均可以由神经网络模型控制,基于此,计算机设备可以随机对待预测对象、第一参与对象和第二参与对象分配候选操作水平信息。
其中,本申请实施例将待预测对象、第一参与对象和第二参与对象进行对战处理,以得到对战数据样本的方式可以为:计算机设备可以将待预测对象、第一参与对象和第二参与对象进行对战处理,得到候选对战数据;按照目标时间序列,对候选对战数据进行样本提取,得到待预测对象在每一局游戏中对应的对战数据样本。
本申请实施例中,目标时间序列可以是指一局游戏中的目标时间序列,目标时间序列可以包括多个时间点,在本申请实施实施例中,以目标时间序列可以包括一局游戏中的十二个时间点为例进行说明。在本申请实施例中,针对每一局游戏,计算机设备可以按照目标时间序列中十二个时间点对候选对战数据进行样本提取,得到待预测对象在每一局游戏中对应的对战数据样本。
A2、根据对战数据样本,采用待训练操作水平预测模型对待预测对象进行操作水平预测,得到待预测对象针对每一局游戏对应的预测操作水平信息。
其中,本申请实施例根据对战数据样本,采用待训练操作水平预测模型对待预测对象进行操作水平预测,得到待预测对象针对每一局游戏对应的预测操作水平信息的方式可以如下:
例如,计算机设备可以采用待训练操作水平预测模型对对战数据样本进行特征提取,得到样本特征信息;根据样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
其中,本申请实施例根据样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息的方式可以为:针对每一局游戏,对样本特征信息进行融合,得到融合后样本特征信息;根据融合后样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
本申请实施例针对每一局游戏,对样本特征信息进行融合,得到融合后样本特征信息的方式可以为:对目标时间序列中各时间点对应的样本特征信息按照目标时间序列升序拼接,构建候选时序特征信息,候选时序特征信息即为融合后样本特征信息。
A3、根据对战数据样本对应的操作水平标签和预测操作水平信息,对待训练操作水平预测模型的模型参数进行收敛,得到训练后操作水平预测模型。
其中,操作水平标签可以理解为是待预测对象的真实操作水平信息。
可以理解的是,对战数据样本对应的操作水平标签和预测操作水平信息均针对同一待预测对象的同一局游戏。
基于上述,本申请实施例可以通过损失函数计算操作水平标签和预测操作水平信息之间的损失值;根据损失值对待训练操作水平预测模型的模型参数进行收敛,得到训练后操作水平预测模型。
其中,损失函数可以是交叉熵损失函数,可以是指数损失函数,还可以是均方误差损失函数等。
其中,损失函数可以为交叉熵损失函数,可以为均方误差损失函数。
S103、根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
本申请实施例根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息的方式有多种:
例如,计算机设备根据对战状态特征信息,采用现有的相关技术中的游戏水平预测模型对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
又例如,计算机设备可以对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息;根据每一局游戏对应的融合后状态特征信息,采用训练后操作水平预测模型对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
其中,由于本申请实施例的对战状态特征信息可以包括每一局游戏的时间序列中各时间点对应的对战状态特征信息,基于此,本申请实施例对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息的方式可以为:根据每一局游戏的时间序列,对时间序列中各时间点对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息。
在本申请实施例中,对时间序列中各时间点对应的对战状态特征信息进行融合处理的方式可以是对时间序列中各时间点对应的对战状态特征信息按照时间序列升序拼接,构造时序特征信息,该时序特征信息即为融合后状态特征信息。
S104、对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
在本申请实施例中,计算机设备可以根据每一局游戏对应的操作水平信息,确定目标对象的目标操作水平信息。
本申请实施例对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息的方式可以如下:
本申请实施例中,游戏包括多局;针对多局游戏,将其中任一局作为当前局,执行下述操作:例如,针对当前局游戏,若当前局游戏为第一局游戏,则获取目标对象的初始综合操作水平信息,并根据初始综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;若当前局游戏不为第一局游戏,则获取目标对象上一局游戏的综合操作水平信息,并根据上一局游戏的综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;直至多局游戏中每一局游戏均计算完毕,得到每一局游戏的综合操作水平信息;根据目标对象的综合操作水平信息,确定针对目标对象的目标操作水平信息。
其中,初始综合操作水平信息可以是计算机设备初始化的综合操作水平信息。
其中,上一局游戏是指当前局的上一局游戏。
由于本申请实施例的操作水平信息可以采用数值进行表征,初始综合操作水平信息也可以采用数值表征,基于此,本申请实施例根据初始综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息的方式可以为:获取预设函数;根据预设函数,对初始综合操作水平信息和目标对象当前局游戏的操作水平信息进行映射处理,得到当前局游戏的综合操作水平信息。
同理,本申请实施例也可以根据该预设函数,对上一局游戏的综合操作水平信息和目标对象当前局游戏的操作水平信息进行映射处理,得到当前局游戏的综合操作水平信息。
其中,综合操作水平信息可以以数值形式表征,目标操作水平信息可以以数值形式表征。
本申请实施例根据目标对象的综合操作水平信息,确定针对目标对象的目标操作水平信息的方式有多种:
例如,计算机设备计算每一局游戏对应的综合操作水平信息的平均值,将该平均值作为针对目标对象的目标操作水平信息。
又例如,游戏包括多局,综合操作水平信息包括上一局游戏的综合操作水平信息和当前局游戏的综合操作水平信息。
针对当前局游戏,若当前局游戏为第一局游戏,则计算当前局游戏的综合操作水平信息和初始综合操作水平信息之间的差异信息;若当前局游戏不为第一局游戏,则计算上一局游戏的综合操作水平信息和当前局游戏的综合操作水平信息之间的差异信息,差异信息可以以数值表征;将每一局游戏作为当前局游戏,重复执行若当前局游戏为第一局游戏,则计算当前局游戏的综合操作水平信息和初始综合操作水平信息之间的差异信息;若当前局游戏不为第一局游戏,则计算上一局游戏的综合操作水平信息和当前局游戏的综合操作水平信息之间的差异信息的步骤,直至差异信息小于或等于预设阈值,得到针对目标对象的目标操作水平信息。其中,预设阈值可以为0。
本申请实施例在步骤S104之后,还可以为目标对象匹配对应的目标对局对象,例如,计算机设备可以根据目标对象的目标操作水平信息,确定目标对象的目标水平等级信息;根据目标对象的目标水平等级信息,获取至少一个候选对局对象;从候选对局对象中提取出与目标对象匹配的目标对局对象。
其中,本申请实施例可以获取映射关系集合,映射关系集合包括预设操作水平信息和预设水平等级信息之间的映射关系;根据映射关系集合,确定目标对象的目标操作水平信息对应的目标水平等级信息。
其中,本申请实施例的候选对局对象与目标水平等级信息具有对应关系,基于此,本申请实施例可以获取至少一个候选对局对象。
其中,目标对局对象与目标对象匹配的情况有多种,例如,当目标对局对象对应的水平等级信息与目标对象的目标水平等级信息相同时,此种情况可以称目标对局对象与目标对象匹配;当目标对局对象对应的水平等级信息与目标对象的目标水平等级信息相同,且目标对局对象的对象种类与目标对象的对象种类满足预设规则时,此种情况可以称目标对局对象与目标对象匹配。
本申请实施例可以获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息;对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。由于本申请实施例可以根据目标对象和对局对象之间的每一局游戏对应的对战状态信息,确定出每一局游戏的操作水平信息,如此能够准确地计算出目标对象的目标操作水平信息,进而准确地确定出目标对象的操作水平。
根据上面实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该游戏对象处理装置具体集成在计算机设备,计算机设备为服务器。
如图4所示,一种游戏对象处理方法,具体步骤如下S201-S207:
S201、计算机设备获取对战数据样本集合。
在本申请实施例中,计算机设备获取对战数据样本集合的方式可以如下:
例如,计算机设备可以获取第一游戏阵营和第二游戏阵营,第一游戏阵营包括待预测对象和至少一个第一参与对象,第二游戏阵营包括至少一个第二参与对象;将待预测对象、第一参与对象和第二参与对象进行对战处理,以得到对战数据样本;根据待预测对象的候选操作水平信息,确定对战数据样本对应的操作水平标签;根据对战数据样本和对战数据样本对应的操作水平标签,生成对战数据样本集合。
具体来讲,在游戏中,计算机设备对第一游戏阵营和第二游戏阵营可以采用颜色进行区分。例如,第一游戏阵营的颜色为红色,第二游戏阵营的颜色为蓝色。第一游戏阵营和第二游戏阵营中均设置五个虚拟对象,第一游戏阵营中的虚拟对象包括待预测对象和四个第一参与对象,第二游戏阵营中的虚拟对象包括五个第二参与对象。每一虚拟对象由对应的神经网络模型控制。
然后,针对第一游戏阵营,计算机设备获取第一预设操作水平信息集合,第一预设操作水平信息集合包括若干第一预设操作水平信息,从第一预设操作水平信息集合中随机提取到第一预设操作水平信息作为待预测对象的候选操作水平信息。计算机设备获取第二预设操作水平信息集合,第二预设操作水平信息集合包括若干第二预设操作水平信息,从第二预设操作水平信息集合中随机提取到第二预设操作水平信息作为各第一参与对象的候选操作水平信息。
针对第二游戏阵营,计算机设备获取第三预设操作水平信息集合,第三预设操作水平信息集合包括若干第三预设操作水平信息,从第三预设操作水平信息集合中随机提取到第三预设操作水平信息作为各第二参与对象的候选操作水平信息。其中,第一预设操作水平信息集合、第二预设操作水平信息集合以及第三预设操作水平信息集合可根据具体需求设定。
基于上述,在神经网络模型控制下,第一游戏阵营和第二游戏阵营进行对战,以得到对战数据样本。也即,本申请实施例将待预测对象、第一参与对象和第二参与对象进行对战处理,以得到对战数据样本的方式可以为:计算机设备可以将待预测对象、第一参与对象和第二参与对象进行对战处理,得到候选对战数据;按照每一局游戏的目标时间序列,对候选对战数据进行样本提取,得到待预测对象在每一局游戏中对应的对战数据样本。
其中,在本申请实施例中,由于候选操作水平信息可以以游戏操作难度等级表征,基于此,本申请实施例可以预先设置不同预设游戏操作难度等级范围作为区分条件,来区分模拟待预测对象的单人对战的情况和模拟待预测对象的团队对战的情况。
例如,针对待预测对象的单人对战的情况,待预测对象的候选操作水平信息可以在第一预设游戏操作难度等级范围内,而第一参与对象的候选操作水平信息和第二参与对象的候选操作水平信息不在第一预设游戏操作难度等级范围内。此种情况,计算机设备可以只针对待预测对象对应的候选对战数据进行样本提取,如此,可以模拟待预测对象的单人对战的情况。
针对待预测对象的团队对战的情况,待预测对象的候选操作水平信息和第一参与对象的候选操作水平可以在第二预设游戏操作难度等级范围内。此种情况,计算机设备可以针对待预测对象所在的第一游戏阵营中所有虚拟对象对应的候选对战数据进行样本提取,如此,可以模拟待预测对象的团队对战的情况。
其中,在本申请实施例的第一游戏阵营和第二游戏阵营进行了至少420场游戏对战,针对待预测对象的团队对战的情况,本申请实施例可以生成至少500万条对战数据样本。针对待预测对象的单人对战的情况,待预测对象也可以进行多次对战,生成大量对战数据样本。
本申请实施例中,目标时间序列可以包括每一局游戏的十二个时间点。在本申请实施例中,若第一游戏阵营和第二游戏阵营进行对战的对局时长中时间点不满足目标时间序列,可以不获取对战数据样本。
S202、计算机设备根据对战数据样本,采用待训练操作水平预测模型对待预测对象进行操作水平预测,得到待预测对象针对每一局游戏对应的预测操作水平信息。
例如,计算机设备可以采用待训练操作水平预测模型的特征提取层对对战数据样本进行特征提取,得到样本特征信息;根据样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
其中,计算机设备可以针对每一局游戏,对样本特征信息进行融合,得到融合后样本特征信息;根据融合后样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
其中,本申请实施例采集到的样本特征信息可以包括多个候选维度的样本特征信息,候选维度包括:虚拟对象位置、MVP(most valuable player,最有价值游戏者)得分、虚拟对象的候选操作水平信息、阵营数量、待预测对象参与阵营的概率、待预测对象对第二参与对象的伤害数、虚拟对象的虚拟击杀数、虚拟对象的虚拟击杀占比、虚拟对象的虚拟承伤数、虚拟建筑伤害值、虚拟助攻数、虚拟补刀数、虚拟死亡数、虚拟死亡占队比、虚拟承伤死亡比、虚拟伤害击杀比、虚拟对象等级、虚拟金钱、对局时长、阵营的虚拟击杀数,阵营的虚拟对象的虚拟死亡数、待预测对象所在阵营、待预测对象所在阵营颜色、对局结果、对局阵营的虚拟击杀数、对局阵营的虚拟死亡数、待预测对象所在阵营平均每分钟的虚拟击杀数、待预测对象所在阵营平均每分钟的虚拟死亡数、平均每分钟虚拟击杀数、平均每分钟虚拟助攻数、平均每分钟虚拟死亡数、平均每分钟所得虚拟金钱数、平均每分钟阵营虚拟金钱差、平均每分钟阵营虚拟击杀差、平均每分钟虚拟补刀数、待预测对象平均每分钟造成虚拟对象伤害值、待预测对象平均每分钟受到虚拟对象伤害值、待预测对象平均每分钟参团数、平均每分钟MVP得分、平均每分钟(MVP分-阵营平均MVP分)、平均每分钟(MVP分-双方阵营平均MVP分)\平均每分钟(MVP分-对方阵营平均MVP分)、待预测对象所在阵营平均MVP分、对局阵营平均MVP分、MVP分-阵营平均MVP分、MVP分-双方阵营平均MVP分、MVP分-对局阵营平均MVP分、对局阵营平均每分钟人头数、对局阵营平均每分钟的虚拟金钱数、待虚拟对象所在阵营的候选操作水平信息与对局阵营的候选操作水平信息之间的差距、对局阵营。
在本申请实施例的样本特征信息可以包括离散特征信息和连续特征信息。
基于上述,其中,离散特征信息可以包括虚拟对象身份候选维度的样本特征信息、虚拟对象位置候选维度的样本特征信息、对局结果候选维度的样本特征信息、虚拟对象的候选操作水平信息候选维度的样本特征信息,以及对局阵营候选维度的样本特征信息。除了离散特征信息中的候选维度所对应的样本特征信息,其它候选维度所对应的样本特征信息可以视为连续特征信息。
针对连续特征信息,计算机设备进行离散化处理,例如,采用等频或等距对连续特征信息进行分桶处理,以对连续特征信息离散化。具体来说,针对每一连续特征信息,计算机设备将连续特征信息分成若干个不同的桶,例如,15-20区间内任意数量个不同的桶,如此,将连续特征信息转化为离散特征信息。
针对上述的离散特征信息,由于离散特征信息可以用数值表示,基于此,计算机设备将大于目标阈值的离散特征信息过滤,如此可以过滤异常的离散特征信息,得到过滤后特征信息。然后,对过滤后特征信息进行编码,编码包括one-hot编码和multi-hot编码。
其中,本申请实施例还可以将预设离散特征信息对大于目标阈值的离散特征信息进行替换,得到替换后离散特征信息;基于此,本申请实施例可以将替换后离散特征信息和正常的离散特征信息作为过滤后特征信息。
one-hot编码可以是指离散特征信息的二进制向量编码形式,其将离散值映射到整数值,其中,每个整数值被表示为二进制向量,除了整数的索引之外,它都是零值,它被标记为1。
multi-hot编码可以是指离散特征信息的二进制向量编码形式,其将离散值映射到整数值,其中,每个整数值被表示为二进制向量,除了若干个整数的索引为1之外,其他都是零值。
具体来说,本申请实施例可以对过滤后特征信息进行one-hot编码,得到one-hot编码特征信息;对one-hot编码特征信息进行multi-hot编码,得到multi-hot编码特征信息;将multi-hot编码特征信息作为样本特征信息,如此可以消除位置偏差。
例如,候选虚拟对象包括第一候选虚拟对象和第二候选虚拟对象,第一候选虚拟对象的位置的one-hot编码特征信息可以表示为010,第二候选虚拟对象的位置的one-hot编码特征信息可以表示为001;通过multi-hot编码,得到multi-hot编码特征信息可以表示为010001或者001010,如此消除位置偏差。
本申请实施例针对每一局游戏,对样本特征信息进行融合,得到融合后样本特征信息的方式可以为:计算机设备对目标时间序列中各时间点对应的样本特征信息按照目标时间序列升序拼接,构建候选时序特征信息,候选时序特征信息即为融合后样本特征信息。
进一步来说,如图5所示,待训练操作水平预测模型可以为Omninet神经网络模型,待训练操作水平预测模型包括特征提取层、Transformer层、Omnidirectional Attention层和输出层。
在对待训练操作水平预测模型的训练时,将整个数据集(约500万条)划分为训练集(80%),以及测试集(20%),模型训练batchsize(即,批量大小)设为2000。
其中,特征提取层可以用于将对战数据样本映射到维度空间,得到对战数据样本对应的样本特征信息。在本申请实施例中,对战数据样本可以以游戏对战图像的形式展示。例如,针对每一局游戏,对战数据样本包括目标时间序列中每一时间点对应的对战数据样本。目标时间序列中时间点包括第一时间点、第二时间点……第N时间点。N为正整数,在本申请实施例中,N可以设置为十二。
在本申请实施例中,对战数据样本包括每一局中,目标时间序列各时间点对应的对战数据样本。待训练操作水平预测模型的特征提取层对目标时间序列中各时间点对应的对战数据样本进行特征提取,得到目标时间序列中各时间点对应的样本特征信息。其中,样本特征信息可以包括至少一个状态维度对应的样本特征信息,状态维度可以包括阵容维度、位置维度和对战维度,阵容维度和位置维度和对战维度可以参见前述解释,此处不再赘述。
其中,本申请实施例的每一状态维度对应的样本特征信息可以包括至少一个候选维度的样本特征信息,例如,阵容维度的样本特征信息可以包括阵营数量候选维度的样本特征信息、待预测对象所在阵营候选维度的样本特征信息、待预测对象所在阵营颜色候选维度的样本特征信息、对局阵营候选维度的样本特征信息。位置维度的样本特征信息可以包括虚拟对象位置候选维度的样本特征信息。本申请实施例中,其它候选维度的样本特征信息均可以被包括于对战维度的样本特征信息中。
本申请实施例对目标时间序列中各时间点对应的样本特征信息按照目标时间序列升序拼接,构建候选时序特征信息,候选时序特征信息即为融合后样本特征信息,可以理解为,融合后样本特征信息为阵容维度的样本特征信息、位置维度的样本特征信息和对战维度的样本特征信息,按照目标时间序列升序拼接所得到的特征信息。
由于融合后样本特征信息为在一局游戏中多次采集的候选时序特征信息,本申请实施例采用擅长处理时序特征信息的Transformer作为待训练操作水平信息预测模型的基本架构。Transformer层具有至少6层神经网络层,相比于传统的序列深度学习模型,如RNN和LSTM,Transformer层采用Self-attention代替自循环依赖,Transformer层的结构便于并行化,可解释性也更强。
在本申请实施例中以Transformer层具有L-1层神经网络层为例进行阐述,L为正整数,且L大于1。本申请实施例中,融合后样本特征信息X输入到Transformer层进行处理,Transformer层的第一层神经网络层对融合后样本特征信息的处理可表示为公式(1):
其中,X1表示Transformer层中第一层神经网络层的特征信息,可以表示第N个时间点对应的对战数据样本经过特征提取层和Transformer层中第一层神经网络处理,由第一层神经网络采集到的样本特征信息。
Transformer层的第二层神经网络层对X1进行处理,得到Transformer层中第二层神经网络层的特征信息,可参见公式(2):
其中,X2表示Transformer层中第二层神经网络层所采集到的特征信息,可以表示第N个时间点对应的对战数据样本经过特征提取层和Transformer层中第一层神经网络以及Transformer层中第二层神经网络处理,由第二层神经网络采集到的样本特征信息。
依次类推,可得到Transformer层中第L-1层神经网络层的特征信息,参见公式(3):
其中,XL-1表示Transformer层中第L-1层神经网络层所得到的特征信息,可以表示第N个时间点对应的对战数据样本经过特征提取层和Transformer层中的L-1层神经网络处理,由第L-1层神经网络采集到的样本特征信息。
Omnidirectional Attention层即全方位注意力神经网络层,其采用self-attention,Omnidirectional Attention层允许每个样本特征信息都与整个网络中的所有样本特征信息进行“交互”,使其具有神经网络整个宽度和深度的接受域。这样密集的残差连接形式,有助于梯度传播并增强训练后操作水平预测模型的特征表达能力,使预测结果更加准确,使其比传统Transformer模型具有更高的精确度。
Omnidirectional Attention层接收Transformer层的输出特征信息,Transformer层的输出特征信息Xformer(X)可表示为公式(4):
Xformer(X)=X1,X2,...,XL-1 公式(4)
Omnidirectional Attention层对Transformer层的输出特征进行处理,得到处理后特征信息O,可表示为公式(5):
O=Attend(IndexSort(X1,X2,...,XL-1)) 公式(5)
其中,Attend表示self-attention的计算规则,IndexSort是指按索引排序。
本申请实施例对处理后特征信息O进行池化处理,得到池化后特征信息O'。
最终,Omnidirectional Attention层的目标输出特征信息OmniNet(X)可以表示为公式(6):
OmniNet(X)=Xformer(X)+O' 公式(6)
本申请实施例的Omninet神经网络模型包括Transformer的Encoder结构,即包括特征提取层、Transformer层、Omnidirectional Attention层,然后,在Encoder结构上直接接入输出层进行预测。
基于此,本申请实施例将Omnidirectional Attention层的目标输出特征信息通过输出层进行预测,得到预测操作水平信息。在本申请实施例中,输出层可以对目标输出特征信息进行分类,得到针对每一个预设操作水平信息的分类概率;分类概率值最大的预测操作水平信息即为上述的操作水平信息。
OmniNet的Attention机制可以动态学习局内不同时间切片特征的重要性。本申请实施例Transformer层可以仅仅使用6层神经网络层,使本申请实施例的Omninet神经网络模型成为一个轻量级模型,Omninet神经网络模型的参数<2M。这样的轻量级模型易并行,推理速度快,能满足线上性能要求。Omninet神经网络模型采用Transformer层作为基础结构可以更好的支持模型训练,方便模型版本迭代快速更新。
S203、计算机设备根据对战数据样本对应的操作水平标签和预测操作水平信息,对待训练操作水平预测模型的模型参数进行收敛,得到训练后操作水平预测模型。
本申请实施例可以通过损失函数计算操作水平标签和预测操作水平信息之间的损失值;根据损失值对待训练操作水平预测模型的模型参数进行收敛,得到训练后操作水平预测模型。
其中,损失函数可以为交叉熵损失函数。待训练操作水平预测模型采用Adam优化器。待训练操作水平预测模型的学习率采用1e-4,L2正则化采用1e-4,训练大概在200epoch左右收敛,并使用4gpu服务器对待训练操作水平预测模型进行训练,可以在较短时间内使待训练操作水平预测模型收敛并达到较好效果。
基于上述,本申请实施例进一步进行阐述,本申请实施例的计算机设备可以为服务器,服务器获取到对战数据样本,并根据对战数据样本,在服务器上对待训练操作水平预测模型进行训练,得到训练后操作水平预测模型。本申请实施例可以将训练后操作水平预测模型进行在线部署。训练后操作水平预测模型可以在玩家的新手阶段触发。
S204、计算机设备获取游戏中目标对象和对局对象的对战状态信息集合。
其中,对战状态信息集合包括至少一局游戏对应的若干对战状态信息。
在本申请实施例中,由于在目标对象和对局对象的对局中,所产生的候选对战状态信息并非都是本申请实施所需要的,候选对战状态信息可以是指目标对象和对局对象在对战过程中所产生的任意信息,基于此,本申请实施例按照时间序列中的时间点对候选对战状态信息进行信息提取,如此,计算机设备可以提取到时间序列中时间点对应的对战状态信息。
S205、计算机设备采用训练后操作水平预测模型对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息。
本申请实施例中,对战状态信息包括时间序列中各时间点对应的对战状态信息,基于此,本申请实施例对时间序列中各时间点对应的对战状态信息进行特征提取,得到时间序列中各时间点对应的对战状态特征信息。
S206、计算机设备根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
例如,计算机设备可以对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息;根据每一局游戏对应的融合后状态特征信息,采用训练后操作水平预测模型对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
其中,本申请实施例可以根据每一局游戏的时间序列,对时间序列中各时间点对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息。
在本申请实施例中,对时间序列中各时间点对应的对战状态特征信息进行融合处理的方式可以是对时间序列中各时间点对应的对战状态特征信息按照时间序列升序拼接,构造时序特征信息,该时序特征信息即为融合后状态特征信息。
其中,融合后状态特征信息的维度为[样本数,特征数,时间点],对于不足十二个时间点的时间序列填充0值,共同输入待训练操作水平预测模型。
如图6所示,本申请实施例中,训练后操作水平预测模型部署到服务器11上,目标玩家通过游戏客户端12对目标对象进行操作,以将目标对象和对局对象进行对战,得到至少一局游戏对应的若干对战状态信息,然后,将对战状态信息存储到数据库13。处理中台14可以从数据库中提取与目标对象对应的对战状态信息,并将目标对象对应的对战状态信息发送到服务器11,又基于服务器11上的训练后操作水平预测模型进行操作水平预测,得到操作水平信息,并将操作水平信息返回给游戏客户端12。
S207、计算机设备对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
本申请实施例对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息的方式如下:
针对多局游戏,将其中任一局作为当前局,执行下述操作:针对当前局游戏,若当前局游戏为第一局游戏,则获取目标对象的初始综合操作水平信息,并根据初始综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;若当前局游戏不为第一局游戏,则获取目标对象上一局游戏的综合操作水平信息,并根据上一局游戏的综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;直至多局游戏中每一局游戏均计算完毕,得到每一局游戏的综合操作水平信息;根据目标对象的综合操作水平信息,确定针对目标对象的目标操作水平信息。
计算机设备根据目标对象的综合操作水平信息,确定针对目标对象的目标操作水平信息的方式可以参见公式(7):
St=aCt+(1-a)St-1 公式(7)
其中,St表示当前局游戏的综合操作水平信息;a表示平滑系数0<a<1;St-1表示上一局游戏的综合操作水平信息或初始综合操作水平信息;Ct表示当前局游戏的操作水平信息。其中,当t=1时,St-1为初始综合操作水平信息;当t≠1时,St-1为上一局游戏的综合操作水平信息。
本申请实施例可以计算当前局游戏的综合操作水平信息和初始综合操作水平信息之间的差异信息和计算上一局游戏的综合操作水平信息和当前局游戏的综合操作水平信息之间的差异信息,以对针对目标对象的目标操作水平信息进行收敛,本申请实施例针对目标对象的目标操作水平信息的收敛速度如图7所示,从图7中可以看到在第3局的时候,第2局综合操作水平信息和第3局综合操作水平信息之间的差异信息已经拉开差距形成正态分布,且较为稳定,随着对局次数的增加,差异信息较小,这说明少量对局的情况下,迅速定位目标玩家针对目标对象的操作实力,收敛速度快且稳定。其中,差异信息和综合操作水平信息均可以采用数值表示。
现有的True Skill算法是通过玩家对局胜负所得到ELO分进行迭代更新,从而得到玩家控制虚拟对象的操作水平,此过程十分缓慢。由于现有的True Skill算法在新手阶段玩家的ELO分准确性低,用ELO分进行游戏匹配会降低玩家玩游戏质量。
进一步地,在本申请实施例中,将所有玩家和玩家对局次数都小于或等于10筛选出来,以模拟纯新手对局,然后将本申请实施例的游戏对象处理方法对玩家的游戏操作水平的评估和现有的True Skill算法对玩家的游戏操作水平的评估进行对比。表1为本申请实施例的游戏对象处理方法和现有的True Skill算法的对比。
高分阵营获胜场次 | 高分阵营获胜胜率 | |
本申请 | 2844 | 60.3% |
现有的True Skill算法 | 2496 | 49.4% |
表1
如表1所示,在纯新手对局阶段,通过本申请的游戏对象处理方法,目标对象在阵营胜率为60.3%,TrueS kill算法的目标对象在阵营胜率仅为49.4%,True Skill算法的胜率低于本申请。可见在新手阶段,本申请的游戏对象处理方法所得到的目标操作水平信息是比现有的True Skill算法所采用的ELO分更加准确。
除上述之外,本申请实施例还通过目标对象的虚拟杀敌数和目标对象的虚拟被杀数之间的差异值来评估本申请实施例的游戏对象处理方法和现有的True Skill算法之间的区别。若目标对象和目标对局对象之间实力接近,差异值较小。
本申请实施例相比True Skill算法,本申请实施例目标对象的人均|K-D|降低0.5(12.1%),本申请实施例目标对象的|K-D|>=8的比例降低1.6%(13.5%),说明本申请实施例为目标对象作为匹配目标对局对象能显著提高对局质量。
其中,K是指目标对象的虚拟杀敌数;D是指目标对象的虚拟被杀数。
另外,本申请实施例在步骤S207之后,还可以为目标对象匹配对应的目标对局对象,例如,计算机设备可以根据目标对象的目标操作水平信息,确定目标对象的目标水平等级信息;根据目标对象的目标水平等级信息,获取至少一个候选对局对象;从候选对局对象中提取出与目标对象匹配的目标对局对象。
基于上述,本申请实施例所提供的游戏对象处理方法具有诸多优点,例如,(1)本申请实施例确定目标操作水平信息收敛速度较快,3局以后目标操作水平信息趋于稳定,也即玩家的游戏操作水平能力定档已趋于稳定;(2)本申请实施例对玩家在新手阶段的游戏操作能力评估的准确性明显优于现有的True Skill算法,针对目标对象在对局阵营中进行对战所评估的相对实力的准确性,本申请实施例的准确性比现有的True Skill算法高6.9%;针对目标对象单独进行对战所评估的相对实力的准确性,本申请实施例的准确性比现有的True Skill算法高11.1%;(3)由于本申请使用了每一局游戏中,时间序列中各时间点对应的对战状态特征信息,相比于单层神经网络,本申请实施例的准确性得到了接近20%的提高;(4)本申请实施例在真人对局中的应用对玩家体验提升明显,有效降低对局内极端差异值的比例。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
本申请实施例可以获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息;对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。由于本申请实施例可以根据目标对象和对局对象之间的每一局游戏对应的对战状态信息,确定出每一局游戏的操作水平信息,如此能够准确地计算出目标对象的目标操作水平信息,进而准确地确定出目标对象的操作水平。
为了更好地实施以上方法,本申请实施例还提供一种游戏对象处理装置,该游戏对象处理装置可以集成在计算机设备,比如服务器或终端等设备中,该终端可以包括平板电脑、笔记本电脑和/或个人计算机等。
例如,如图8所示,该游戏对象处理装置可以包括获取单元301、提取单元302、预测单元303、融合单元304、匹配单元305和训练单元306,如下:
(1)获取单元301;
获取单元301,可以用于获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息。
(2)提取单元302;
提取单元302,可以用于对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息。
在一些实施例中,对战状态信息包括每一局游戏的时间序列中各时间点对应的对战状态信息;提取单元302,可以用于对每一局游戏的时间序列中各时间点对应的对战状态信息进行特征提取,得到每一局游戏的时间序列中各时间点对应的对战状态特征信息。
(3)预测单元303;
预测单元303,可以用于根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
在一些实施例中,预测单元303,具体可以用于对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息;根据每一局游戏对应的融合后状态特征信息,采用训练后操作水平预测模型对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
在一些实施例中,预测单元303,具体可以用于根据每一局游戏的时间序列,对时间序列中各时间点对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息。
(4)融合单元304;
融合单元304,可以用于对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
在一些实施例中,游戏包括多局;融合单元304,具体可以用于针对多局游戏,将其中任一局作为当前局,执行下述操作:针对当前局游戏,若当前局游戏为第一局游戏,则获取目标对象的初始综合操作水平信息,并根据初始综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;若当前局游戏不为第一局游戏,则获取目标对象上一局游戏的综合操作水平信息,并根据上一局游戏的综合操作水平信息和目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;直至多局游戏中每一局游戏均计算完毕,得到每一局游戏的综合操作水平信息;根据目标对象的综合操作水平信息,确定针对目标对象的目标操作水平信息。
(5)匹配单元305;
匹配单元305,可以用于根据目标对象的目标操作水平信息,确定目标对象的目标水平等级信息;根据目标对象的目标水平等级信息,获取至少一个候选对局对象;从候选对局对象中提取出与目标对象匹配的目标对局对象。
(6)训练单元306;
训练单元306,可以用于获取对战数据样本集合,对战数据样本集合包括至少一局游戏中标注操作水平标签的对战数据样本,对战数据样本为针对待预测对象标注了操作水平标签的数据样本;根据对战数据样本,采用待训练操作水平预测模型对待预测对象进行操作水平预测,得到待预测对象针对每一局游戏对应的预测操作水平信息;根据对战数据样本对应的操作水平标签和预测操作水平信息,对待训练操作水平预测模型的模型参数进行收敛,得到训练后操作水平预测模型。
在一些实施例中,训练单元306,可以用于获取第一游戏阵营和第二游戏阵营,第一游戏阵营包括待预测对象和至少一个第一参与对象,第二游戏阵营包括至少一个第二参与对象,其中,待预测对象的候选操作水平信息、第一参与对象的候选操作水平信息和第二参与对象的候选操作水平信息均为随机分配的操作水平信息;将待预测对象、第一参与对象和第二参与对象进行对战处理,以得到对战数据样本;根据待预测对象的候选操作水平信息,确定对战数据样本对应的操作水平标签;根据对战数据样本和对战数据样本对应的操作水平标签,生成对战数据样本集合。
在一些实施例中,训练单元306,具体可以用于采用待训练操作水平预测模型对对战数据样本进行特征提取,得到样本特征信息;根据样本特征信息,对待预测对象进行操作水平预测,得到待预测对象每一局游戏对应的预测操作水平信息。
在一些实施例中,训练单元306,具体可以用于针对每一局游戏,对样本特征信息进行融合,得到融合后样本特征信息;根据融合后样本特征信息,对待预测对象进行操作水平预测,得到待预测对象的预测操作水平信息。
在一些实施例中,训练单元306,具体可以用于将待预测对象、第一参与对象和第二参与对象进行对战处理,得到候选对战数据;按照目标时间序列,对候选对战数据进行样本提取,得到待预测对象在每一局游戏中对应的对战数据样本。
由上可知,本申请实施例的获取单元301可以用于获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的若干对战状态信息;提取单元302可以用于对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;预测单元303可以用于根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;融合单元304可以用于对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。由于本申请实施例可以根据目标对象和对局对象之间的每一局游戏对应的对战状态信息,确定出每一局游戏的操作水平信息,如此能够准确地计算出目标对象的目标操作水平信息,进而准确地确定出目标对象的操作水平。
本申请实施例还提供一种计算机设备,如图9所示,其示出了本申请实施例所涉及的计算机设备的结构示意图,具体来讲:
该计算机设备可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读计算机可读存储介质的存储器402、电源403和输入单元404等部件。本领域技术人员可以理解,图9中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该计算机设备的控制中心,利用各种接口和线路连接整个计算机设备的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行计算机设备的各种功能和处理数据。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和计算机程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器402可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的计算机程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备的使用所创建的数据等。此外,存储器402可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器402还可以包括存储器控制器,以提供处理器401对存储器402的访问。
计算机设备还包括给各个部件供电的电源403,优选的,电源403可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源403还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该计算机设备还可包括输入单元404,该输入单元404可用于接收输入的数字或字符信息通讯,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,计算机设备还可以包括显示单元等,在此不再赘述。具体在本实施例中,计算机设备中的处理器401会按照如下的指令,将一个或一个以上的计算机程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的计算机程序,从而实现各种功能,如下:
获取游戏中目标对象和对局对象的对战状态信息集合,对战状态信息集合包括至少一局游戏对应的对战状态信息;对对战状态信息集合包括的对战状态信息进行特征提取,得到对战状态信息对应的对战状态特征信息;根据对战状态特征信息,对目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;对目标对象的操作水平信息进行融合处理,得到针对目标对象的目标操作水平信息。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过计算机程序来完成,或通过计算机程序控制相关的硬件来完成,该计算机程序可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有计算机程序,该计算机程序能够被处理器进行加载,以执行本申请实施例所提供的任一种游戏对象处理方法。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该计算机可读存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该计算机可读存储介质中所存储的指令,可以执行本申请实施例所提供的任一种游戏对象处理方法中的步骤,因此,可以实现本申请实施例所提供的任一种游戏对象处理方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
其中,根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述实施例提供的各种可选实现方式中提供的方法。
以上对本申请实施例所提供的一种游戏对象处理方法、装置、计算机设备、计算机可读存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上,本说明书内容不应理解为对本申请的限制。
Claims (11)
1.一种游戏对象处理方法,其特征在于,包括:
获取游戏中目标对象和对局对象的对战状态信息集合,所述对战状态信息集合包括至少一局游戏对应的对战状态信息;
对所述对战状态信息集合包括的对战状态信息进行特征提取,得到所述对战状态信息对应的对战状态特征信息;
根据所述对战状态特征信息,对所述目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;
对所述目标对象的操作水平信息进行融合处理,得到针对所述目标对象的目标操作水平信息。
2.根据权利要求1所述的游戏对象处理方法,其特征在于,所述根据所述对战状态特征信息,对所述目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息,包括:
对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息;
根据每一局游戏对应的所述融合后状态特征信息,采用训练后操作水平预测模型对所述目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息。
3.根据权利要求2所述的游戏对象处理方法,其特征在于,所述对战状态信息包括每一局游戏的时间序列中各时间点对应的对战状态信息;所述对所述对战状态信息集合包括的对战状态信息进行特征提取,得到所述对战状态信息对应的对战状态特征信息,包括:
对所述每一局游戏的时间序列中各时间点对应的对战状态信息进行特征提取,得到每一局游戏的时间序列中各时间点对应的对战状态特征信息;
所述对每一局游戏对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息,包括:根据每一局游戏的时间序列,对所述时间序列中各时间点对应的对战状态特征信息进行融合处理,得到每一局游戏对应的融合后状态特征信息。
4.根据权利要求1所述的游戏对象处理方法,其特征在于,游戏包括多局;所述对所述目标对象的操作水平信息进行融合处理,得到针对所述目标对象的目标操作水平信息,包括:针对所述多局游戏,将其中任一局作为当前局,执行下述操作:
针对当前局游戏,若所述当前局游戏为第一局游戏,则获取所述目标对象的初始综合操作水平信息,并根据所述初始综合操作水平信息和所述目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;
若所述当前局游戏不为第一局游戏,则获取所述目标对象上一局游戏的综合操作水平信息,并根据所述上一局游戏的综合操作水平信息和所述目标对象当前局游戏的操作水平信息,计算得到当前局游戏的综合操作水平信息;
直至所述多局游戏中每一局游戏均计算完毕,得到每一局游戏的综合操作水平信息;
根据所述目标对象的综合操作水平信息,确定针对所述目标对象的目标操作水平信息。
5.根据权利要求1所述的游戏对象处理方法,其特征在于,所述对战状态特征信息为采用训练后操作水平预测模型对所述对战状态信息进行特征提取得到的信息;所述对所述对战状态信息集合包括的对战状态信息进行特征提取之前,所述方法还包括:
获取对战数据样本集合,所述对战数据样本集合包括至少一局游戏中标注操作水平标签的对战数据样本,所述对战数据样本为针对待预测对象标注了操作水平标签的数据样本;
根据所述对战数据样本,采用待训练操作水平预测模型对所述待预测对象进行操作水平预测,得到所述待预测对象针对每一局游戏对应的预测操作水平信息;
根据所述对战数据样本对应的所述操作水平标签和所述预测操作水平信息,对所述待训练操作水平预测模型的模型参数进行收敛,得到所述训练后操作水平预测模型。
6.根据权利要求5所述的游戏对象处理方法,其特征在于,所述获取对战数据样本集合,包括:
获取第一游戏阵营和第二游戏阵营,所述第一游戏阵营包括所述待预测对象和至少一个第一参与对象,所述第二游戏阵营包括至少一个第二参与对象,其中,所述待预测对象的候选操作水平信息、所述第一参与对象的候选操作水平信息和所述第二参与对象的候选操作水平信息均为随机分配的操作水平信息;
将所述待预测对象、所述第一参与对象和所述第二参与对象进行对战处理,以得到对战数据样本;
根据所述待预测对象的候选操作水平信息,确定对战数据样本对应的操作水平标签;
根据所述对战数据样本和所述对战数据样本对应的操作水平标签,生成对战数据样本集合。
7.根据权利要求1至6任一项所述的游戏对象处理方法,其特征在于,所述对所述目标对象的操作水平信息进行融合处理,得到针对所述目标对象的目标操作水平信息之后,所述方法还包括:
根据所述目标对象的目标操作水平信息,确定所述目标对象的目标水平等级信息;
根据所述目标对象的目标水平等级信息,获取至少一个候选对局对象;
从所述候选对局对象中提取出与所述目标对象匹配的目标对局对象。
8.一种游戏对象处理装置,其特征在于,包括:
获取单元,用于获取游戏中目标对象和对局对象的对战状态信息集合,所述对战状态信息集合包括至少一局游戏对应的对战状态信息;
提取单元,用于对所述对战状态信息集合包括的对战状态信息进行特征提取,得到所述对战状态信息对应的对战状态特征信息;
预测单元,用于根据所述对战状态特征信息,对所述目标对象进行操作水平预测,得到每一局游戏对应的操作水平信息;
融合单元,用于对所述目标对象的操作水平信息进行融合处理,得到针对所述目标对象的目标操作水平信息。
9.一种计算机设备,其特征在于,包括存储器和处理器;所述存储器存储有计算机程序,所述处理器用于运行所述存储器内的计算机程序,以执行权利要求1至7任一项所述的游戏对象处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行权利要求1至7任一项所述的游戏对象处理方法。
11.一种计算机程序产品,其特征在于,所述计算机程序产品存储有计算机程序,所述计算机程序适于处理器进行加载,以执行权利要求1至7任一项所述的游戏对象处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210306344.XA CN116850601A (zh) | 2022-03-25 | 2022-03-25 | 一种游戏对象处理方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210306344.XA CN116850601A (zh) | 2022-03-25 | 2022-03-25 | 一种游戏对象处理方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116850601A true CN116850601A (zh) | 2023-10-10 |
Family
ID=88220350
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210306344.XA Pending CN116850601A (zh) | 2022-03-25 | 2022-03-25 | 一种游戏对象处理方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116850601A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118105716A (zh) * | 2024-04-26 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 对局匹配方法、装置、设备、可读存储介质及程序产品 |
-
2022
- 2022-03-25 CN CN202210306344.XA patent/CN116850601A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118105716A (zh) * | 2024-04-26 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 对局匹配方法、装置、设备、可读存储介质及程序产品 |
CN118105716B (zh) * | 2024-04-26 | 2024-07-30 | 腾讯科技(深圳)有限公司 | 对局匹配方法、装置、设备、可读存储介质及程序产品 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111632379B (zh) | 游戏角色行为控制方法、装置、存储介质及电子设备 | |
CN109621422B (zh) | 电子棋牌决策模型训练方法及装置、策略生成方法及装置 | |
CN111282267B (zh) | 信息处理方法、装置、介质及电子设备 | |
JP5874292B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP5879899B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN108205684B (zh) | 图像消歧方法、装置、存储介质和电子设备 | |
CN111666919B (zh) | 一种对象识别方法、装置、计算机设备和存储介质 | |
CN111111204A (zh) | 交互模型训练方法、装置、计算机设备和存储介质 | |
CN112107866A (zh) | 用户行为数据处理方法、装置、设备及存储介质 | |
CN109847366A (zh) | 用于游戏的数据处理方法和装置 | |
CN107341548A (zh) | 一种数据处理方法、装置及电子设备 | |
CN114392560B (zh) | 虚拟场景的运行数据处理方法、装置、设备及存储介质 | |
CN111701240B (zh) | 虚拟物品的提示方法、装置、存储介质和电子装置 | |
CN111803959A (zh) | 对象控制方法、装置、游戏服务器及介质 | |
CN111282281B (zh) | 图像处理方法及装置、电子设备和计算机可读存储介质 | |
CN113713374A (zh) | 信息显示方法、装置、计算机设备及存储介质 | |
CN113343089A (zh) | 用户召回方法及装置、设备 | |
CN113230650B (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN116850601A (zh) | 一种游戏对象处理方法、装置、计算机设备及存储介质 | |
CN113893547A (zh) | 一种基于适应度函数的数据处理方法、系统及存储介质 | |
KR101962269B1 (ko) | 게임 평가 장치 및 방법 | |
US20210291046A1 (en) | Providing Video Game Content to an Online Connected Game | |
CN112044082B (zh) | 一种信息检测方法、装置及计算机可读存储介质 | |
Sulistyowati et al. | Implementation of Data Mining Algorithm For Predicting Popularity of Playstore Games In The Pandemic Period of COVID-19 | |
CN117883788B (zh) | 智能体训练方法、游戏对战方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |