CN117695669A - 玩家数据处理方法、装置、设备和存储介质 - Google Patents
玩家数据处理方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN117695669A CN117695669A CN202310259459.2A CN202310259459A CN117695669A CN 117695669 A CN117695669 A CN 117695669A CN 202310259459 A CN202310259459 A CN 202310259459A CN 117695669 A CN117695669 A CN 117695669A
- Authority
- CN
- China
- Prior art keywords
- player
- player data
- data
- user
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 65
- 238000012545 processing Methods 0.000 title claims description 21
- 238000010801 machine learning Methods 0.000 claims abstract description 45
- 230000006399 behavior Effects 0.000 claims abstract description 14
- 238000003672 processing method Methods 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims description 42
- 238000012549 training Methods 0.000 claims description 36
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 abstract description 9
- 238000012360 testing method Methods 0.000 description 15
- 230000000694 effects Effects 0.000 description 9
- 238000007637 random forest analysis Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000005065 mining Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013178 mathematical model Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 230000004083 survival effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/50—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
- A63F2300/55—Details of game data or player data management
- A63F2300/5546—Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Artificial Intelligence (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例提供一种玩家数据处理方法、装置、设备和存储介质,该方法包括:获取玩家数据,其中,玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据;将玩家数据输入预先训练的机器学习模型中,得到第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值;基于第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值,绘制图表,图表用于指示第一玩家用户在不同时刻的操作对目标游戏的胜负情况的贡献情况。通过预先训练的机器学习模型,可以深度挖掘与玩家数据对应的第一玩家用户触发的某个事件对当前游戏回合的胜负情况的影响值,可以提高获取数据的灵活性。
Description
技术领域
本发明涉及数据分析技术领域,尤其涉及一种玩家数据处理方法、装置、设备和存储介质。
背景技术
随着科技的发展,饱含科技水平的不同款式的游戏已投入到人们的生活,围绕着游戏衍生出的不同形式的文娱生活也走进人们的生活。例如,游戏平台官网会统计各类玩家数据,并在游戏平台官网中展示统计到的玩家数据,其中,玩家数据例如是全网或者全服中游戏排位在前预设位数的玩家用户的ID(Identity Document)。再例如,直播平台中游戏类主播会向观众展示个人的游戏过程,并对游戏过程进行解说。还例如,在各大游戏解说平台中雇佣专业的游戏解说员对正在进行的游戏进行专业的解说,其中,在这些解说的过程中不可避免地要用到从游戏中统计到的玩家数据。
通过以上介绍可以理解相关技术中的玩家数据一般都是基于统计获得的,数据较为直观,但没有对玩家数据进行深入的挖掘,导致玩家数据背后较为深入层面的一些信息难以被获得,玩家数据的获得方式较为单一且具有局限性。
发明内容
本发明实施例提供一种玩家数据处理方法、装置、设备和存储介质,用以提高玩家数据获取方式的灵活性,挖掘分析玩家数据背后较为深入层面的信息。
第一方面,本发明实施例提供一种玩家数据处理方法,该方法包括:
获取玩家数据,其中,所述玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据;
将所述玩家数据输入预先训练的机器学习模型中,得到所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值;
基于所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值,绘制图表,所述图表用于指示所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的贡献情况。
第二方面,本发明实施例提供一种玩家数据处理装置,包括:
获取模块,用于获取玩家数据,其中,所述玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据;
预测模块,用于将所述玩家数据输入预先训练的机器学习模型中,得到所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值;
绘制模块,用于基于所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值,绘制图表,所述图表用于指示所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的贡献情况。
第三方面,本发明实施例提供一种电子设备,其中包括处理器和存储器,其中,所述存储器上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器至少可以实现第一方面中的玩家数据处理方法。
第四方面,本发明实施例提供了一种非暂时性机器可读存储介质,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器至少可以实现第一方面中的玩家数据处理方法。
在本发明中,提供了一种预先训练的机器学习模型:基于玩家数据预测第一玩家用户触发的某个事件对当前游戏回合的胜负情况的影响值。通过预先训练的机器学习模型,可以深度挖掘与玩家数据对应的第一玩家用户触发的某个事件对当前游戏回合的胜负情况的影响值。采用本发明,可以提高获取数据的灵活性,丰富数据维度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种玩家数据处理方法的流程示意图;
图2为本发明实施例提供的一种展示有各个玩家用户各自对应的对胜负的影响值展板的示意图;
图3为本发明实施例提供的一种生成训练数据和测试数据的流程示意图;
图4为本发明实施例提供的一种模型训练过程的流程示意图;
图5为本发明实施例提供的一种模型测试过程的流程示意图;
图6为本发明实施例提供的一种玩家数据处理装置的结构示意图;
图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
另外,下述各方法实施例中的步骤时序仅为一种举例,而非严格限定。
图1为本发明实施例提供的一种玩家数据处理方法的流程图,该方法可以应用于电子设备中。如图1所示,该方法包括如下步骤:
101、获取玩家数据,其中,玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据。
102、将玩家数据输入预先训练的机器学习模型中,得到第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值。
103、基于第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值,绘制图表,图表用于指示第一玩家用户在不同时刻的操作对目标游戏的胜负情况的贡献情况。
本发明实施例中的预先训练的机器学习模块可以用于基于玩家数据预测第一玩家用户触发的某个事件对当前游戏回合的胜负情况的影响值,其中,当前游戏回合为第一玩家用户在目标游戏中参与的某一游戏回合。第一玩家用户触发的某个事件为第一玩家通过在某个时刻的操作所触发的。机器学习模型的训练过程将会在下文中进行详细的介绍,在此暂不展开叙述。
值得注意的是,在第一玩家用户玩目标游戏的过程中,可以采集第一初始玩家数据,第一初始玩家数据不能直接输入到训练后的机器学习模型中,需要经过预处理、向量化处理等的处理得到玩家数据,再将玩家数据输入到训练后的机器学习模型中。由于模型训练过程中也需要用到预处理、向量化处理等处理,它们的处理方式是相同的,在后续介绍模型训练的过程时,再详细介绍如何进行预处理、向量化处理等处理。
实际应用中,在用户团队之间参与到目标游戏中进行对局比赛时,可以实时采集游戏过程的样本(DEMO),通过对DEMO的解析获得各个玩家用户各自对应的玩家数据。然后可以将各个玩家用户各自对应的玩家数据一一输入到训练后的机器学习模型中,通过训练后的机器学习模型可以预测出各个玩家用户触发的各个相关事件时对所在游戏回合的胜负情况的影响值。
可选地,在枪械类射击对抗游戏中,上述玩家数据除了可以包括第一玩家用户的行为数据以外,还可以包括但不限于:应用的地图类型、第一玩家用户控制的角色的位置坐标、应用的道具(如枪械、弹药等)、第一玩家用户所属的用户团队对应的用于换取道具的总虚拟值(与用户团队在目标游戏中的充值额度相关)、第一玩家用户对应的用于换取道具的虚拟值(与玩家用户个人在目标游戏中的充值额度相关)、攻击值、用户团队与对抗团队各自对应的剩余游戏用户数量(也可以理解为是对抗剩余存活人数)、当前游戏回合的剩余游戏时间等。
以下列出了一些通过上述训练后的机器学习模型能够实现的应用方案:
(1)玩家用户在某个游戏回合中每次对对方用户团队控制的角色造成伤害或击杀对方用户团队控制的角色时,对该游戏回合的胜负情况的影响值。
(2)玩家用户控制的角色在某个游戏回合中每次被对方用户团队击杀或被造成伤害时,对该游戏回合的胜负情况的影响值。需要说明的是,如果赢得比赛的影响值为正,那么在该种情况下得到的影响值一般为负。
(3)基于每个游戏回合的数据聚合,可以获得单个游戏回合中各玩家用户在本游戏回合内对自己所在的用户团队能够赢得比赛的总影响值,也就是对自己所在的用户团队能够赢得比赛的贡献情况。
需要补充的是,单个玩家用户对其所在的用户团队能够赢得比赛的影响值也会相应反应到对方用户团队能够赢得比赛的概率上。例如,玩家用户C所在的用户团队为S1,对方用户团队为S2,假设玩家用户C控制的角色被击杀,相应的该事件导致降低了用户团队S1赢得比赛的10%的胜率的同时,用户团队S2赢得比赛的胜率会相应提升10%,具体来说,用户团队S2的10%的胜率的提升会分配给用户团队S2中击杀玩家用户C控制的角色的玩家用户上。
实际应用中,可以基于第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值,绘制图表。
在某一具体的应用场景中,如图2所展示的赛版所示,在赛版中以游戏回合数为横坐标,以累计的各个玩家用户在本游戏回合中对所在的用户团队能够取得本游戏回合的比赛胜利的影响值为纵坐标,展示各个玩家用户的影响值曲线。在该图中,曲线中呈现上升趋势的线段指示着相应的玩家用户在上升趋势的线段对应的游戏回合中稳定地做出了提高所在用户团队赢得比赛的行为贡献。曲线中呈现下降趋势的线段指示着相应的玩家用户在下降趋势的线段对应的游戏回合中对所在用户团队赢得比赛的贡献为负提升。
需要说明的是,本发明实施例提供的方案可以由服务器执行或者客户端执行,或者也可以由服务器和客户端配合执行。当方案由服务器执行时,服务器可以绘制出图表,将图表发送给客户端,由客户端进行展示。或者,当方案由客户端执行时,客户端可以在本地绘制图表并展示图表。再或者,可以由客户端采集玩家数据,将玩家数据上传服务器,由服务器进行模型预测过程,通过模型预测可以得到第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值,然后服务器再将第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值发送给客户端,再由客户端基于第一玩家用户在不同时刻的操作对目标游戏的胜负情况的影响值,绘制并展示图表。
其中,可选地,上述图表可以是折线图、曲线图、柱状图、表格等等。
另外,值得注意的是,每确定出一个第一玩家用户在某一时刻的操作对目标游戏的胜负情况的影响值,就可以在图表中绘制出相应的标识。或者,也可以在确定出整个游戏回合中第一玩家用户的操作对目标游戏的胜负情况的影响值,再在图表中统一绘制出所有标识。其中,标识可以是点、线段、柱体、数值等等。
以上介绍了机器学习模型的使用过程,下面将介绍模型的训练过程。
可选地,该训练过程可以实现为:获取样本玩家数据,其中,样本玩家数据包括第二玩家用户在目标游戏中的操作产生的样本行为数据;通过样本玩家数据,对初始的机器学习模型进行训练。
首先,可以获取样本玩家数据。在本发明实施例中,为了提高训练后的机器学习模型对更高水平的游戏操控能力的判断的准确性,可以采集满足预设要求的样本玩家数据。其中,可选地,预设要求可以是第二玩家用户的玩家等级高于预设阈值且游戏场景为目标类型的游戏场景。其中,第二玩家用户可以是同一玩家用户,也可以是多个不同玩家用户。
可以理解的是,根据第二玩家用户在目标游戏中消耗的时间、金钱的增加,该第二玩家用户的玩家等级可以相应得到一定提升。一般来说,当第二玩家用户的玩家等级越高时,第二玩家用户在目标游戏中的操控行为的水平越高,第二玩家用户能在目标游戏中进行稳定的发挥。例如,在枪械类射击对抗游戏中,玩家等级高的第二玩家用户能够在各种游戏状态中选择较优的攻防游戏策略,在游戏中能够进行稳定的游戏水平的发挥。基于此,采集满足预设要求的第二玩家用户在游戏过程中所产生的样本玩家数据,可以让训练后的机器学习模型更加专业,且训练后的机器学习模型输出的结果也更加让人信服。
在另一方面,随着游戏研发与设计的水平的不断提高,在一款目标游戏中,已不再仅能提供单一游戏场景的游戏体验,在同一款目标游戏中可以集成多种能够为玩家用户提供不同游戏体验与玩法的游戏场景。可以在目标游戏中的多种游戏场景中选择在目标类型的游戏场景中产生的样本玩家数据。
下面介绍样本玩家数据的具体获取方式。可选地,获取样本玩家数据的过程可以实现为:获取第二初始玩家数据;对第二初始玩家数据进行预处理,得到预处理后的玩家数据;对预处理后的玩家数据进行向量化处理,得到样本玩家数据。
其中,上述第二初始玩家数据是直接在目标游戏中采集的数据,它不能直接用于模型的训练,需要经过一定的处理生成样本玩家数据,再通过样本玩家数据对模型进行训练。
另外需要补充的是,可以从目标游戏的游戏平台中获得满足预设要求的DEMO,通过对DEMO的解析即可获得第二初始玩家数据。
在获得到第二初始玩家数据之后,还可以对第二初始玩家数据进行预处理、数据清洗、向量化以获得样本玩家数据,通过样本玩家数据对初始的机器学习模型进行训练。
值得注意的是,通过对第二初始玩家数据的预处理、向量化的过程,可以将不适合输入到或者不符合模型输入数据格式要求的第二初始玩家数据,处理为能够适应于输入到模型的数据,以及将不便于用于训练的数据转换为适合于用于训练模型的数据等。此外,通过数据清洗,可以将不利于提高模型表现效果的、对训练过程造成干扰的数据清除。
可选地,预处理可以包括但不限于:将多个维度的第二初始玩家数据转化为单一维度的玩家数据的处理、哑变量处理、均值插补处理、第二初始玩家数据的维度的归一化处理中的任一项或多项等。
实际应用中,多个分散的维度的第二初始玩家数据是不利于模型找到它们的联系与规律,也就不利于模型的学习过程的,另外这样的数据也不利于模型对它们的处理,因此可以通过预处理将多个分散的维度的第二初始玩家数据转化为单一维度的玩家数据。
举例来说,在枪械类射击对抗游戏中,假设目标用户团队与其他用户团队进行射击对抗,目标用户团队的用于换取枪械、弹药等的总虚拟值较低,在常规游戏策略中目标用户团队一般在当前游戏回合中会仅使用基础的枪械,同时将当前游戏回合结束后的剩余的总虚拟值存入到下一个游戏回合中使用。但在某个特殊的游戏回合中,即使目标用户团队的用于换取枪械、弹药等的总虚拟值较低,他们仍然选择使用总虚拟值换取非基础的枪械,这些枪械对总虚拟值的消耗较高,那么结合此时的目标用户团队的总虚拟值以及枪械换取策略,可以将这样的行为或者事件判定为是“强起局(Force)”。通过对第二初始玩家数据的预处理,可以对与“强起局”关联的第二初始玩家数据进行标定。
另外,通过哑变量处理,可以将不便于训练的第二初始玩家数据转换为适用于对模型进行训练的数据。例如,当前游戏回合中当前游戏状态下的对抗剩余存活人数比为5V4,这样的数据是不便于用于模型训练的,可以将该对抗剩余存活人数比转换为布尔类型的数据,这样对抗剩余存活人数比对于模型来说是可以被量化的。
除了上面介绍到的第二初始玩家数据以外,对于那些数值类的常规的第二初始玩家数据也可以进行均值插补处理、第二初始玩家数据的维度的归一化处理等。
在某些可选实施例中,通过上述介绍的方式除了可以获取到样本玩家数据之外,还可以获取到测试数据,可以通过数据分割的方式从获取到的数据中划分出样本玩家数据以及测试数据。其中,样本玩家数据是用于训练初始的机器学习模型的,使得训练后的机器学习模型能够基于玩家数据预测第一玩家用户对游戏的胜负情况的影响值。测试数据是用于验证训练后的机器学习模型的训练效果的,尤其是当同时训练有多种不同类型的、具有同一训练目标的机器学习模型时,可以通过测试数据验证哪一种机器学习模型的训练效果更好。
如图3所示,首先可以获取DEMO,然后运行对DEMO进行解析的脚本,通过解析可以获得样本玩家数据以及测试数据,通过样本玩家数据训练模型,以及通过测试数据测试模型。
需要说明的是,可以根据实际应用需求相应设置测试数据或者取消测试数据,对此本发明实施例不做限定。
前面介绍了对第二初始玩家数据进行预处理的过程,接下来介绍对预处理后的玩家数据进行向量化处理的过程。可选地,向量化处理的过程可以实现为:基于马尔可夫决策过程(Markov Decision Process,简写为MDP),对预处理后的玩家数据进行向量化处理,得到样本玩家数据。
需要说明的是,马尔可夫决策过程可以理解为是一个数学模型,当将预处理后的玩家数据输入到这个数学模型中时,该数学模型可以输出相应的向量化的数据,也就实现了对预处理后的玩家数据的向量化处理的过程。
在完成上述处理过程之后,就可以使用获得的样本玩家数据对初始的机器学习模型进行实际的训练了。通过对机器学习模型的训练,使得训练后的机器学习模型能够基于玩家数据预测第一玩家用户对游戏的胜负情况的影响值,也就是说让机器学习模型能够学习到什么样的玩家数据能够影响目标游戏的胜负情况。例如,在枪械类射击对抗游戏中,假设某玩家用户A在当前游戏回合中击杀了对方用户团队中的一名玩家用户B控制的角色,那么通过玩家用户A对应的玩家数据可以解析出玩家用户A击杀了玩家用户B控制的角色的事件,该事件会对当前游戏回合最终的胜负情况产生一定的影响,例如会为玩家用户A所在的用户团队赢得当前游戏回合的比赛的概率提升10%。
可选地,实际应用中,可以通过样本玩家数据,采用有监督学习的方式,对初始的机器学习模型进行训练。
需要说明的是,目前对机器学习模型的训练方式可以包括有监督学习、非监督学习以及强化学习。其中,对于非监督学习的方式来说,它更适合于对有着特殊的数据结构或者数据组成的训练数据的挖掘,它属于算法本身对训练数据的挖掘,人为的控制难以对挖掘结果造成过多的影响。而通过申请人的研究发现,对于本发明实施例中的应用场景来说,玩家用户有着非常明确的游戏目标,并且玩家用户的主动行为会对所在游戏回合的胜负情况造成比较确定的结果,对于具有这样的特点的场景,可以使用有监督学习的方式来训练机器学习模型,这样取得的训练效果更优。
可选地,本发明实施例中采用的机器学习模型可以包括但不限于:随机森林模型、朴素贝叶斯模型或者逻辑回归模型。
申请人尝试了通过样本玩家数据对上述各类型的模型进行训练,都取得了较为不错的训练效果。具体来说,在训练完成后,使用前文所提到的测试数据对各个类型的模型进行测试,以测试各个类型的模型各自对应的输出结果的准确率、召回率、精度等效果指标,最终发现各个类型的模型各自对应的效果指标之间的差异较小,例如它们各自的准确率差异都在10%以内。因此,可以在上述各个类型的模型中任意择其一进行影响值的预测。
或者,也可以优选使用随机森林模型。因为虽然各个类型的模型之间的差异较小,但是仍然有最优的模型,该模型即为随机森林模型。它的各项效果指标所指示出的模型的表现效果最佳,随机森林模型带来的过度拟合的风险小,训练速度快,性价比高。
如图4所示,在训练模型的过程中,首先可以获取第二初始玩家数据,对第二初始玩家数据进行预处理、哑变量处理、向量化处理得到样本玩家数据,选择用于训练的模型类型,然后对选择的模型通过样本玩家数据进行训练,最终保存训练后的模型。
再如图5所示,在测试模型的过程中,首先可以获取第二初始玩家数据,对第二初始玩家数据进行预处理、哑变量处理得到测试数据,将测试数据输入到训练后的模型得到测试结果。
在本发明中,提供了一种预先训练的机器学习模型:基于玩家数据预测第一玩家用户触发的某个事件对当前游戏回合的胜负情况的影响值。通过预先训练的机器学习模型,可以深度挖掘与玩家数据对应的第一玩家用户触发的某个事件对当前游戏回合的胜负情况的影响值。采用本发明,可以提高获取数据的灵活性,丰富数据维度。
以下将详细描述本发明的一个或多个实施例的玩家数据处理装置。本领域技术人员可以理解,这些玩家数据处理装置均可使用市售的硬件组件通过本方案所教导的步骤进行配置来构成。
图6为本发明实施例提供的一种玩家数据处理装置的结构示意图,如图6所示,该装置包括:
获取模块61,用于获取玩家数据,其中,所述玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据;
预测模块62,用于将所述玩家数据输入预先训练的机器学习模型中,得到所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值;
绘制模块63,用于基于所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值,绘制图表,所述图表用于指示所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的贡献情况。
可选地,所述玩家数据还包括应用的地图类型、所述第一玩家用户控制的角色的位置坐标、应用的道具、所述第一玩家用户所属的用户团队对应的用于换取道具的总虚拟值、所述第一玩家用户对应的用于换取道具的虚拟值、攻击值、所述用户团队与对抗团队各自对应的剩余游戏用户数量、当前游戏回合的剩余游戏时间中的任一项或多项。
可选地,所述装置还包括训练模块,所述训练模块,用于:
获取样本玩家数据,其中,所述样本玩家数据包括第二玩家用户在所述目标游戏中的操作产生的样本行为数据;
通过所述样本玩家数据,对初始的机器学习模型进行训练。
可选地,所述训练模块,用于:
通过所述样本玩家数据,采用有监督学习的方式,对初始的机器学习模型进行训练。
可选地,所述训练模块,用于:
获取初始玩家数据;
对所述初始玩家数据进行预处理,得到预处理后的玩家数据;
对所述预处理后的玩家数据进行向量化处理,得到样本玩家数据。
可选地,所述预处理包括将多个维度的初始玩家数据转化为单一维度的玩家数据的处理、哑变量处理、均值插补处理、初始玩家数据的维度的归一化处理中的任一项或多项。
可选地,所述训练模块,用于:
基于马尔可夫决策过程,对所述预处理后的玩家数据进行向量化处理,得到样本玩家数据。
可选地,所述机器学习模型为随机森林模型、朴素贝叶斯模型或者逻辑回归模型。
图6所示装置可以执行前述图1至图5所示实施例中提供的玩家数据处理方法,详细的执行过程和技术效果参见前述实施例中的描述,在此不再赘述。
在一个可能的设计中,上述图6所示玩家数据处理装置的结构可实现为一电子设备,如图7所示,该电子设备可以包括:处理器71、存储器72。其中,所述存储器72上存储有可执行代码,当所述可执行代码被所述处理器71执行时,使所述处理器71至少可以实现如前述图1至图5所示实施例中提供的玩家数据处理方法。
可选地,该电子设备中还可以包括通信接口73,用于与其他设备进行通信。
另外,本发明实施例提供了一种非暂时性机器可读存储介质,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器至少可以实现如前述图1至图5所示实施例中提供的玩家数据处理方法。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助加必需的通用硬件平台的方式来实现,当然也可以通过硬件和软件结合的方式来实现。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以计算机产品的形式体现出来,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例提供的玩家数据处理方法可以由某种程序/软件来执行,该程序/软件可以由网络侧提供,前述实施例中提及的电子设备可以将该程序/软件下载到本地的非易失性存储介质中,并在其需要执行前述玩家数据处理方法时,通过CPU将该程序/软件读取到内存中,进而由CPU执行该程序/软件以实现前述实施例中所提供的玩家数据处理方法,执行过程可以参见前述图1至图5中的示意。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种玩家数据处理方法,其特征在于,包括:
获取玩家数据,其中,所述玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据;
将所述玩家数据输入预先训练的机器学习模型中,得到所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值;
基于所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值,绘制图表,所述图表用于指示所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的贡献情况。
2.根据权利要求1所述的方法,其特征在于,所述玩家数据还包括应用的地图类型、所述第一玩家用户控制的角色的位置坐标、应用的道具、所述第一玩家用户所属的用户团队对应的用于换取道具的总虚拟值、所述第一玩家用户对应的用于换取道具的虚拟值、攻击值、所述用户团队与对抗团队各自对应的剩余游戏用户数量、当前游戏回合的剩余游戏时间中的任一项或多项。
3.根据权利要求1所述的方法,其特征在于,在将所述玩家数据输入预先训练的机器学习模型中之前,所述方法还包括:
获取样本玩家数据,其中,所述样本玩家数据包括第二玩家用户在所述目标游戏中的操作产生的样本行为数据;
通过所述样本玩家数据,对初始的机器学习模型进行训练。
4.根据权利要求3所述的方法,其特征在于,所述通过所述样本玩家数据,对初始的机器学习模型进行训练,包括:
通过所述样本玩家数据,采用有监督学习的方式,对初始的机器学习模型进行训练。
5.根据权利要求3所述的方法,其特征在于,所述获取样本玩家数据,包括:
获取初始玩家数据;
对所述初始玩家数据进行预处理,得到预处理后的玩家数据;
对所述预处理后的玩家数据进行向量化处理,得到样本玩家数据。
6.根据权利要求5所述的方法,其特征在于,所述预处理包括将多个维度的初始玩家数据转化为单一维度的玩家数据的处理、哑变量处理、均值插补处理、初始玩家数据的维度的归一化处理中的任一项或多项。
7.根据权利要求5所述的方法,其特征在于,所述对所述预处理后的玩家数据进行向量化处理,得到样本玩家数据,包括:
基于马尔可夫决策过程,对所述预处理后的玩家数据进行向量化处理,得到样本玩家数据。
8.一种玩家数据处理装置,其特征在于,包括:
获取模块,用于获取玩家数据,其中,所述玩家数据包括第一玩家用户在目标游戏中于不同时刻的操作产生的行为数据;
预测模块,用于将所述玩家数据输入预先训练的机器学习模型中,得到所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值;
绘制模块,用于基于所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的影响值,绘制图表,所述图表用于指示所述第一玩家用户在不同时刻的操作对所述目标游戏的胜负情况的贡献情况。
9.一种电子设备,其特征在于,包括:存储器、处理器;其中,所述存储器上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求1-7中任一项所述的玩家数据处理方法。
10.一种非暂时性机器可读存储介质,其特征在于,所述非暂时性机器可读存储介质上存储有可执行代码,当所述可执行代码被电子设备的处理器执行时,使所述处理器执行如权利要求1-7中任一项所述的玩家数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310259459.2A CN117695669A (zh) | 2023-03-16 | 2023-03-16 | 玩家数据处理方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310259459.2A CN117695669A (zh) | 2023-03-16 | 2023-03-16 | 玩家数据处理方法、装置、设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117695669A true CN117695669A (zh) | 2024-03-15 |
Family
ID=90152163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310259459.2A Pending CN117695669A (zh) | 2023-03-16 | 2023-03-16 | 玩家数据处理方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117695669A (zh) |
-
2023
- 2023-03-16 CN CN202310259459.2A patent/CN117695669A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miljković et al. | The use of data mining for basketball matches outcomes prediction | |
CN109513215B (zh) | 一种对象匹配方法、模型训练方法以及服务器 | |
Andrade et al. | Dynamic game balancing: An evaluation of user satisfaction | |
Mahlmann et al. | Evolving card sets towards balancing dominion | |
CN111318025B (zh) | 游戏对象的匹配方法、装置、电子设备及计算机可读介质 | |
Pfau et al. | Towards deep player behavior models in mmorpgs | |
CN107335220B (zh) | 一种消极用户的识别方法、装置及服务器 | |
CN111274151B (zh) | 一种游戏测试的方法、相关装置以及存储介质 | |
CN111738294B (zh) | Ai模型的训练方法、使用方法、计算机设备及存储介质 | |
Font et al. | A card game description language | |
Gaina et al. | Tackling sparse rewards in real-time games with statistical forward planning methods | |
CN114048834A (zh) | 基于事后回顾和渐进式扩展的持续强化学习非完全信息博弈方法及装置 | |
Chen et al. | Modeling individual differences through frequent pattern mining on role-playing game actions | |
Xenopoulos et al. | Optimal team economic decisions in counter-strike | |
CN112245936B (zh) | 账号匹配方法、装置及服务器 | |
Teófilo et al. | Computing card probabilities in Texas Hold'em | |
Dockhorn et al. | A decision heuristic for Monte Carlo tree search doppelkopf agents | |
Wardaszko et al. | Analysis of matchmaking optimization systems potential in mobile eSports | |
CN114344916B (zh) | 一种数据处理方法及相关装置 | |
Liu et al. | Player identification from RTS game replays | |
CN117695669A (zh) | 玩家数据处理方法、装置、设备和存储介质 | |
Kavanagh et al. | Gameplay analysis of multiplayer games with verified action-costs | |
Grutzik et al. | Predicting outcomes of professional dota 2 matches | |
CN117414585A (zh) | 游戏技能平衡性的调整方法、装置、电子设备及存储介质 | |
Aiolli et al. | Enhancing artificial intelligence in games by learning the opponent’s playing style |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |