CN111870959B - 一种游戏中的资源推荐方法及装置 - Google Patents
一种游戏中的资源推荐方法及装置 Download PDFInfo
- Publication number
- CN111870959B CN111870959B CN202010790186.0A CN202010790186A CN111870959B CN 111870959 B CN111870959 B CN 111870959B CN 202010790186 A CN202010790186 A CN 202010790186A CN 111870959 B CN111870959 B CN 111870959B
- Authority
- CN
- China
- Prior art keywords
- virtual game
- resource
- information
- sample
- acquisition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims description 145
- 239000011159 matrix material Substances 0.000 claims description 59
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 239000013598 vector Substances 0.000 description 31
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/79—Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供了一种游戏中的资源推荐方法及装置,该方法首先,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;其次,基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;然后,基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;最后,将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。本申请能够使推荐给目标用户的虚拟游戏资源集合能够符合用户的获取意向,降低用户搜索挑选虚拟游戏资源集合的时间,进而提高用户获取虚拟游戏资源的效率。
Description
技术领域
本申请涉及计算机技术领域,尤其是涉及一种游戏中的资源推荐方法及装置。
背景技术
随着科技的快速发展以及人们对精神需求的不断提高,游戏逐渐被越来越多的人接受,并成为了最为流行的娱乐项目之一。
在一些游戏中,商店、商城等场景可以为用户提供虚拟游戏资源或虚拟游戏资源集合,虚拟游戏资源可以包括道具、武器、装备等,虚拟游戏资源集合中包括多个虚拟游戏资源,通常以套装或礼包的形式提供给用户。用户能够获取这些虚拟游戏资源,并在游戏的过程中使用。
发明内容
本申请提供一种游戏中的资源推荐方法及装置,能够使向用户推荐的虚拟游戏资源集合符合用户的获取意向,进而提高用户获取虚拟游戏资源的效率。
本申请实施例提供了一种游戏中的资源推荐方法,应用于服务器,所述方法包括:
获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;
基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;
基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;
将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
在一种可能的实施方式中,所述基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值,包括:
将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值。
在一种可能的实施方式中,通过以下步骤训练所述资源获取预测模型:
获取多个样本用户的历史资源获取信息样本、所述样本用户的画像信息样本以及每个虚拟游戏资源集合的配置信息;所述虚拟游戏资源集合的配置信息指示有所述虚拟游戏资源集合中包括的虚拟游戏资源;
基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集;
利用所述训练数据集,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,所述基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集,包括:
基于预设的转换规则,将分别所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息;
基于所述标准历史资源获取信息样本、所述标准画像信息样本以及所述标准配置信息,生成所述训练数据集;所述训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、所述标准画像信息以及所述标准配置信息。
在一种可能的实施方式中,所述利用所述训练数据集,对所述资源获取预测模型进行训练,包括:
基于所述训练数据集,生成针对所述样本用户、所述虚拟游戏资源以及所述虚拟游戏资源集合的三部图;所述三部图包括样本用户节点、虚拟游戏资源节点、虚拟游戏资源集合节点以及优化后的邻接矩阵;
基于所述三部图,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,通过以下步骤确定所述三部图优化后的邻接矩阵:
针对二部图的初始邻接矩阵中的每个顶点,添加所述顶点与自身相连的边,得到所述二部图的邻接矩阵;
确定所述二部图的顶点度矩阵;
基于邻接矩阵和顶点度矩阵,确定所述二部图的拉普拉斯矩阵为所述优化后的邻接矩阵;
将优化后的各个所述二部图邻接矩阵进行拼接,确定所述三部图优化后的邻接矩阵。
在一种可能的实施方式中,所述基于所述三部图,对所述资源获取预测模型进行训练,包括:
从所述三部图中抽取训练样本数据,将所述训练样本数据输入至所述资源获取预测模型中,得到所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值;
根据所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值,对所述资源获取预测模型中的参数进行训练;
循环进行抽取训练样本数据及参数训练的步骤,直到满足截止条件。
在一种可能的实施方式中,在将所述目标虚拟游戏资源集合的指示信息返回至客户端之后,所述方法还包括:
获取所述用户针对目标虚拟游戏资源集合的获取情况;
基于所述用户针对目标虚拟游戏资源集合的获取情况,生成所述资源获取预测模型的更新训练数据集;
基于所述更新训练数据集,对所述资源获取预测模型进行更新训练。
本申请实施例还提供了一种游戏中的资源推荐装置,用于服务器,所述装置包括:
响应模块,用于,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;
第一确定模块,用于基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;
第二确定模块,用于基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;
推荐模块,用于将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
在一种可能的实施方式中,所述第一确定模块具体用于:
将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值。
在一种可能的实施方式中,所述装置还包括模型训练模块,用于:
获取多个样本用户的历史资源获取信息样本、所述样本用户的画像信息样本以及每个虚拟游戏资源集合的配置信息;所述虚拟游戏资源集合的配置信息指示有所述虚拟游戏资源集合中包括的虚拟游戏资源;
基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集;
利用所述训练数据集,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,所述模型训练模块在基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集时,具体用于:
基于预设的转换规则,将分别所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息;
基于所述标准历史资源获取信息样本、所述标准画像信息样本以及所述标准配置信息,生成所述训练数据集;所述训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、所述标准画像信息以及所述标准配置信息。
在一种可能的实施方式中,所述模型训练模块在利用所述训练数据集,对所述资源获取预测模型进行训练时,具体用于:
基于所述训练数据集,生成针对所述样本用户、所述虚拟游戏资源以及所述虚拟游戏资源集合的三部图;所述三部图包括样本用户节点、虚拟游戏资源节点、虚拟游戏资源集合节点以及优化后的邻接矩阵;
基于所述三部图,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,所述模型训练模块还用于:
针对二部图的初始邻接矩阵中的每个顶点,添加所述顶点与自身相连的边,得到所述二部图的邻接矩阵;
确定所述二部图的顶点度矩阵;
基于邻接矩阵和顶点度矩阵,确定所述二部图的拉普拉斯矩阵为所述优化后的邻接矩阵;
将优化后的各个所述二部图邻接矩阵进行拼接,确定所述三部图优化后的邻接矩阵。
在一种可能的实施方式中,所述模型训练模块在基于所述三部图,对所述资源获取预测模型进行训练时,具体用于:
从所述三部图中抽取训练样本数据,将所述训练样本数据输入至所述资源获取预测模型中,得到所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值;
根据所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值,对所述资源获取预测模型中的参数进行训练;
循环进行抽取训练样本数据及参数训练的步骤,直到满足截止条件。
在一种可能的实施方式中,所述模型训练模块还用于:
获取所述用户针对目标虚拟游戏资源集合的获取情况;
基于所述用户针对目标虚拟游戏资源集合的获取情况,生成所述资源获取预测模型的更新训练数据集;
基于所述更新训练数据集,对所述资源获取预测模型进行更新训练。
本申请实施例还提供一种电子设备,可以包括一个或多个存储介质、一个或多个与存储介质通信的处理器和总线。一个或多个存储介质存储有处理器可执行的机器可读指令。当电子设备运行时,处理器与存储介质之间通过总线通信,处理器执行所述机器可读指令,可以执行一个或多个以下操作:
获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;
基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;
基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;
将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
获取多个样本用户的历史资源获取信息样本、所述样本用户的画像信息样本以及每个虚拟游戏资源集合的配置信息;所述虚拟游戏资源集合的配置信息指示有所述虚拟游戏资源集合中包括的虚拟游戏资源;
基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集;
利用所述训练数据集,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
基于预设的转换规则,将分别所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息;
基于所述标准历史资源获取信息样本、所述标准画像信息样本以及所述标准配置信息,生成所述训练数据集;所述训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、所述标准画像信息以及所述标准配置信息。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
基于所述训练数据集,生成针对所述样本用户、所述虚拟游戏资源以及所述虚拟游戏资源集合的三部图;所述三部图包括样本用户节点、虚拟游戏资源节点、虚拟游戏资源集合节点以及优化后的邻接矩阵;
基于所述三部图,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
针对所述三部图的初始邻接矩阵中的每个顶点,添加所述顶点与自身相连的边;
确定所述顶点的对角矩阵;
基于所述对角矩阵,确定所述三部图的拉普拉斯矩阵最为所述优化后的邻接矩阵。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
从所述三部图中抽取训练样本数据,将所述训练样本数据输入至所述资源获取预测模型中,得到所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值;
根据所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值,对所述资源获取预测模型中的参数进行训练;
循环进行抽取训练样本数据及参数训练的步骤,直到满足截止条件。
在一种可能的实施方式中,处理器执行所述机器可读指令时,可以执行一个或多个以下操作:
获取所述用户针对目标虚拟游戏资源集合的获取情况;
基于所述用户针对目标虚拟游戏资源集合的获取情况,生成所述资源获取预测模型的更新训练数据集;
基于所述更新训练数据集,对所述资源获取预测模型进行更新训练。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如上述的游戏中的资源推荐方法的步骤。
本申请实施例提供的游戏中的资源推荐方法及装置,首先,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;其次,基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;然后,基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;最后,将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。本申请能够基于目标用户的历史资源获取信息以及用户画像,确定目标用户针对多个虚拟游戏资源集合的获取概率值,并基于获取概率值,确定推荐给目标用户的目标虚拟游戏资源集合,使推荐给目标用户的虚拟游戏资源集合能够符合用户的获取意向,降低用户搜索挑选虚拟游戏资源集合的时间,进而提高用户获取虚拟游戏资源的效率。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种游戏中的资源推荐方法的流程图;
图2示出了本申请实施例所提供的一种游戏中的资源推荐方法中,三部图的示意图;
图3示出了本申请实施例所提供的一种游戏中的资源推荐装置的结构示意图;
图4示出了本申请实施例所提供的另一种游戏中的资源推荐装置的结构示意图;
图5示出了本申请实施例所提供的一种电子设备的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的每个其他实施例,都属于本申请保护的范围。
首先,对本申请的执行主体进行介绍。本申请的执行主体可以是具有一定计算能力的计算机设备,该计算机设备具体可以是服务器。服务器可以通过网络与游戏的客户端进行交互。
经研究发现,在一些游戏中,商店、商城等场景可以为用户提供虚拟游戏资源或虚拟游戏资源集合,虚拟游戏资源可以包括道具、武器、装备等,虚拟游戏资源集合中包括多个虚拟游戏资源,通常以套装或礼包的形式提供给用户。用户能够获取这些虚拟游戏资源,并在游戏的过程中使用。在虚拟游戏资源集合中,可以含有多个虚拟游戏资源,这些虚拟游戏资源肯能不全是用户所需要的,但虚拟游戏资源集合相较于单独的虚拟游戏资源会有优惠,用户获取虚拟游戏资源集合所花费的虚拟货币通常少于获取等量的虚拟游戏资源所花费的虚拟货币。因此,用户会选择获取包含自己想要的虚拟游戏资源最多的虚拟游戏资源集合。由于虚拟游戏资源集合的数量较多,用户在选择虚拟游戏资源集合时会花费很多时间,有必要向用户推荐符合用户意图的虚拟游戏资源集合。
基于此,本申请实施例提供了一种游戏中的资源推荐方法,能够使向用户推荐的虚拟游戏资源集合符合用户的获取意向,进而提高用户获取虚拟游戏资源的效率。
请参阅图1,图1为本申请实施例所提供的一种游戏中的资源推荐方法的流程图。如图1中所示,本申请实施例提供的游戏中的资源推荐方法,应用于服务器,该方法包括:
S101、获取目标用户的历史资源获取信息以及所述目标用户的画像信息。
其中,所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源。
该步骤中,在客户端检测到目标用户的资源集合推荐指令后,可以向服务器发送资源集合推荐请求,向服务器请求推荐给目标用户的目标虚拟游戏资源集合,即服务器响应客户端发送的资源集合推荐请求,并获取目标用户的历史资源获取信息以及目标用户的画像信息。
这里,虚拟游戏资源可以包括游戏中的道具、武器、装备、虚拟点数等,虚拟游戏资源集合中包括的虚拟游戏资源的类型可以为至少一种,数量可以为两个或两个以上,其中,虚拟游戏资源集合包括虚拟游戏资源。历史资源获取信息可以包括目标用户在过去获取的虚拟游戏资源以及虚拟游戏资源集合;目标用户的画像信息可以包括目标用户的身份标识、年龄、游戏在线时长、消费水平等信息。
S102、基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值。
该步骤中,服务器在获取到历史资源获取信息及画像信息后,可以基于获取到的历史资源获取信息及画像信息,确定当前可供用户选择的多个虚拟游戏资源集合的获取概率值,具体地,可以分别确定目标用户针对该多个虚拟游戏资源集合对应的获取概率值。
其中,获取概率值代表目标用户在浏览到一虚拟游戏资源集合时,获取(购买)该虚拟游戏资源集合的概率值。
在一种可能的实施方式中,步骤S102可以包括:
将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值。
其中,资源获取预测模型可以为基于深度学习的图网络模型,由于历史资源获取信息中包括目标用户获取的虚拟游戏资源以及虚拟游戏资源集合的信息,因此,资源获取预测模型能够学习虚拟游戏资源、虚拟游戏资源集合、画像信息与目标用户是否获取虚拟游戏资源集合之间的关系,并根据学习到的关系确定目标用户获取虚拟游戏资源集合的概率值。
在服务器获取到历史资源获取信息及画像信息后,可以对历史资源获取信息及画像信息进行预处理,使其成为可供资源获取预测模型识别的信息。
S103、基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合。
该步骤中,服务器在确定了获取概率值后,可以根据获取概率值,从多个虚拟游戏资源集合中确定至少一个目标游戏资源集合。
示例性的,可以将获取概率值高于预设阈值虚拟游戏资源集合作为目标游戏资源集合,或将获取概率值最高的前预设数量个虚拟游戏资源集合作为目标游戏资源集合。
S104、将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
该步骤中,服务器在确定目标虚拟游戏资源集合后,可以将目标虚拟游戏资源集合返回至客户端,客户端在接收到目标虚拟游戏资源集合后,可以通过推荐页面,将目标虚拟游戏资源集合推荐给目标用户。
本申请实施例提供的游戏中的资源推荐方法,首先,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;其次,基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;然后,基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;最后,将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。本申请能够基于目标用户的历史资源获取信息以及用户画像,确定目标用户针对多个虚拟游戏资源集合的获取概率值,并基于获取概率值,确定推荐给目标用户的目标虚拟游戏资源集合,使推荐给目标用户的虚拟游戏资源集合能够符合用户的获取意向,降低用户搜索挑选虚拟游戏资源集合的时间,进而提高用户获取虚拟游戏资源的效率。
在一种可能的实施方式中,通过以下步骤训练所述资源获取预测模型:
获取多个样本用户的历史资源获取信息样本、所述样本用户的画像信息样本以及每个虚拟游戏资源集合的配置信息;所述虚拟游戏资源集合的配置信息指示有所述虚拟游戏资源集合中包括的虚拟游戏资源;
基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集;
利用所述训练数据集,对所述资源获取预测模型进行训练。
该步骤中,服务器可以获取多个样本用户的历史资源获取信息样本、样本用户的画像信息样本及每个虚拟游戏资源集合的配置信息。其中,虚拟游戏资源集合的配置信息中指示有虚拟游戏资源集合中包括的虚拟游戏资源。
在服务器获取到历史资源获取信息样本、画像信息样本以及配置信息之后,可以对上述信息进行处理,生成训练数据集,并利用训练数据集对资源获取预测模型进行训练。
在一种可能的实施方式中,所述基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集,包括:
基于预设的转换规则,将分别所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息;
基于所述标准历史资源获取信息样本、所述标准画像信息样本以及所述标准配置信息,生成所述训练数据集;所述训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、所述标准画像信息以及所述标准配置信息。
该步骤中,可以基于预设的转换规则,将历史资源获取信息样本、画像信息样本以及每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息。具体的,预设的转换规则可以将机器无法识别的语言转换为机器能够识别的字符串,比如,虚拟游戏资源的名称为“苹果”,其对应的唯一身份标识为“3001”,则可以将历史资源获取信息样本、画像信息样本以及每个虚拟游戏资源集合的配置信息中的“苹果”转换为“3001”。
在得到标准历史资源获取信息样本、标准画像信息样本以及标准配置信息后,即可根据标准历史资源获取信息样本、标准画像信息样本以及标准配置信息生成训练数据集。其中,训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、标准画像信息以及标准配置信息。
示例性的,训练数据集中每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况的形式可以为:
用户身份标识-虚拟游戏资源身份标识-是否获取;
用户身份标识-虚拟游戏资源集合身份标识-是否获取。
在一种可能的实施方式中,所述利用所述训练数据集,对所述资源获取预测模型进行训练,包括:
基于所述训练数据集,生成针对所述样本用户、所述虚拟游戏资源以及所述虚拟游戏资源集合的三部图;所述三部图包括样本用户节点、虚拟游戏资源节点、虚拟游戏资源集合节点以及优化后的邻接矩阵;
基于所述三部图,对所述资源获取预测模型进行训练。
该步骤中,服务器可以基于训练数据集生成针对样本用户、虚拟游戏资源以及虚拟游戏资源集合的三部图。
请参阅图2,图2为本申请实施例提供的游戏中的资源推荐方法中,三部图的示意图。
如图2所示,三部图中可以包括样本用户节点(A、B、C)、虚拟游戏资源节点(1、2、3、4、5)、虚拟游戏资源集合节点(a、b、c),其中,样本用户节点A代表的样本用户获取过虚拟游戏资源集合节点b对应的虚拟游戏资源集合,样本用户节点B代表的样本用户获取过虚拟游戏资源节点1、2、3对应的虚拟游戏资源以及虚拟游戏资源集合节点a、b对应的虚拟游戏资源集合,虚拟游戏资源集合节点b对应的虚拟游戏资源集合中包括虚拟游戏资源节点2、3、4对应的虚拟游戏资源。
样本用户节点中可以包括样本用户的画像信息,虚拟游戏资源节点中可以包括虚拟游戏资源的身份标识,虚拟游戏资源集合节点中可以包括虚拟游戏资源集合的身份标识,样本用户节点与虚拟游戏资源节点之间的边表示样本用户节点对应的样本用户获取过虚拟游戏资源节点对应的虚拟游戏资源,样本用户节点与虚拟游戏资源节点之间的边表示样本用户节点对应的样本用户获取过虚拟游戏资源集合节点对应的虚拟游戏资源集合,虚拟游戏资源节点与虚拟游戏资源集合节点之间的边表示虚拟游戏资源集合节点对应的虚拟游戏资源集合中包含虚拟游戏资源节点对应的虚拟游戏资源。
进一步的,三部图中还可以包括三部图对应的优化后的邻接矩阵,优化后的邻接矩阵能够包含三部图中每个节点之间的关系。
示例性的,可以先构建针对样本用户与虚拟游戏资源的二部图、样本用户与虚拟游戏资源集合的二部图以及虚拟游戏资源与虚拟游戏资源集合的二部图,再根据每个二部图,构建针对样本用户、虚拟游戏资源以及虚拟游戏资源集合的三部图。
在一种可能的实施方式中,通过以下步骤确定所述三部图优化后的邻接矩阵:
针对二部图的初始邻接矩阵中的每个顶点,添加所述顶点与自身相连的边,得到所述二部图的邻接矩阵,其中,A为二部图的初始邻接矩阵,I为单位矩阵;
确定所述二部图的顶点度矩阵,
基于所述二部图的邻接矩阵和所述二部图的顶点度矩阵,确定所述二部图的拉普拉斯矩阵为所述优化后的邻接矩阵,
将优化后的各个所述二部图邻接矩阵进行拼接,确定所述三部图优化后的邻接矩阵。
该步骤中,可以对三部图的初始邻接矩阵进行优化,从而使邻接矩阵中既保留与邻居节点的信息,又保留节点自身的信息,并保证邻接矩阵能够有效反应邻居节点多与邻居节点少的节点的信息。
这里,二部图可以有3个,各个二部图是基于样本用户、虚拟游戏资源、虚拟游戏资源集合两两进行组合得到的,比如,一个二部图基于样本用户和虚拟游戏资源组合得到,另一个二部图基于样本用户和虚拟游戏资源集合组合得到,再一个二部图基于虚拟游戏资源和虚拟游戏资源集合组合得到。
在一种可能的实施方式中,所述基于所述三部图,对所述资源获取预测模型进行训练,包括:
从所述三部图中抽取训练样本数据,将所述训练样本数据输入至所述资源获取预测模型中,得到所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值;
根据所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值,对所述资源获取预测模型中的参数进行训练;
循环进行抽取训练样本数据及参数训练的步骤,直到满足截止条件。
其中,资源获取预测模型可以包括三个子网络,分别是嵌入网络、图卷积网络、以及链路预测网络。
该步骤中,首先可以将三部图输入至嵌入网络,将三部图中的样本用户节点、虚拟游戏资源集合节点、虚拟游戏资源节点通过神经网络转换为嵌入向量。
示例性的,可以通过以下公式将样本用户节点转换为嵌入向量:
hu=σ(Wuxu+bu)
其中,Xu是样本用户画像特征,Wu是样本用户权重矩阵,bu是样本用户偏置向量;hu是样本用户画像嵌入,具有相似Xu的节点有相似的样本用户画像嵌入,这部分嵌入特征可以提升模型的泛化能力;eu是样本用户隐含嵌入,这部分嵌入特征默认值是随机的,但是随着模型训练,会被训练成节点特有的嵌入特征。这部分嵌入特征可以提升模型的精度;是样本用户第零层节点嵌入向量,兼顾了模型的精度和泛化能力。
通过相似的方法,可以得到虚拟游戏资源节点以及虚拟游戏资源集合节点的嵌入向量。
在三部图通过嵌入网络进行嵌入处理后,可以得到第零层三部图。此时三部图中的节点都有对应的第零层节点嵌入向量。第零层节点嵌入向量代表了节点的固有特征。
在得到嵌入向量后,可以通过图卷积网络,对第零层三部图进行连续的三次卷积处理,分别得到每次卷积处理得到的第一层三部图、第二层三部图、第三层三部图、第一层节点嵌入向量、第二层节点嵌入向量、第三层节点嵌入向量,并基于第零层节点嵌入向量、第一层节点嵌入向量、第二层节点嵌入向量、第三层节点嵌入向量,生成最终嵌入向量。
示例性的,可以通过优化后的邻接矩阵,对三部图中的节点进行信息聚合,提取出样本用户、虚拟游戏资源、虚拟游戏资源集合之间的交互特征。可以利用下述公式提取交互特征:
其中,Hl+1为第l+1层节点嵌入向量,Hl为第l层节点嵌入向量,为优化后的邻接矩阵,Wl为第l层的可学习参数,σ为非线性变化。
第零层三部图经过图卷积网络处理后的三部图,称为第一层三部图。此时三部图中的节点都有对应的第一层节点嵌入向量。第一层节点嵌入向量代表了节点对其他节点的吸引力,如样本用户偏好什么虚拟游戏资源、样本用户偏好什么虚拟游戏资源集合、虚拟游戏资源集合被哪些样本用户偏好等。
第一层三部图经过图卷积网络处理后的三部图,称为第二层三部图。此时三部图中的节点都有对应的第二层节点嵌入向量。第二层节点嵌入向量包含了多种特征,可分为两大类,同类节点的相似性和节点对其他节点吸引力。对于同类节点的相似性,有样本用户与其他样本用户的相似性、虚拟游戏资源集合与其他虚拟游戏资源集合的相似性、虚拟游戏资源和其他虚拟游戏资源的相似性等。对于节点对其他节点吸引力,有样本用户喜欢虚拟游戏资源集合中的什么虚拟游戏资源。
第二层三部图经过图卷积网络处理后的三部图,称为第三层三部图。此时三部图中的节点都有对应的第三层节点嵌入向量。第三层节点嵌入向量包含了大量特征,比如样本用户对相似样本用户偏好的虚拟游戏资源的偏好程度,样本用户对相似样本用户偏好的虚拟游戏资源集合的偏好程度等等。
对于一个特定的节点,将所有三部图中该节点的嵌入向量进行拼接,就可以得到该节点的最终嵌入向量。每一层三部图中节点的嵌入向量分别代表了节点的不同特征,综合多层三部图的嵌入向量,就可以获得节点的多阶特征。
在确定最终嵌入向量后,即可根据最终嵌入向量后,即可从样本数据及中抽取一个样本用户的身份标识和虚拟游戏资源集合或虚拟游戏资源的身份标识,将抽取到身份标识对应的最终嵌入向量进行拼接,经过两层全链接网络处理,再经过Sigmoid处理,即可得到样本用户获取虚拟游戏资源集合或虚拟游戏资源的概率。
在确定概率值之后,可以根据确定的概率值对资源获取预测模型的参数进行训练调整,重复进行训练直到满足模型优化目标。
在一种可能的实施方式中,在将所述目标虚拟游戏资源集合的指示信息返回至客户端之后,所述方法还包括:
获取所述用户针对目标虚拟游戏资源集合的获取情况;
基于所述用户针对目标虚拟游戏资源集合的获取情况,生成所述资源获取预测模型的更新训练数据集;
基于所述更新训练数据集,对所述资源获取预测模型进行更新训练。
该步骤中,在将目标虚拟游戏集合推送至客户端后,可以获取用户针对目标虚拟游戏资源集合的获取情况,获取情况可以包括目标用户在被推荐目标虚拟游戏资源集合后是否获取了目标虚拟游戏资源集合。在获取了获取情况后,可以根据获取情况生成更新训练数据集,并利用更新训练数据,对资源获取预测模型进行更新训练,更新资源获取预测模型中的参数。
请参阅图3、图4,图3为本申请实施例所提供的一种游戏中的资源推荐装置的结构示意图,图4为本申请实施例所提供的另一种游戏中的资源推荐装置的结构示意图。如图3中所示,所述游戏中的资源推荐装置300,用于服务器,包括:
响应模块310,用于,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;
第一确定模块320,用于基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;
第二确定模块330,用于基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;
推荐模块340,用于将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
在一种可能的实施方式中,所述第一确定模块320具体用于:
将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值。
如图4所示,所述游戏中的资源推荐装置400包括:响应模块410、第一确定模块420、第二确定模块430、推荐模块440、模型训练模块450,所述模型训练模块用于:
获取多个样本用户的历史资源获取信息样本、所述样本用户的画像信息样本以及每个虚拟游戏资源集合的配置信息;所述虚拟游戏资源集合的配置信息指示有所述虚拟游戏资源集合中包括的虚拟游戏资源;
基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集;
利用所述训练数据集,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,所述模型训练模块450在基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集时,具体用于:
基于预设的转换规则,将分别所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息;
基于所述标准历史资源获取信息样本、所述标准画像信息样本以及所述标准配置信息,生成所述训练数据集;所述训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、所述标准画像信息以及所述标准配置信息。
在一种可能的实施方式中,所述模型训练模块450在利用所述训练数据集,对所述资源获取预测模型进行训练时,具体用于:
基于所述训练数据集,生成针对所述样本用户、所述虚拟游戏资源以及所述虚拟游戏资源集合的三部图;所述三部图包括样本用户节点、虚拟游戏资源节点、虚拟游戏资源集合节点以及优化后的邻接矩阵;
基于所述三部图,对所述资源获取预测模型进行训练。
在一种可能的实施方式中,所述模型训练模块450还用于:
针对二部图的初始邻接矩阵中的每个顶点,添加所述顶点与自身相连的边,得到所述二部图的邻接矩阵;
确定所述二部图的顶点度矩阵;
基于邻接矩阵和顶点度矩阵,确定所述二部图的拉普拉斯矩阵为所述优化后的邻接矩阵;
将优化后的各个所述二部图邻接矩阵进行拼接,确定所述三部图优化后的邻接矩阵。
在一种可能的实施方式中,所述模型训练模块450在基于所述三部图,对所述资源获取预测模型进行训练时,具体用于:
从所述三部图中抽取训练样本数据,将所述训练样本数据输入至所述资源获取预测模型中,得到所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值;
根据所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值,对所述资源获取预测模型中的参数进行训练;
循环进行抽取训练样本数据及参数训练的步骤,直到满足截止条件。
在一种可能的实施方式中,所述模型训练模块450还用于:
获取所述用户针对目标虚拟游戏资源集合的获取情况;
基于所述用户针对目标虚拟游戏资源集合的获取情况,生成所述资源获取预测模型的更新训练数据集;
基于所述更新训练数据集,对所述资源获取预测模型进行更新训练。
本申请实施例提供的游戏中的资源推荐装置,首先,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;其次,基于所述历史资源获取信息及所述画像信息,确定多个虚拟游戏资源集合对应的获取概率值;然后,基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;最后,将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。本申请能够基于目标用户的历史资源获取信息以及用户画像,确定目标用户针对多个虚拟游戏资源集合的获取概率值,并基于获取概率值,确定推荐给目标用户的目标虚拟游戏资源集合,使推荐给目标用户的虚拟游戏资源集合能够符合用户的获取意向,降低用户搜索挑选虚拟游戏资源集合的时间,进而提高用户获取虚拟游戏资源的效率。
请参阅图5,图5为本申请实施例所提供的一种电子设备的结构示意图。如图5中所示,所述电子设备500包括处理器510、存储器520和总线530。
所述存储器520存储有所述处理器510可执行的机器可读指令,当电子设备500运行时,所述处理器510与所述存储器520之间通过总线530通信,所述机器可读指令被所述处理器510执行时,可以执行如上述图1所示方法实施例中的游戏中的资源推荐方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时可以执行如上述图1所示方法实施例中的游戏中的资源推荐方法的步骤,具体实现方式可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种游戏中的资源推荐方法,其特征在于,应用于服务器,所述方法包括:
获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;
将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值;
基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;
将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
2.根据权利要求1所述的方法,其特征在于,通过以下步骤训练所述资源获取预测模型:
获取多个样本用户的历史资源获取信息样本、所述样本用户的画像信息样本以及每个虚拟游戏资源集合的配置信息;所述虚拟游戏资源集合的配置信息指示有所述虚拟游戏资源集合中包括的虚拟游戏资源;
基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集;
利用所述训练数据集,对所述资源获取预测模型进行训练。
3.根据权利要求2所述的方法,其特征在于,所述基于所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息,生成所述资源获取预测模型的训练数据集,包括:
基于预设的转换规则,将分别所述历史资源获取信息样本、所述画像信息样本以及所述每个虚拟游戏资源集合的配置信息转换为标准历史资源获取信息样本、标准画像信息样本以及每个虚拟游戏资源集合的标准配置信息;
基于所述标准历史资源获取信息样本、所述标准画像信息样本以及所述标准配置信息,生成所述训练数据集;所述训练数据集中包括每个样本用户针对每个虚拟游戏资源及虚拟游戏资源集合的获取情况、所述标准画像信息以及所述标准配置信息。
4.根据权利要求3所述的方法,其特征在于,所述利用所述训练数据集,对所述资源获取预测模型进行训练,包括:
基于所述训练数据集,生成针对所述样本用户、所述虚拟游戏资源以及所述虚拟游戏资源集合的三部图;所述三部图包括样本用户节点、虚拟游戏资源节点、虚拟游戏资源集合节点以及优化后的邻接矩阵;
基于所述三部图,对所述资源获取预测模型进行训练。
5.根据权利要求4所述的方法,其特征在于,通过以下步骤确定所述三部图优化后的邻接矩阵:
针对二部图的初始邻接矩阵中的每个顶点,添加所述顶点与自身相连的边,得到所述二部图的邻接矩阵;
确定所述二部图的顶点度矩阵;
基于邻接矩阵和顶点度矩阵,确定所述二部图的拉普拉斯矩阵为所述优化后的邻接矩阵;
将优化后的各个所述二部图邻接矩阵进行拼接,确定所述三部图优化后的邻接矩阵。
6.根据权利要求4所述的方法,其特征在于,所述基于所述三部图,对所述资源获取预测模型进行训练,包括:
从所述三部图中抽取训练样本数据,将所述训练样本数据输入至所述资源获取预测模型中,得到所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值;
根据所述训练样本数据对应的样本用户获取每个虚拟游戏资源及虚拟游戏资源集合的概率值,对所述资源获取预测模型中的参数进行训练;
循环进行抽取训练样本数据及参数训练的步骤,直到满足截止条件。
7.根据权利要求1所述的方法,其特征在于,在将所述目标虚拟游戏资源集合的指示信息返回至客户端之后,所述方法还包括:
获取所述用户针对目标虚拟游戏资源集合的获取情况;
基于所述用户针对目标虚拟游戏资源集合的获取情况,生成所述资源获取预测模型的更新训练数据集;
基于所述更新训练数据集,对所述资源获取预测模型进行更新训练。
8.一种游戏中的资源推荐装置,其特征在于,用于服务器,所述装置包括:
响应模块,用于,获取目标用户的历史资源获取信息以及所述目标用户的画像信息;所述历史资源获取信息包括所述目标用户历史获取的虚拟游戏资源以及虚拟游戏资源集合;所述虚拟游戏资源集合包括两个或两个以上虚拟游戏资源;
第一确定模块,用于将预处理后的所述历史资源获取信息及所述画像信息输入至预先训练好的资源获取预测模型中,得到所述目标用户分别针对多个虚拟游戏资源集合的获取概率值;
第二确定模块,用于基于所述获取概率值,从所述多个虚拟游戏资源集合中确定至少一个目标虚拟游戏资源集合;
推荐模块,用于将所述目标虚拟游戏资源集合的指示信息返回至客户端,以使所述客户端向所述用户推荐所述目标虚拟游戏资源集合。
9.一种电子设备,其特征在于,包括:处理器、存储介质和总线,所述存储介质存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储介质之间通过总线通信,所述处理器执行所述机器可读指令,以执行如权利要求1至7任一所述的游戏中的资源推荐方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至7任一所述的游戏中的资源推荐方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010790186.0A CN111870959B (zh) | 2020-08-07 | 2020-08-07 | 一种游戏中的资源推荐方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010790186.0A CN111870959B (zh) | 2020-08-07 | 2020-08-07 | 一种游戏中的资源推荐方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111870959A CN111870959A (zh) | 2020-11-03 |
CN111870959B true CN111870959B (zh) | 2023-10-27 |
Family
ID=73211910
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010790186.0A Active CN111870959B (zh) | 2020-08-07 | 2020-08-07 | 一种游戏中的资源推荐方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111870959B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112494938B (zh) * | 2020-12-07 | 2024-01-12 | 北京达佳互联信息技术有限公司 | 游戏资源分发方法、装置、电子设备及存储介质 |
CN112685638A (zh) * | 2020-12-30 | 2021-04-20 | 深圳市华傲数据技术有限公司 | 数据处理方法、设备及存储介质 |
CN113546414B (zh) * | 2021-07-30 | 2024-07-02 | 网易(杭州)网络有限公司 | 游戏对局的装备购买方法、装置、存储介质及计算机设备 |
CN113807403B (zh) * | 2021-08-23 | 2023-06-16 | 网易(杭州)网络有限公司 | 模型训练的方法、装置、计算机设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105617657A (zh) * | 2015-12-22 | 2016-06-01 | 北京奇虎科技有限公司 | 游戏智能推荐方法及装置 |
CN107908765A (zh) * | 2017-11-27 | 2018-04-13 | 维沃移动通信有限公司 | 一种游戏资源处理方法、移动终端及服务器 |
WO2018080272A1 (ko) * | 2016-10-31 | 2018-05-03 | 넷마블 주식회사 | 게임유저에 실시간 개인화 정보를 제공하는 방법, 서버, 시스템 및 컴퓨터 프로그램 |
CN108304440A (zh) * | 2017-11-01 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 游戏推送的方法、装置、计算机设备及存储介质 |
CN110489453A (zh) * | 2019-07-02 | 2019-11-22 | 广东工业大学 | 基于大数据日志分析的用户游戏实时推荐方法及系统 |
CN110538458A (zh) * | 2019-07-31 | 2019-12-06 | 中至数据集团股份有限公司 | 游戏推荐方法、装置、可读存储介质及终端 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5860994B2 (ja) * | 2012-09-26 | 2016-02-16 | 株式会社 ディー・エヌ・エー | ゲームを中心とした関係を示すグラフに基づいて、ゲームの推奨を提供するシステム及び方法 |
-
2020
- 2020-08-07 CN CN202010790186.0A patent/CN111870959B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105617657A (zh) * | 2015-12-22 | 2016-06-01 | 北京奇虎科技有限公司 | 游戏智能推荐方法及装置 |
WO2018080272A1 (ko) * | 2016-10-31 | 2018-05-03 | 넷마블 주식회사 | 게임유저에 실시간 개인화 정보를 제공하는 방법, 서버, 시스템 및 컴퓨터 프로그램 |
CN108304440A (zh) * | 2017-11-01 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 游戏推送的方法、装置、计算机设备及存储介质 |
CN107908765A (zh) * | 2017-11-27 | 2018-04-13 | 维沃移动通信有限公司 | 一种游戏资源处理方法、移动终端及服务器 |
CN110489453A (zh) * | 2019-07-02 | 2019-11-22 | 广东工业大学 | 基于大数据日志分析的用户游戏实时推荐方法及系统 |
CN110538458A (zh) * | 2019-07-31 | 2019-12-06 | 中至数据集团股份有限公司 | 游戏推荐方法、装置、可读存储介质及终端 |
Also Published As
Publication number | Publication date |
---|---|
CN111870959A (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111870959B (zh) | 一种游戏中的资源推荐方法及装置 | |
WO2021047535A1 (en) | Method, apparatus and system for secure vertical federated learning | |
CN111382868B (zh) | 神经网络结构搜索方法和神经网络结构搜索装置 | |
JP2021517295A (ja) | レコメンダシステムのための高効率畳み込みネットワーク | |
CN110990631A (zh) | 视频筛选方法、装置、电子设备和存储介质 | |
CN113705811B (zh) | 模型训练方法、装置、计算机程序产品及设备 | |
EP4350572A1 (en) | Method, apparatus and system for generating neural network model, devices, medium and program product | |
CN110009486A (zh) | 一种欺诈检测的方法、系统、设备及计算机可读存储介质 | |
CN112733043B (zh) | 评论推荐方法及装置 | |
CN114282666A (zh) | 基于局部稀疏约束的结构化剪枝方法和装置 | |
CN111241850A (zh) | 提供业务模型的方法及装置 | |
US11496775B2 (en) | Neural network model compression with selective structured weight unification | |
US11935271B2 (en) | Neural network model compression with selective structured weight unification | |
CN110135428A (zh) | 图像分割处理方法和装置 | |
CN111582284A (zh) | 用于图像识别的隐私保护方法、装置和电子设备 | |
WO2022134946A1 (zh) | 模型训练方法、装置、存储介质及设备 | |
CN113448876B (zh) | 一种业务测试方法、装置、计算机设备及存储介质 | |
US20210232891A1 (en) | Neural network model compression with structured weight unification | |
US20210201157A1 (en) | Neural network model compression with quantizability regularization | |
KR102271983B1 (ko) | 고객정보와 가상화폐 구매이력을 기반으로 한 기계학습 수행을 통해 사용자 맞춤의 가상화폐 추천을 제공하는 가상화폐 거래 플랫폼 서버 및 그 동작 방법 | |
CN111784787B (zh) | 图像生成方法和装置 | |
CN112036418A (zh) | 用于提取用户特征的方法和装置 | |
CN118051782B (zh) | 一种模型训练的方法、业务处理的方法以及相关装置 | |
CN111639260A (zh) | 内容推荐方法及其装置、存储介质 | |
CN113298248B (zh) | 一种针对神经网络模型的处理方法、装置以及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |