CN110465086B - 一种游戏物品展示方法、装置及存储介质 - Google Patents

一种游戏物品展示方法、装置及存储介质 Download PDF

Info

Publication number
CN110465086B
CN110465086B CN201810447542.1A CN201810447542A CN110465086B CN 110465086 B CN110465086 B CN 110465086B CN 201810447542 A CN201810447542 A CN 201810447542A CN 110465086 B CN110465086 B CN 110465086B
Authority
CN
China
Prior art keywords
game
candidate
item
characteristic information
combination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810447542.1A
Other languages
English (en)
Other versions
CN110465086A (zh
Inventor
王星雅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810447542.1A priority Critical patent/CN110465086B/zh
Publication of CN110465086A publication Critical patent/CN110465086A/zh
Application granted granted Critical
Publication of CN110465086B publication Critical patent/CN110465086B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8076Shooting

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明实施例公开了一种游戏物品展示方法、装置及存储介质;本发明实施例采用对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;根据目标参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合对应的组合特征信息;根据组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;根据候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。该方案可以节省终端资源。

Description

一种游戏物品展示方法、装置及存储介质
技术领域
本发明涉及游戏技术领域,具体涉及一种游戏物品展示方法、装置及存储介质。
背景技术
随着互联网技术的出现,互联网游戏也越来越多,目前互联网游戏的个数更是达到了上千个,游戏类别也很多。
尤其目前生存类枪战游戏比较火热,在生存类枪战游戏中玩家在同一个游戏场景中收集各种物品资源,并在某个变化的安全区域内对抗其他玩家,让自己生存到最后。
在生存类枪战游戏中,当玩家的游戏角色在存在物品的位置时,终端便会显示物品列表供玩家选择,玩家会通过针对物品列表的选择操作,触发物品的选择和携带。然而,在一些场景中,如果候选物品数量过多,终端需要通过多个页面分屏展示候选物品,此时,用户需要通过翻页来选择所需的物品,物品选取操作比较复杂,消耗大量的终端资源。
发明内容
本发明实施例提供一种游戏物品展示方法、装置及存储介质,可以节省终端资源。
本发明实施例提供一种游戏物品展示方法,包括:
对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;
根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;
根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;
根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;
根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。
相应的,本发明实施例还提供另一种游戏物品展示装置,,包括:
组合单元,用于对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;
参考特征构建单元,用于根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;
组合特征构建单元,用于根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;
预测单元,用于根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;
第一排序单元,用于根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。
相应的,本发明实施例还提供一种存储介质,所述存储介质存储有指令,所述指令被处理器执行时实现本发明实施例任一提供的方法的步骤。
本发明实施例采用对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。该方案可以基于机器学习对候选游戏物品进行智能排序,便于用户选择游戏物品,可以简化游戏物品的选择操作,从而节省终端资源。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本发明实施例提供的游戏系统的场景示意图;
图1b是本发明实施例提供的游戏物品展示方法的流程示意图;
图1c是本发明实施例提供枪械选择页面示意图;
图2a是本发明实施例提供的游戏物品展示方法的另一流程示意图;
图2b是本发明实施例提供的游戏物品展示方法的架构示意图;
图3a是本发明实施例提供的游戏物品展示装置的第一种结构示意图;
图3b是本发明实施例提供的游戏物品展示装置的第二种结构示意图;
图3c是本发明实施例提供的游戏物品展示装置的第三种结构示意图;
图3d是本发明实施例提供的游戏物品展示装置的第四种结构示意图;
图3e是本发明实施例提供的游戏物品展示装置的第五种结构示意图;
图3f是本发明实施例提供的游戏物品展示装置的第六种结构示意图;
图3g是本发明实施例提供的游戏物品展示装置的第七种结构示意图;
图4是本发明实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种游戏物品展示方法、装置及存储介质。
本发明实施例提供了一种游戏系统,该系统可以包括本发明实施例任一提供的游戏物品展示装置。其中,游戏物品展示装置可以集成在服务器中如游戏服务器等。
此外,游戏系统还可以包括其他设备,比如,终端等等。其中,终端可以为手机、平板电脑等设备。
例如,参见图1a,提供了一种游戏系统,该游戏系统包括::终端10和服务器20;服务器20与终端10通过网络30连接。其中,网络30和网络50中包括路由器、网关等等网络实体,图中并为示意出。服务器20可以通过有线网络或无线网络与服务器20进行数据交互,比如可以从服务器20下载应用(如游戏应用) 和/或应用更新数据包和/或与应用相关的数据信息或业务信息。其中,终端10 可以为手机、平板电脑、笔记本电脑等设备,图1a是以终端10为手机为例。该终端10中可以安装有各种用户所需的应用,比如具备娱乐功能的应用(如直播应用,音频播放应用,游戏应用,阅读软件),又如具备服务功能的应用(如地图导航应用、团购应用等)。
基于上述图1a所示的系统,以游戏应用为例,终端10通过网络30从服务器 20中按照需下载求游戏应用和/或游戏应用更新数据包和/或与游戏应用相关的数据信息或业务信息(如游戏数据等)。
其中,服务器20可以将游戏数据发送至终端10进行显示,比如游戏场景数据等等,用户通过终端10进行游戏操作,并将操作信息发送至服务器20,服务器20向终端10发送游戏操作结果数据,并在终端10显示。
采用本发明实施例方法,在游戏场景中,当需要选取游戏物品时,服务器 20对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;获取当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息,得到目标参考特征信息;根据目标参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合对应的组合特征信息;根据组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;根据候选物品组合的预测值对候选游戏物品进行排序;并向终端10发送排序后的候选游戏物品。
终端10显示排序后的候选游戏物品,并基于识别到的物品选择操作触发从候选游戏物品中选取相应的游戏物品。
上述图1a的例子只是实现本发明实施例的一个系统架构实例,本发明实施例并不限于上述图1a所示的系统结构,基于该系统架构,提出本发明各个实施例。
上述图1a的例子只是实现本发明实施例的一个系统架构实例,本发明实施例并不限于上述图1a所示的系统结构,基于该系统架构,提出本发明各个实施例。
以下将分别进行详细说明。
在一实施例中,提供了一种游戏物品展示方法,可以由服务器的处理器执行,如图1b所示,该游戏物品展示方法的具体流程可以如下:。
101、对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合。
其中,游戏物品可以为游戏场景中的虚拟物品,比如,在生存类枪战游戏中,游戏物品可以包括游戏装备等,该游戏装备可以包括:武器(如枪械、子弹、匕首等)、防具(如头盔、防弹衣)、医疗物品等等。
其中,候选游戏物品为当前可以选择的游戏物品,可以包括新出现的游戏物品、在一实施例中,候选游戏物品也可以包括玩家已经携带的游戏物品等。
本发明实施中,对候选游戏物品进行两两组合可以包括:从候选游戏物品中选择两个不同的候选游戏物品,组成候选物品组合。
由于在游戏如生存类枪战游戏中,玩家面临游戏物品选择时,一般都在候选游戏物品数量一般都大于游戏物品可选择数量(如在生存类枪战游戏中,候选游戏装备数大于可携带游戏装备数)的场景下,在此场景下,玩家选取两个候选游戏物品相对于选取其他数量游戏物品的概率较大,因此,本发明实施例采用两两组合形成的候选游戏物品组合作预测以及物品排序更能体现玩家的真实行为,符合实际的游戏场景,可以提升预测和物品排序的准确性和真实性。在一实施例中,候选游戏物品组合包括:前置物品和后置物品,其中,前置物品和后置物品不相同。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选物品组合,比如:(a,b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、 c)、(c、d)等等。
在一实施例中,可以在用户存在大量历史数据时,基于机器学习进行排序,比如,当用户标识对应的历史游戏次数大于第一预设阈值时,对当前待选择的候选游戏物品进行两两组合。也即,当玩家用户的历史对局数大于某个阈值时 (表明存在大量的历史数据),此时,采用机器学习方式进行排序。
102、根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息。
其中,玩家特征信息可以包括玩家的游戏角色模型的特征信息,可以包括玩家的游戏角色模型的属性信息(体力值、耐力值、生命值等等)、游戏角色模型的游戏物品信息(如当前使用装备,是否拥有载具)、游戏角色模型的游戏资源信息(如当前资源剩余量等)以及关联玩家的游戏角色模型的游戏物品信息(如身旁队友携带装备类型)等等。此外,在一实施例中,玩家特征信息还可以包括玩家的真实用户信息,比如,可以包括:玩家的真实性别、玩家的真实年龄等等。
游戏环境特征信息可以为玩家的游戏角色模型所处游戏环境的特征信息,可以包括位置信息、距离信息、时间信息等等;比如,以生存类枪战游戏为例,游戏环境特征信息可以包括玩家角色所处的位置(室内,室外、草地、沙漠等),距离安全区域的距离、沙尘暴扩散剩余时间,沙尘暴扩散剩余距离,是否在轰炸区,房屋密集程度,楼层,距离最近发生枪战地点的距离等等。
游戏局势特征信息可以包括对局玩家的游戏结果信息,比如,以生存类枪战游戏为例,可以包括:我方剩余人数,敌方剩余人数,双方据点占领数,双方基地占领数等等。
本发明实施例中,目标参考特征信息用于构建物品组合的组合特征的参考特征,其中,可以从获取玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建,比如,可以获取玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的这三种特征信息构建目标参考特征信息。
其中,目标参考特征信息可以由玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构成。比如,目标参考特征信息可以包括(a1、a2、……aj),其中,j可以为大于2的正整数。
103、根据目标参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合对应的组合特征信息。
其中,组合特征信息为表征候选物品组合的特征信息,候选物品组合的组合特征信息可以包括多个特征信息,比如,某个候选物品组合的组合特征信息可以包括(t1、t2、t3……tm),其中,m为大于3的正整数。
其中,候选游戏物品对应的物品特征信息可以表征候选游戏物品的特征信息,为了便于计算提升选取效率,在一实施例中,该物品特征信息可以离散化为N维的0-1特征,其中,N可以为游戏物品的种数。比如,对于某个游戏物品 (如枪械),如果存在N种类型的游戏物品,那刻每一种游戏物品的物品特征可以[1,0,0,0……]、[0,1,0,0……]、[0,0,1,0……],[0,0,0,1……],[0,0,0,0……1],其中,每个特征集合中特征总数量为N。
例如,以游戏物品为生存类枪战游戏中枪械为例,假设枪械类共有4款,则N=4,则每一款的特征分别为[1,0,0,0],[0,1,0,0],[0,0,1,0],[0,0,0,1]。
比如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选枪械组合,(a、b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、c)、 (c、d)等之后,可以基于目标参考特征信息以及候选枪械a、b、c、d的枪械特征,构建候选枪械组合(a、b)的组合特征信息,(a、c)的组合特征信息、(a、d)的组合特征信息、(d、a)的组合特征信息等等。
在一实施例中,可以根据目标参考特征信息与候选物品组合中成员物品对应的物品特征信息,得到成员物品对应的特征信息;
根据成员物品对应的特征信息构建候选物品组合的组合特征信息。
例如,对于枪械组合(a、b)可以基于枪械a的枪械特征以及目标参考特征信息获取枪械a的特征集合,基于枪械b的枪械特征以及目标参考特征信息获取枪械b的特征集合,然后基于得到的枪械a以及枪械b的特征集合构建枪械组合(a、b)的组合特征。同样,对于其余枪械组合采用同样的方式便可以构建所有枪械组合的组合特征。
在一实施例中,为了减少计算量以及提升物品选择效率,可以将目标参考特征信息进行简化处理,比如,可以将目标参考特征信息表示为数值等等。也即,步骤“根据目标参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合对应的组合特征信息”,可以包括:
对目标参考特征信息进行离散化处理,得到离散化后特征信息;
根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;
将筛选出的特征信息表示成相应的数值,得到数值集合;
根据数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息。
其中,特征筛选方式可以根据实际需求设定,比如,可以通过计算IV(information value,信息量)值,信息增益等方法进行特征筛选。
例如,本发明实施例可以对目标参考特征信息集合中(a1、a2、……aj) 进行离散化处理,并对离散化处理后的特征进行筛选,最后可以将筛选的特征表示相应的数值,便可以得到一个K维数值向量[S1,S2,…Sk],K维向量中一个或者多个S值表示一个特征。
在得到数值集合之后,可以基于数值集合与候选游戏物品的特征信息构建出候选物品组合的组合特征;比如,可以根据数值集合与候选物品组合中成员物品对应的物品特征信息,得到成员物品对应的特征信息;
根据成员物品对应的特征信息构建候选物品组合的组合特征信息。
在一实施例中,可以将将数值集合与候选物品组合中成员物品对应的物品特征信息进行交叉,得到成员物品对应的交叉特征信息;根据成员物品对应的交叉特征信息构建候选物品组合对应的组合特征信息。
其中,成员物品对应的特征维度等于数值向量维度K与成员物品的物品特征维度N的乘积。
在一实施例中,可以获取成员物品之间的交叉特征差值,将该交叉特征差值作为候选物品组合的组合特征;比如,可以将候选物品组合中前置物品的交叉特征减去后置物品的交叉特征,得到候选物品组合的组合特征。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选枪械组合,(a、b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、c)、 (c、d)等之后。对于枪械组合(a、b)可以将枪械a的枪械特征以及K维数值向量进行特征交叉处理,得到枪械a的特征集合a’:
a’=[x1,x2,……xN*K]
基于枪械b的枪械特征以及K维数值向量进行特征交叉处理,得到枪械b的特征集合b’:
b’=[y1,y2,……yN*K]
那么,枪械组合(a、b)的组合特征可以为a’-b’;枪械组合(b,a)组合特征可以为b’-a’。
同理,对于其余枪械组合采用上述同样的方式便可以构建所有枪械组合的组合特征。
104、根据组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值。
其中,机器学习模型可以根据实际需求选择,比如,可以包括SVM,LR,神经网络等模型。
本发明实施中,机器学习模型可以为采用标记的游戏物品组合样本训练后的机器学习模型。当输入候选物品组合的组合特征信息至该机器学习模型后,该模型将会输出该候选物品组合被选取的预测值。
例如,以生存类枪战游戏,且游戏物品为枪械为例,枪械组合(a、b)的组合特征a’-b’输入至训练后的机器学习模型,此时,机器学习模型将输出枪械组合(a、b)被用户选取的预测值,如0.5。
通过步骤104可以获取各个候选物品组合被用户选取的预测值。
下面介绍本发明实施例中机器学习模型的训练过程,如下:
获取历史时间段内候选游戏物品数量大于游戏物品可选择数量时,候选游戏物品的历史选择信息;
对候选游戏物品进行两两组合,以构建物品组合样本;
基于候选游戏物品的历史选择信息对物品组合样本进行标注,得到物品组合样本的标注值;
根据物品组合样本对应的历史玩家特征信息、历史游戏环境特征信息以及历史游戏局势特征信息中的至少一种历史特征信息构建历史参考特征信息;
根据历史参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合样本对应的样本特征信息;
根据物品组合样本对应的标注值、样本特征信息对机器学习模型进行训练。
比如,在一实施例中,可以对于某一类游戏物品,获取历史时间段内候选游戏物品数量大于游戏物品可选择数量时,候选游戏物品的历史选择信息。然后,对候选物品进行两两组合,构建物品组合样本。
其中,本发明实施中,对候选游戏物品进行两两组合可以包括:从候选游戏物品中选择两个不同的候选游戏物品,组成候选物品组合。其中,候选游戏物品组合包括:前置物品和后置物品,其中,前置物品和后置物品不相同。
在一实施例中,为了简化样本,可以排除掉前置物品与后置物品偏好度相同的物品组合;具体地,可以根据历史选择信息获取用户对候选游戏物品的偏好度信息,然后,基于偏好度信息对候选游戏物品进行两两组合。
例如,以生存类枪战游戏,且游戏物品为枪械为例,假设当前位置出现 A,B,C三种枪,用户拾取了B,C两把,并替换掉了身上的D;此时,用户对于B、C的偏好度大于A、D的偏好度,B、C的偏好度相等,A、D的偏好度相等。基于偏好度可以构建枪械组合样本:(B A)、(BD)、(C A)、(C D)、 (AB)、(AC)、(D B)、(D C)。该物品组合样本排除掉了成员物品偏好度相同的枪械组合(B C)、(A D)。
在构建物品组合样本后,可以对物品组合样本进行标注,如标注为+1和-1。具体地,可以基于候选游戏物品的历史选择信息进行标注,比如,可以据历史选择信息获取用户对候选游戏物品的偏好度信息,然后,基于偏好度信息对物品组合样本进行标注。比如,当组合样本中前置成员物品的偏好度大于后置成员物品的偏好度时,可以该物品组合样本标注为+1;当组合样本中前置成员物品的偏好度小于后置成员物品的偏好度时,可以该物品组合样本标注为-1。
例如,以生存类枪战游戏,且游戏物品为枪械为例,假设当前位置出现 A,B,C三种枪,用户拾取了B,C两把,并替换掉了身上的D;此时,用户对于B、C的偏好度大于A、D的偏好度,B、C的偏好度相等,A、D的偏好度相等。基于偏好度可以构建并标注枪械组合样本,可以得到如下的正负样本:
(B A)+1
(B D)+1
(C A)+1
(C D)+1
负样本有:
(A B)-1
(A C)-1
(D B)-1
(D C)-1。
在构建和标注物品组合样本后,需要构建物品组合样本的特征信息,以对机器学习模型进行训练。具体地,物品组合样本的特征信息构建方式与上述候选物品组合的组合特征信息构建方式相同。比如:
根据物品组合样本对应的历史玩家特征信息、历史游戏环境特征信息以及历史游戏局势特征信息中的至少一种历史特征信息构建历史参考特征信息;
根据历史参考特征信息与物品组合样本中成员物品对应的物品特征信息构建物品组合样本的样本特征信息。
具体地,可以对历史参考特征信息进行离散化处理,得到离散化后特征信息;根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;将筛选出的特征信息表示成相应的数值,得到样本数值集合;根据样本数值集合与物品组合样本中成员物品对应的物品特征信息进行交叉,根据成员物品的交叉特征构建物品组合样本对应的样本特征信息,如基于成员物品的交叉特征之间的特征差值构建样本特征信息。
例如,对历史参考特征信息进行散化处理,并且通过计算IV值,信息增益等方法进行特征筛选工作。最终当前特征可以表示为一个K维的数值向量 [S1,S2,…Sk]。
将每种类型的游戏物品如装备特征离散化为N维的0-1特征,例如枪械类共有4款,则N=4,则每一款的特征分别为[1,0,0,0],[0,1,0,0],[0,0,1,0],[0,0,0,1],将枪械特征与上述K维特征进行交叉得到N*K维度的特征。将训练样本对的向量相减得到输入模型的最终向量。例如枪械A的交叉后的特征为:
P=[x1,x2,……xN*K]
B的交叉特征是:
Q=[y1,y2,……yN*K]
假设训练样本对为(A,B)+1;(B,A)-1
那么进入模型的训练样本为:
P-Q,+1
Q-P,-1
通过上述步骤可以构建出机器学习的训练样本集,然后,便可以通过训练样本集对机器学习模型进行训练。
本发明实施例中,机器学习模型的训练过程,可以在需要进行游戏物品选择时执行,比如,当需要进行游戏物品选择时,可以先基于历史数据进行机器学习模型训练,然后,基于训练后的机器学习模型预测当前物品组合被选择的预测值,最后,基于该组合的预测值进行排序。
其中,机器学习模型的历史训练数据可以由终端采集上报至服务器,也可以由服务器自己采集。
在一实施例中,还可以在进行游戏物品选择之前,预先执行机器学习模型进行训练,当需要进行游戏物品选择时,利用预先训练好的机器学习模型进行预测。
105、根据候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。
其中,基于候选物品组合的预测值进行排序的方式可以有多种,比如,可以按照预测值对候选物品组合进行排序,然后,基于候选物品组合的排序结果对候选游戏物品进行排序。
又比如,在一实施例中,还可以根据候选物品组合被用户选取的预测值获取候选游戏物品的排序参考值;基于候选游戏物品的排序参考值对候选游戏物品进行排序。
具体地,可以确定前置候选游戏物品相同的候选物品组合,然后,获取前置候选物品相同的候选物品组合的预测值之和,将该和值作为前置游戏物品的排序参考值,从而得到每个候选游戏物品的排序参考值,然后,基于排序参考值进行排序,如按照排序参考值从大到小,或者从小到大的方式进行排序。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选枪械组合,(a、b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、c)、 (c、d)等。在构建完各枪械组合的特征后输入至训练后的机器学习模型,便可以得到各个枪械组合被选取的预测值。
然后,可以将前置游戏物品相同的组合的预测值求和,将和值作为前置游戏物品的排序参考值,比如可以获取组合(a、b)、(a、c)、(a、d)的预测值之和,将和值作为候选游戏物品a的排序参考值。同理,可以组合(b、a)、(b、 c)、(b、d)的预测值之和,然后,作为候选游戏物品b的排序参考值,通过这种方式可以得到枪械a、b、c、d的排序参考值。
最后,可以根据枪械a、b、c、d的排序参考值进行排序,如排序后(a、c、 d、b)。在排序之后,服务器可以将排序结果发送给终端,终端可以根据排序结果以列表的形式在游戏界面中展示排序后的枪械,参考图1c。此时,玩家用户可以通过枪械列表快速地选择枪械,因为,基于机器学习模型可以预测出玩家用户在当前场景中的枪械偏好,并可以将用户偏好的枪械排在列表前面显示。
本发明实施例可以在存在大量历史数据时,采用机器学习方式进行排序;也即,当用户标识对应的历史游戏次数大于第一预设阈值时,可以采用机器学习方式进行排序,这种情况由于存在大量历史数据,可以对模型进行训练使得模型预测更加准确,符合用户的行为习惯。
然而,在一实施例中,当存在少量历史数据时,也即当用户标识对应的历史游戏次数大于第二预设阈值,且小于第一预设阈值(其中,第一预设阈值大于第二预设阈值)时,可以采用其他方式进行排序;比如,可以获取候选游戏物品被用户选择的历史选择次数,以及候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数;根据历史选择次数和历史出现次数获取用户对候选游戏物品的偏好度;根据候选游戏物品的偏好度对当前的候选游戏物品进行排序。
其中,历史选择次数为在历史游戏中候选游戏物品被用户选择的次数,比如,枪械A在历史游戏中被用户选取的次数。
其中,候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数指的是:游戏物品出现在玩家角色模型身边的次数。
其中,偏好度可以为历史选择次数与历史出现此时之间的比值。
例如,对于有少量历史数据的用户(对局数小于某个阈值),对于某一类型的武器列表,统计用户在游戏中的拾取次数,出现在身边的次数等,并用拾取次数/出现在身边的次数作为该武器的偏好度的初始值。假设某一类武器列表为[W1,W2,…Wn]共N款武器,出现在玩家身边的次数分别为[B1,B2,…Bn], 玩家拾取的次数为[A1,A2,A3,…An],那么玩家对该类型武器的偏好度的初始值为
Figure BDA0001657615150000141
然后,通过上述武器的偏好度进行排序,比如,将上述偏好度数值按照升序排序转化为[1,N]之间的分数,最大分数为N,最小分数为1,然后,根据分数进行排序。
在一实施例中,当没有历史数据或者历史数据非常少的情况下,比如,当用户标识对应的历史游戏次数不大于第二预设阈值时,也即游戏对局数非常少的情况下,可以获取当前候选游戏物品与游戏角色模型之间的距离;基于距离对候选游戏物品进行排序。比如,可以按照距离从大到小,或者从小到大的顺序对候选游戏物品进行排序。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以获取候选枪械a与游戏角色模型之间的距离L1,枪械b与游戏角色模型之间的距离L2,枪械c与游戏角色模型之间的距离L3、枪械d与游戏角色模型之间的距离L4;然后,根据L1、L2、 L3、L4从小到大的顺序对枪械a、b、c、d进行排序,如当L3<L4<L1<L2时,排序后枪械顺序为:c、d、a、b。
为了提升玩家拾取或选择游戏物品的效率,进一步节省资源,在一实施例中,在触发对游戏物品进行排序之前,游戏物品展示方法还可以包括:
当需要选择游戏物品时,判断是否存在配置的自动选择方式;
若否,则执行对当前待选择的候选游戏物品进行两两组合的步骤;
若是,则根据自动选择方式从候选游戏物品中自动选取相应的候选游戏物品。
例如,在游戏场景中,如果玩家的游戏角色模型运动到某个存在游戏物品的位置时,便会触发游戏物品选择,此时,需要判断是否在配置的自动选取方式。
如果不存在自动选择方式,则基于上述介绍的几种排序方式对游戏物品进行排序,并按照排序顺序进行显示,比如,当历史游戏局数较多的情况下,可以基于机器学习进行排序;当历史游戏局数较小的情况下,可以基于游戏物品出现在玩家身边的次数以及玩家的选择或拾取次数计算偏好度,并基于偏好度进行排序;当历史游戏局数非常小,或者等于零时,此时可以基于游戏物品与虚拟角色模型之间的距离进行排序。
若存在自动选择方式,则根据自动选择方式从候选游戏物品中自动选取相应的候选游戏物品。在一实施例中,为了节省资源,可以对候选游戏物品进行显示。
其中,自动选择方式可以根据实际需求设定,比如,自动选择方式可以包括:自动选取等级更高的游戏物品,或者自动选取优先级更高的游戏物品等等。例如,玩家的游戏角色模型携带枪械a,若当前位置存在枪械b时,假设枪械b 的优先级高于枪械a,此时,可以自动选择枪械b,具体地,可以选择枪械b替换枪械a。在一实施例中,当存在自动选择方式时,可以基于游戏物品的物品类型对应的自动选择方式来选择游戏物品。其中,物品类型可以包括单候选游戏物品、多候选游戏物品;该游戏物品的物品类型可以根据实际需求进行划分,比如,可以基于用户对游戏物品的功能进行划分,比如,以生存类枪战游戏为例,对于防御类装备如头盔、防弹衣等,玩家一般都会选择最高等级的防御类装备,即玩家具有唯一选择,因此,可以将防御类装备划分成单候选游戏物品,即对于该类物品玩家只有一个选择。
又比如,对于进攻类装备如主武器(步枪,狙击枪,散弹枪,冲锋枪等),玩家对于不同的武器可以根据自己的偏好有多个不同的选择,因此,可以将进攻类装备划分成多候选装备,即对于该类物品玩家有多个选择。
本发明实施例中,对于单候选游戏物品,自动选择方式可以包括:选取等级最高的游戏物品;对于多候选游戏物品,自动选择方式可以包括:基于多候选游戏物品的优先级进行选择。该优先级可以由用户预先配置。对于其物品类型,如子弹、医疗包等,可以基于配置的选择方式来选取,比如,可以配置的选择数量、选择条件进行选取等等。
比如,步骤“根据自动选择方式从候选游戏物品中自动选取相应的候选游戏物品”,可以包括:
获取候选游戏物品的物品类型,物品类型包括单候选游戏物品、或多候选游戏物品;
对于单候选游戏物品,从单候选游戏物品中选取等级最高的候选游戏物品;
对于多候选游戏物品,基于多候选游戏物品的优先级选择相应的候选游戏物品。
例如,以生存类枪战游戏为例,用户可以进行如下配置:
单候选装备,例如头盔,防弹衣等,用户可选择配置是否默认自动拾取更高等级装备,并且不显示同等级装备。
多候选装备,例如主武器(步枪,狙击枪,散弹枪,冲锋枪等)用户而可配置装备优先级(例如:1.步枪2.散弹枪3.狙击枪)
其他物品,例如子弹,医疗包等,可配置是否自动拾取,和是否需要限制数量(不限制则默认到背包满为止)
根据用户配置,玩家在游戏中准备依照用户配置自动替换和拾取:
单候选装备,若用户配置自动拾取更新高等级装备,则玩家在有更高等级装备地点自动替换原装备,并不再显示低等级装备
多候选装备:若用户配置自动拾取优先级,则玩家在有装备地点自动拾取最高优先级准备并替换原来装备。
子弹,医疗包根据配置系统选择是否自动拾取和拾取量级。
本发明实施例的游戏物品选取方法可以适用于各种游戏场景中的游戏物品选择,比如,生存类枪战游戏中的装备选择,冒险游戏中的装备选择,竞技对抗游戏中的装备选择等等。
本发明实施例的对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;根据目标参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合对应的组合特征信息;根据组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;根据候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。该方案可以基于机器学习预测玩家对游戏物品的偏好,并进行排序,便于用户选择游戏物品,可以简化游戏物品的选择操作,从而节省终端资源。
并且,本发明实施例提供的方案还提供了在机器学习的训练数据不多的情况下,可以采用距离、偏好度等方式进行排序,提升了游戏物品选择的灵活性。
此外,本发明实施例提供的方案还可以支持自动选择游戏物品,比如,单候选物品的自动选择、多候选物品的自动选择,可以降低用户进行游戏物品的操作复杂度,大大提升了游戏体验。
根据上述实施例所描述的方法,以下将举例作进一步详细说明。
参考图2a和图2b,为本发明实施例提供的一种游戏物品展示方法,具体流程如下:
201、当需要选择游戏物品时,判断是否存在配置的自动选择方式,若否,则执行步骤202,若是,则跳转执行步骤212。
例如,在游戏场景中,如果玩家的游戏角色模型运动到某个存在游戏物品的位置时,便会触发游戏物品选择,此时,需要判断是否在配置的自动选取方式。
其中,自动选择方式可以根据实际需求设定,比如,自动选择方式可以包括:自动选取等级更高的游戏物品,或者自动选取优先级更高的游戏物品等等。例如,玩家的游戏角色模型携带枪械a,若当前位置存在枪械b时,假设枪械b 的优先级高于枪械a,此时,可以自动选择枪械b,具体地,可以选择枪械b替换枪械a。
202、获取用户标识对应的历史游戏次数。
其中,历史游戏次数可以表征用户进行游戏的历史局数等等。例如,在当前时刻之前,用户完成了总共完成了三局游戏,此时,历史游戏次数即为3。
本发明实施例可以基于历史游戏次数来选择排序方式,当次数很大时,说明用户的历史数据较大,可以执行步骤203-207采用机器学习方式进行排序更准确、更能反映出用户选择的真实性;当次数较小时,说明用户的历史数据较少,此时,可以执行步骤208-209,基于游戏物品出现在玩家身边的次数以及玩家的选择或拾取次数计算偏好度,并基于偏好度进行排序;当历史游戏局数非常小,或者等于零时,表明历史数据非常少,此时可以执行步骤210基于游戏物品与虚拟角色模型之间的距离进行排序。
因此,本发明实施例提供的游戏选择方法可以基于历史数据的情况采用合适的排序方式进行排序,提升了排序的灵活性和准确性。
203、当历史游戏次数大于第一预设阈值时,对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合。
其中,游戏物品可以为游戏场景中的虚拟物品,比如,在生存类枪战游戏中,游戏物品可以包括游戏装备等,该游戏装备可以包括:武器(如枪械、子弹、匕首等)、防具(如头盔、防弹衣)、医疗物品等等。
其中,候选游戏物品为当前可以选择的游戏物品,可以包括新出现的游戏物品、在一实施例中,候选游戏物品也可以包括玩家已经携带的游戏物品等。
本发明实施中,对候选游戏物品进行两两组合可以包括:从候选游戏物品中选择两个不同的候选游戏物品,组成候选物品组合。
在一实施例中,候选游戏物品组合包括:前置物品和后置物品,其中,前置物品和后置物品不相同。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选物品组合,比如:(a,b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、 c)、(c、d)等等。
204、根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息。
其中,玩家特征信息可以为玩家的游戏角色模型的特征信息,可以包括玩家的游戏角色模型的属性信息(体力值、耐力值、生命值等等)、游戏角色模型的游戏物品信息(如当前使用装备,是否拥有载具)、游戏角色模型的游戏资源信息(如当前资源剩余量等)以及关联玩家的游戏角色模型的游戏物品信息(如身旁队友携带装备类型)等等。
游戏环境特征信息可以为玩家的游戏角色模型所处游戏环境的特征信息,可以包括位置信息、距离信息、时间信息等等;比如,以生存类枪战游戏为例,游戏环境特征信息可以包括玩家角色所处的位置(室内,室外、草地、沙漠等),距离安全区域的距离、沙尘暴扩散剩余时间,沙尘暴扩散剩余距离,是否在轰炸区,房屋密集程度,楼层,距离最近发生枪战地点的距离等等。
游戏局势特征信息可以包括对局玩家的游戏结果信息,比如,以生存类枪战游戏为例,可以包括:我方剩余人数,地方剩余人数,双方据点占领数,双方基地占领数等等。
本发明实施例中,目标参考特征信息用于构建物品组合的组合特征的参考特征,其中,可以从获取玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建,比如,可以获取玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的这三种特征信息构建目标参考特征信息。
其中,目标参考特征信息可以由玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构成。比如,目标参考特征信息可以包括(a1、a2、……aj),其中,j可以为大于2的正整数。
205、根据目标参考特征信息以及候选游戏物品对应的物品特征信息,构建候选物品组合对应的组合特征信息。
其中,组合特征信息为表征候选物品组合的特征信息,候选物品组合的组合特征信息可以包括多个特征信息,比如,某个候选物品组合的组合特征信息可以包括(t1、t2、t3……tm),其中,m为大于3的正整数。
其中,候选游戏物品对应的物品特征信息可以表征候选游戏物品的特征信息,为了便于计算提升选取效率,在一实施例中,该物品特征信息可以离散化为N维的0-1特征,其中,N可以为游戏物品的种数。比如,对于某个游戏物品 (如枪械),如果存在N种类型的游戏物品,那刻每一种游戏物品的物品特征可以[1,0,0,0……]、[0,1,0,0……]、[0,0,1,0……],[0,0,0,1……],[0,0,0,0……1],其中,每个特征集合中特征总数量为N。
例如,以游戏物品为生存类枪战游戏中枪械为例,假设枪械类共有4款,则N=4,则每一款的特征分别为[1,0,0,0],[0,1,0,0],[0,0,1,0],[0,0,0,1]。
比如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选枪械组合,(a、b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、c)、 (c、d)等之后,可以基于目标参考特征信息以及候选枪械a、b、c、d的枪械特征,构建候选枪械组合(a、b)的组合特征信息,(a、c)的组合特征信息、(a、d)的组合特征信息、(d、a)的组合特征信息等等。
在一实施例中,可以根据目标参考特征信息与候选物品组合中成员物品对应的物品特征信息,得到成员物品对应的特征信息;
根据成员物品对应的特征信息构建候选物品组合的组合特征信息。
在一实施例中,为了减少计算量以及提升物品选择效率,对目标参考特征信息进行离散化处理,得到离散化后特征信息;根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;将筛选出的特征信息表示成相应的数值,得到数值集合;根据数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息。
其中,特征筛选方式可以根据实际需求设定,比如,可以通过计算IV(information value,信息量)值,信息增益等方法进行特征筛选。
例如,本发明实施例可以对目标参考特征信息集合中(a1、a2、……aj) 进行离散化处理,并对离散化处理后的特征进行筛选,最后可以将筛选的特征表示相应的数值,便可以得到一个K维数值向量[S1,S2,…Sk],K维向量中一个或者多个S值表示一个特征。
在一实施例中,可以获取成员物品之间的交叉特征差值,将该交叉特征差值作为候选物品组合的组合特征;比如,可以将候选物品组合中前置物品的交叉特征减去后置物品的交叉特征,得到候选物品组合的组合特征。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以将候选枪械两两组合,构建候选枪械组合,(a、b)、(a、c)、(a、d)、(d、a)、(b、a)、(c、a)、(b、c)、 (c、d)等之后。对于枪械组合(a、b)可以将枪械a的枪械特征以及K维数值向量进行特征交叉处理,得到枪械a的特征集合a’:
a’=[x1,x2,……xN*K]
基于枪械b的枪械特征以及K维数值向量进行特征交叉处理,得到枪械b的特征集合b’:
b’=[y1,y2,……yN*K]
那么,枪械组合(a、b)的组合特征可以为a’-b’;枪械组合(b,a)组合特征可以为b’-a’。
同理,对于其余枪械组合采用上述同样的方式便可以构建所有枪械组合的组合特征。
206、根据组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值。
其中,机器学习模型可以根据实际需求选择,比如,可以包括SVM,LR,神经网络等模型。
本发明实施中,机器学习模型可以为采用标记的游戏物品组合样本训练后的机器学习模型。当输入候选物品组合的组合特征信息至该机器学习模型后,该模型将会输出该候选物品组合被选取的预测值。
例如,以生存类枪战游戏,且游戏物品为枪械为例,枪械组合(a、b)的组合特征a’-b’输入至训练后的机器学习模型,此时,机器学习模型将输出枪械组合(a、b)被用户选取的预测值,如0.5。
其中,机器学习模型的训练可以参考上述实施例的描述,在此不再赘述。
207、根据候选物品组合的预测值对候选游戏物品进行排序,跳转至步骤 211。
其中,基于候选物品组合的预测值进行排序的方式可以有多种,比如,可以按照预测值对候选物品组合进行排序,然后,基于候选物品组合的排序结果对候选游戏物品进行排序。
又比如,在一实施例中,还可以根据候选物品组合被用户选取的预测值获取候选游戏物品的排序参考值;基于候选游戏物品的排序参考值对候选游戏物品进行排序。
具体地,可以确定前置候选游戏物品相同的候选物品组合,然后,获取前置候选物品相同的候选物品组合的预测值之和,将该和值作为前置游戏物品的排序参考值,从而得到每个候选游戏物品的排序参考值,然后,基于排序参考值进行排序,如按照排序参考值从大到小,或者从小到大的方式进行排序。
其中,基于候选物品组合的预测值进行排序的方式可以有多种,比如,可以按照预测值对候选物品组合进行排序,然后,基于候选物品组合的排序结果对候选游戏物品进行排序。
又比如,在一实施例中,还可以根据候选物品组合被用户选取的预测值获取候选游戏物品的排序参考值;基于候选游戏物品的排序参考值对候选游戏物品进行排序。
具体地,可以确定前置候选游戏物品相同的候选物品组合,然后,获取前置候选物品相同的候选物品组合的预测值之和,将该和值作为前置游戏物品的排序参考值,从而得到每个候选游戏物品的排序参考值,然后,基于排序参考值进行排序,如按照排序参考值从大到小,或者从小到大的方式进行排序。
208、当历史游戏次数大于第二预设阈值、且小于第一预设阈值时,获取候选游戏物品被用户选择的历史选择次数,以及候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数。
当历史游戏次数大于第二预设阈值、且小于第一预设阈值时,表明玩家的历史数据较少,此时可以基于历史选择此时和历史出现次数进行排序。
其中,历史选择次数为在历史游戏中候选游戏物品被用户选择的次数,比如,枪械A在历史游戏中被用户选取的次数。
其中,候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数指的是:游戏物品出现在玩家角色模型身边的次数。
209、根据历史选择次数和历史出现次数获取用户对候选游戏物品的偏好度;根据候选游戏物品的偏好度对当前的候选游戏物品进行排序,跳转至步骤 211。
其中,偏好度可以为历史选择次数与历史出现此时之间的比值。
例如,对于有少量历史数据的用户(对局数小于某个阈值),对于某一类型的武器列表,统计用户在游戏中的拾取次数,出现在身边的次数等,并用拾取次数/出现在身边的次数作为该武器的偏好度的初始值。假设某一类武器列表为[W1,W2,…Wn]共N款武器,出现在玩家身边的次数分别为[B1,B2,…Bn], 玩家拾取的次数为[A1,A2,A3,…An],那么玩家对该类型武器的偏好度的初始值为
Figure BDA0001657615150000231
然后,通过上述武器的偏好度进行排序,比如,将上述偏好度数值按照升序排序转化为[1,N]之间的分数,最大分数为N,最小分数为1,然后,根据分数进行排序。
210、当历史游戏次数小于第二预设阈值时,获取当前候选游戏物品与游戏角色模型之间的距离;基于距离对候选游戏物品进行排序,跳转至步骤211。
其中,历史游戏次数小于第二预设阈值时,表明当前玩家的历史数据非常少,此时,可以基于候选游戏物品与游戏角色模型之间的距离进行排序。比如,可以按照距离从小到大的顺序进行排序。
例如,以生存类枪战游戏,且游戏物品为枪械为例,在游戏场景中,当出现候选枪械a、b、c、d,即出现四把枪时,可以获取候选枪械a与游戏角色模型之间的距离L1,枪械b与游戏角色模型之间的距离L2,枪械c与游戏角色模型之间的距离L3、枪械d与游戏角色模型之间的距离L4;然后,根据L1、L2、 L3、L4从小到大的顺序对枪械a、b、c、d进行排序,如当L3<L4<L1<L2时,排序后枪械顺序为:c、d、a、b。
211、向终端发送排序结果,终端根据排序结果显示候选游戏物品,以便用户基于游戏物品的显示选择相应的游戏物品。
当服务器对当前候选游戏物品排序后,可以向终端发送排序结果,终端可以根据排序结果在当前游戏界面中显示候选游戏物品,比如,以列表的形式显示候选游戏物品。
在显示之后,用户可以针对候选游戏物品列表进行选择操作,终端可以根据该选择操作选择相应的游戏物品。
在一实施例中,当用户选取游戏物品后,可以将用户选取的数据作为机器学习模型新的训练数据,在一实施例中还可以训练数据根据距离当前的时间,将最近样本赋予较高的权重。重新训练模型并用于下一次排序计算。
212、根据自动选择方式从候选游戏物品中自动选取相应的游戏物品。
其中,自动选择方式可以根据实际需求设定,比如,自动选择方式可以包括:自动选取等级更高的游戏物品,或者自动选取优先级更高的游戏物品等等。例如,玩家的游戏角色模型携带枪械a,若当前位置存在枪械b时,假设枪械b 的优先级高于枪械a,此时,可以自动选择枪械b,具体地,可以选择枪械b替换枪械a。
比如,可以获取候选游戏物品的物品类型,物品类型包括单候选游戏物品、或多候选游戏物品;对于单候选游戏物品,从单候选游戏物品中选取等级最高的候选游戏物品;对于多候选游戏物品,基于多候选游戏物品的优先级选择相应的候选游戏物品。
其中,物品类型可以包括单候选游戏物品、多候选游戏物品;该游戏物品的物品类型可以根据实际需求进行划分,比如,可以基于用户对游戏物品的功能进行划分,比如,以生存类枪战游戏为例,对于防御类装备如头盔、防弹衣等,玩家一般都会选择最高等级的防御类装备,即玩家具有唯一选择,因此,可以将防御类装备划分成单候选游戏物品,即对于该类物品玩家只有一个选择。
例如,以生存类枪战游戏为例,用户可以进行如下配置:
单候选装备,例如头盔,防弹衣等,用户可选择配置是否默认自动拾取更高等级装备,并且不显示同等级装备。
多候选装备,例如主武器(步枪,狙击枪,散弹枪,冲锋枪等)用户而可配置装备优先级(例如:1.步枪2.散弹枪3.狙击枪)
其他物品,例如子弹,医疗包等,可配置是否自动拾取,和是否需要限制数量(不限制则默认到背包满为止)
根据用户配置,玩家在游戏中准备依照用户配置自动替换和拾取:
单候选装备,若用户配置自动拾取更新高等级装备,则玩家在有更高等级装备地点自动替换原装备,并不再显示低等级装备
多候选装备:若用户配置自动拾取优先级,则玩家在有装备地点自动拾取最高优先级准备并替换原来装备。
子弹,医疗包根据配置系统选择是否自动拾取和拾取量级。
本发明实施例的游戏物品选取方法可以适用于各种游戏场景中的游戏物品选择,比如,生存类枪战游戏中的装备选择,冒险游戏中的装备选择,竞技对抗游戏中的装备选择等等。
本发明实施例提供的游戏物品展示方法可以用于实时生存枪战类等游戏中,可以根据用户选择为用户提供配置自动拾取装备,并且还可以根据用户历史游戏行为数据,玩家在拾取装备地点的环境,战场局势,沙尘暴圈大小等环境变量构建排序模型,对用户待拾取的装备列表进行排序,从而简化用户拾取装备的复杂度,极大方便了用户的操作。
为了更好地实施以上方法,本发明实施例还提供一种游戏物品展示装置,如图3a所示,该游戏物品展示装置可以包括:组合单元301、参考特征构建单元302、组合特征构建单元303、预测单元304和第一排序单元305,如下:
组合单元301,用于对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;
参考特征构建单元302,用于根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;
组合特征构建单元303,用于根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;
预测单元304,用于根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;
第一排序单元305,用于根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。
在一实施例中,参考图3b,第一排序单元305,可以包括:
参考值获取子单元3051,用于根据所述候选物品组合被用户选取的预测值获取所述候选游戏物品的排序参考值;
排序子单元3052,用于基于所述候选游戏物品的排序参考值对候选游戏物品进行排序。
在一实施例中,参考图3c,组合特征构建单元303,可以包括:
离散化子单元3031,用于对目标参考特征信息进行离散化处理,得到离散化后特征信息;
筛选子单元3032,用于根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;
数值子单元3033,用于将筛选出的特征信息表示成相应的数值,得到数值集合;
组合子单元3034,用于根据所述数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息。
在一实施例中,组合子单元3034,可以用于:
将数值集合与所述候选物品组合中成员物品对应的物品特征信息进行交叉,得到成员物品对应的交叉特征信息;
根据成员物品对应的交叉特征信息构建所述候选物品组合对应的组合特征信息。
在一实施例中,参考图3d,游戏物品展示装置还可以包括:训练单元306;
所述训练单元306,可以用于:
获取历史时间段内候选游戏物品数量大于游戏物品可选择数量时,候选游戏物品的历史选择信息;
对候选游戏物品进行两两组合,以构建物品组合样本;
基于候选游戏物品的历史选择信息对物品组合样本进行标注,得到物品组合样本的标注值;
根据所述物品组合样本对应的历史玩家特征信息、历史游戏环境特征信息以及历史游戏局势特征信息中的至少一种历史特征信息,得到历史特征信息;
根据所述历史参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合样本对应的样本特征信息;
根据物品组合样本对应的标注值、样本特征信息对机器学习模型进行训练。
在一实施例中,组合单元301可以用于当用户标识对应的历史游戏次数大于第一预设阈值时,对当前待选择的候选游戏物品进行两两组合。
在一实施例中,参考图3e,游戏物品展示装置还可以包括:第二排序单元 307;
所述第二排序单元307,可以用于:
当所述用户标识对应的历史游戏次数大于第二预设阈值,且小于第一预设阈值时,获取候选游戏物品被用户选择的历史选择次数,以及候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数;
根据历史选择次数和所述历史出现次数获取用户对所述候选游戏物品的偏好度;
根据所述候选游戏物品的偏好度对当前的候选游戏物品进行排序。
在一实施例中,参考图3f,游戏物品展示装置还可以包括:第三排序单元 308;
第三排序单元308,可以用于:
当用户标识对应的历史游戏次数不大于第二预设阈值时,获取当前所述候选游戏物品与游戏角色模型之间的距离;
基于所述距离对所述候选游戏物品进行排序。
在一实施例中,参考图3g,游戏物品展示装置还可以包括:判断单元309 和选择单元310;
判断单元309,用于当需要选择游戏物品时,判断是否存在配置的自动选择方式;
组合单元301,用于当判断单元判断为否时,对当前待选择的候选游戏物品进行两两组合;
选择单元310,用于当判断单元判断为是时,根据自动选择方式从所述候选游戏物品中自动选取相应的候选游戏物品。
在一实施例中,选择单元310可以用于:
获取所述候选游戏物品的物品类型,所述物品类型包括单候选游戏物品、或多候选游戏物品;
对于单候选游戏物品,从单候选游戏物品中选取等级最高的候选游戏物品;
对于多候选游戏物品,基于所述多候选游戏物品的优先级选择相应的候选游戏物品。
以上各单元的执行的步骤可以参考上述方法实施例的描述。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
该游戏物品展示装置具体可以集成在服务器中,比如可以集成在游戏服务器、或者社交服务器中。
由上可知,本发明实施例游戏物品展示装置通过组合单元301对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;由参考特征构建单元302根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;由组合特征构建单元303根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;由预测单元304根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;由第一排序单元305根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。该方案可以基于机器学习对候选游戏物品进行智能排序,便于用户选择游戏物品,可以简化游戏物品的选择操作,从而节省终端资源,大大提升游戏体验。
为了更好地实施以上方法,本发明实施例还提供了一种服务器,该服务器可以为游戏服务器、社交服务器等设备。
参考图4,本发明实施例提供了一种服务器400,可以包括一个或者一个以上处理核心的处理器401、一个或一个以上计算机可读存储介质的存储器402、射频(RadioFrequency,RF)电路403、电源404、输入单元405等部件。本领域技术人员可以理解,图4中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器401是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器402内的软件程序和/或模块,以及调用存储在存储器402内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体监控。可选的,处理器401可包括一个或多个处理核心;优选的,处理器401可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器401中。
存储器402可用于存储软件程序以及模块,处理器401通过运行存储在存储器402的软件程序以及模块,从而执行各种功能应用以及数据处理。
RF电路403可用于收发信息过程中,信号的接收和发送,特别地,将基站的下行信息接收后,交由一个或者一个以上处理器401处理;另外,将涉及上行的数据发送给基站。
服务器还包括给各个部件供电的电源404(比如电池),优选的,电源可以通过电源管理系统与处理器401逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源404还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该服务器还可包括输入单元405,该输入单元405可用于接收输入的数字或字符信息。
具体在本实施例中,服务器中的处理器401会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器402中,并由处理器401来运行存储在存储器402中的应用程序,从而实现各种功能,如下:
对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;
根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;
根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;
根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;
根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。
在一些实施例中,当根据所述候选物品组合的预测值对候选游戏物品进行排序时,所述处理器401具体执行以下步骤:
根据所述候选物品组合被用户选取的预测值获取所述候选游戏物品的排序参考值;
基于所述候选游戏物品的排序参考值对候选游戏物品进行排序。
在一些实施例中,在根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息时,所述处理器401可以具体执行以下步骤:
对目标参考特征信息进行离散化处理,得到离散化后特征信息;
根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;
将筛选出的特征信息表示成相应的数值,得到数值集合;
根据所述数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息。
在一些实施例中,当根据所述数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息时,所述处理器401具体执行以下步骤:
将数值集合与所述候选物品组合中成员物品对应的物品特征信息进行交叉,得到成员物品对应的交叉特征信息;
根据成员物品对应的交叉特征信息构建所述候选物品组合对应的组合特征信息。
在一些实施例中,所述处理器401还可以具体执行以下步骤:
获取历史时间段内候选游戏物品数量大于游戏物品可选择数量时,候选游戏物品的历史选择信息;
对候选游戏物品进行两两组合,以构建物品组合样本;
基于候选游戏物品的历史选择信息对物品组合样本进行标注,得到物品组合样本的标注值;
根据所述物品组合样本对应的历史玩家特征信息、历史游戏环境特征信息以及历史游戏局势特征信息中的至少一种历史特征信息,得到历史特征信息;
根据所述历史参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合样本对应的样本特征信息;
根据物品组合样本对应的标注值、样本特征信息对机器学习模型进行训练。
在一些实施例中,当对当前待选择的候选游戏物品进行两两组合时,所述处理器401具体执行以下步骤:
当用户标识对应的历史游戏次数大于第一预设阈值时,对当前待选择的候选游戏物品进行两两组合。
在一些实施例中,所述处理器401还可以具体执行以下步骤:
当所述用户标识对应的历史游戏次数大于第二预设阈值,且小于第一预设阈值时,获取候选游戏物品被用户选择的历史选择次数,以及候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数;
根据历史选择次数和所述历史出现次数获取用户对所述候选游戏物品的偏好度;
根据所述候选游戏物品的偏好度对当前的候选游戏物品进行排序。
在一些实施例中,所述处理器401还可以具体执行以下步骤:
当用户标识对应的历史游戏次数不大于第二预设阈值时,获取当前所述候选游戏物品与游戏角色模型之间的距离;
基于所述距离对所述候选游戏物品进行排序。
在一些实施例中,所述处理器401还可以具体执行以下步骤:
当需要选择游戏物品时,判断是否存在配置的自动选择方式;
若否,则执行对当前待选择的候选游戏物品进行两两组合的步骤;
若是,则根据自动选择方式从所述候选游戏物品中自动选取相应的候选游戏物品。
在一些实施例中,当根据自动选择方式从所述候选游戏物品中自动选取相应的候选游戏物品时,所述处理器401具体执行以下步骤:
获取所述候选游戏物品的物品类型,所述物品类型包括单候选游戏物品、或多候选游戏物品;
对于单候选游戏物品,从单候选游戏物品中选取等级最高的候选游戏物品;
对于多候选游戏物品,基于所述多候选游戏物品的优先级选择相应的候选游戏物品。
本发明实施例服务器可以采用对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;根据当前的玩家特征信息、游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息;根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品。该方案可以基于机器学习对候选游戏物品进行智能排序,便于用户选择游戏物品,可以简化游戏物品的选择操作,从而节省终端资源。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,RandomAccess Memory)、磁盘或光盘等。
以上对本发明实施例所提供的一种游戏物品展示方法、装置及存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (9)

1.一种游戏物品展示方法,其特征在于,包括:
当用户标识对应的历史游戏次数大于第一预设阈值时,对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;
根据游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;
根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息,所述组合特征信息包括所述候选物品组合中成员物品对应的交叉特征信息;
根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;
根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品,包括:确定前置候选物品相同的候选物品组合;获取所述前置候选物品相同的候选物品组合的预测值之和,作为所述前置候选物品的排序参考值,从而得到每个所述候选游戏物品的排序参考值;基于所述排序参考值对所述候选游戏物品进行排序;其中,所述前置候选物品为所述候选物品组合中前置的物品;
所述方法还包括:
当所述用户标识对应的历史游戏次数大于第二预设阈值,且小于第一预设阈值时,获取候选游戏物品被用户选择的历史选择次数,以及候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数;
根据历史选择次数和所述历史出现次数获取用户对所述候选游戏物品的偏好度,所述偏好度为所述历史选择次数与所述历史出现次数之间的比值;
根据所述候选游戏物品的偏好度对当前的候选游戏物品进行排序;
所述方法还包括:
当用户标识对应的历史游戏次数不大于第二预设阈值时,获取当前所述候选游戏物品与游戏角色模型之间的距离;
基于所述距离对所述候选游戏物品进行排序。
2.如权利要求1所述的游戏物品展示方法,其特征在于,根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息,包括:
对目标参考特征信息进行离散化处理,得到离散化后特征信息;
根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;
将筛选出的特征信息表示成相应的数值,得到数值集合;
根据所述数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息。
3.如权利要求2所述的游戏物品展示方法,其特征在于,根据所述数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息,包括:
将数值集合与所述候选物品组合中成员物品对应的物品特征信息进行交叉,得到成员物品对应的交叉特征信息;
根据成员物品对应的交叉特征信息构建所述候选物品组合对应的组合特征信息。
4.如权利要求1所述的游戏物品展示方法,其特征在于,还包括:
获取历史时间段内候选游戏物品数量大于游戏物品可选择数量时,候选游戏物品的历史选择信息;
对候选游戏物品进行两两组合,以构建物品组合样本;
基于候选游戏物品的历史选择信息对物品组合样本进行标注,得到物品组合样本的标注值;
根据所述物品组合样本对应的历史玩家特征信息、历史游戏环境特征信息以及历史游戏局势特征信息中的至少一种历史特征信息,得到历史特征信息;
根据所述历史特征信息以及所述候选游戏物品对应的物品特征信息,构建所述物品组合样本对应的样本特征信息;
根据物品组合样本对应的标注值、样本特征信息对机器学习模型进行训练。
5.如权利要求1所述的游戏物品展示方法,其特征在于,在对当前待选择的候选游戏物品进行两两组合之前,所述方法还包括:
当需要选择游戏物品时,判断是否存在配置的自动选择方式;
若否,则执行对当前待选择的候选游戏物品进行两两组合的步骤;
若是,则根据自动选择方式从所述候选游戏物品中自动选取相应的候选游戏物品。
6.如权利要求5所述的游戏物品展示方法,其特征在于,根据自动选择方式从所述候选游戏物品中自动选取相应的候选游戏物品,包括:
获取所述候选游戏物品的物品类型,所述物品类型包括单候选游戏物品、或多候选游戏物品;
对于单候选游戏物品,从单候选游戏物品中选取等级最高的候选游戏物品;
对于多候选游戏物品,基于所述多候选游戏物品的优先级选择相应的候选游戏物品。
7.一种游戏物品展示装置,其特征在于,包括:
组合单元,用于当用户标识对应的历史游戏次数大于第一预设阈值时,对当前待选择的候选游戏物品进行两两组合,得到若干候选物品组合;
参考特征构建单元,用于根据游戏环境特征信息以及游戏局势特征信息中的至少一种特征信息构建目标参考特征信息;
组合特征构建单元,用于根据所述目标参考特征信息以及所述候选游戏物品对应的物品特征信息,构建所述候选物品组合对应的组合特征信息,所述组合特征信息包括所述候选物品组合中成员物品对应的交叉特征信息;
预测单元,用于根据所述组合特征信息以及训练后的机器学习模型获取候选物品组合被用户选取的预测值;
第一排序单元,用于根据所述候选物品组合的预测值对候选游戏物品进行排序,并在终端展示排序后的候选游戏物品,包括:确定前置候选物品相同的候选物品组合;获取所述前置候选物品相同的候选物品组合的预测值之和,作为所述前置候选物品的排序参考值,从而得到每个所述候选游戏物品的排序参考值;基于所述排序参考值对所述候选游戏物品进行排序;其中,所述前置候选物品为所述候选物品组合中前置的物品;
第二排序单元,用于:
当所述用户标识对应的历史游戏次数大于第二预设阈值,且小于第一预设阈值时,获取候选游戏物品被用户选择的历史选择次数,以及候选游戏物品与游戏角色模型之间的距离出现在预设范围内的历史出现次数;
根据历史选择次数和所述历史出现次数获取用户对所述候选游戏物品的偏好度,所述偏好度为所述历史选择次数与所述历史出现次数之间的比值;
根据所述候选游戏物品的偏好度对当前的候选游戏物品进行排序;
第三排序单元,用于当用户标识对应的历史游戏次数不大于第二预设阈值时,获取当前所述候选游戏物品与游戏角色模型之间的距离;基于所述距离对所述候选游戏物品进行排序。
8.如权利要求7所述的游戏物品展示装置,其特征在于,组合特征构建单元,包括:
离散化子单元,用于对目标参考特征信息进行离散化处理,得到离散化后特征信息;
筛选子单元,用于根据预设筛选规则从离散化后特征信息筛选出相应的特征信息;
数值子单元,用于将筛选出的特征信息表示成相应的数值,得到数值集合;
组合子单元,用于根据所述数值集合与候选游戏物品对应的物品特征信息构建候选物品组合对应的组合特征信息。
9.一种存储介质,其特征在于,所述存储介质存储有指令,所述指令被处理器执行时实现如权利要求1-6任一项所述方法的步骤。
CN201810447542.1A 2018-05-11 2018-05-11 一种游戏物品展示方法、装置及存储介质 Active CN110465086B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810447542.1A CN110465086B (zh) 2018-05-11 2018-05-11 一种游戏物品展示方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810447542.1A CN110465086B (zh) 2018-05-11 2018-05-11 一种游戏物品展示方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN110465086A CN110465086A (zh) 2019-11-19
CN110465086B true CN110465086B (zh) 2022-10-21

Family

ID=68504316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810447542.1A Active CN110465086B (zh) 2018-05-11 2018-05-11 一种游戏物品展示方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN110465086B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111589116B (zh) * 2020-05-07 2023-06-23 腾讯科技(成都)有限公司 显示功能选项的方法、装置、终端及存储介质
CN111729310B (zh) * 2020-06-24 2024-02-09 网易(杭州)网络有限公司 游戏道具的整理方法、装置和电子设备
CN113499582B (zh) * 2021-07-12 2024-01-26 网易(杭州)网络有限公司 一种游戏中虚拟物品的查看方法和装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063210A (zh) * 2013-06-04 2014-09-24 腾讯科技(深圳)有限公司 一种道具的装备方法和装置
US9886669B2 (en) * 2014-02-26 2018-02-06 Microsoft Technology Licensing, Llc Interactive visualization of machine-learning performance
CN106611366A (zh) * 2015-10-26 2017-05-03 阿里巴巴集团控股有限公司 自动选品的方法及装置
CN105447126A (zh) * 2015-11-17 2016-03-30 苏州蜗牛数字科技股份有限公司 一种游戏道具个性化推荐方法
CN105894350A (zh) * 2016-03-29 2016-08-24 南京大学 一种基于多示例多标记学习的手机游戏道具推荐方法
CN107369058A (zh) * 2016-05-13 2017-11-21 华为技术有限公司 一种关联推荐方法及服务器
CN106779933A (zh) * 2016-12-06 2017-05-31 腾讯科技(深圳)有限公司 一种虚拟道具推荐方法及客户端
CN107133279A (zh) * 2017-04-13 2017-09-05 西安电子科技大学 一种基于云计算的智能推荐方法及系统

Also Published As

Publication number Publication date
CN110465086A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
US11684847B2 (en) Method and apparatus for presenting gamer performance at a social network
CN108888956B (zh) 虚拟背包展示界面的显示方法、设备及存储介质
CN111773696B (zh) 一种虚拟对象的展示方法、相关装置及存储介质
CN110465086B (zh) 一种游戏物品展示方法、装置及存储介质
CN107291317B (zh) 一种虚拟场景中目标的选择方法和装置
CN107837532A (zh) 用户匹配方法、装置、服务器以及存储介质
CN105188862A (zh) 飞镖游戏装置、飞镖游戏方法以及计算机可读介质
CN108211361B (zh) 游戏中虚拟资源获取概率的确定方法和装置、存储介质、电子装置
Niño-Mora et al. Sensor scheduling for hunting elusive hiding targets via Whittle's restless bandit index policy
WO2022227936A1 (zh) 虚拟场景的显示方法、虚拟场景的处理方法、装置及设备
CN112791390B (zh) 一种道具的拾取方法、终端、电子设备及可读存储介质
US20230072503A1 (en) Display method and apparatus for virtual vehicle, device, and storage medium
US20230280873A1 (en) Interface display method and apparatus, device, and storage medium
CN110075532A (zh) 虚拟对象的控制方法和装置、存储介质、电子装置
CN111701240B (zh) 虚拟物品的提示方法、装置、存储介质和电子装置
US20220212114A1 (en) Persona driven dynamic content framework
CN108815850B (zh) 一种控制模拟对象寻路的方法及客户端
CN111151001A (zh) 虚拟物品的处理方法、装置、存储介质和电子装置
CN111652673B (zh) 智能推荐方法、装置、服务器和存储介质
CN111803961A (zh) 一种虚拟物品的推荐方法以及相关装置
CN109529358A (zh) 特征整合方法和装置及电子装置
CN116672723B (zh) 一种数据处理方法和相关装置
US12023582B2 (en) Virtual backpack interface
CN113413609B (zh) 虚拟物品整理方法、装置、终端及存储介质
CN113849101B (zh) 信息处理方法、装置、电子设备和计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant