CN115487508B - 游戏战队推荐模型的训练方法和相关装置 - Google Patents

游戏战队推荐模型的训练方法和相关装置 Download PDF

Info

Publication number
CN115487508B
CN115487508B CN202211392916.7A CN202211392916A CN115487508B CN 115487508 B CN115487508 B CN 115487508B CN 202211392916 A CN202211392916 A CN 202211392916A CN 115487508 B CN115487508 B CN 115487508B
Authority
CN
China
Prior art keywords
sample
game
feature
game team
team
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211392916.7A
Other languages
English (en)
Other versions
CN115487508A (zh
Inventor
徐树良
林文清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202211392916.7A priority Critical patent/CN115487508B/zh
Publication of CN115487508A publication Critical patent/CN115487508A/zh
Application granted granted Critical
Publication of CN115487508B publication Critical patent/CN115487508B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • A63F13/795Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories for finding other players; for building a team; for providing a buddy list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/45Controlling the progress of the video game
    • A63F13/46Computing the game score
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开一种游戏战队推荐模型的训练方法和相关装置,获取样本游戏关系图、样本对象和样本游戏战队的特征数据。根据上述三种数据进行对比学习,在对比学习过程中,根据样本游戏关系图对特征数据进行数据增广得到特征数据的第一增广特征和第二增广特征。对同一特征数据的第一增广特征和第二增广特征进行特征处理,得到样本对象的第一特征向量或样本游戏战队的第二特征向量。根据样本对象的第一特征向量和样本游戏战队的第二特征向量进行向量检索得到预测游戏战队推荐结果,进而根据预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对比学习过程,对初始网络模型进行训练得到游戏推荐模型。提高了游戏战队推荐模型的模型性能。

Description

游戏战队推荐模型的训练方法和相关装置
技术领域
本申请涉及互联网技术领域,特别是涉及一种游戏战队推荐模型的训练方法和相关装置。
背景技术
网络游戏作为一种基于网络平台的多人联网互动游戏,成为了时下人们在娱乐闲暇时间的一大消遣。其中,时下大部分网络游戏均支持用户(又称之为玩家)进行组队,即一定数量的玩家可组成一个游戏战队。对于一个游戏战队内的各个玩家来说可一起组队做任务、互送礼物或相互聊天等,从而使得这些玩家不仅能够获得游戏道具或积分,体验游戏乐趣,而且还能够增长竞技能力。
为了便于玩家选择加入自己感兴趣的游戏战队,可以向玩家推荐游戏战队。目前,可以通过基于图神经网络(Graph Neural Network,GNN)的对比学习进行游戏战队推荐,对于目前基于图神经网络的对比学习推荐系统而言,数据增广是图对比学习的重要步骤,目前GNN采用剪切边、增加边、抽取中心网络(ego)子图等方法在全局图上实现数据增广。
然而在真实的业务场景中,图中的节点数目十分庞大,采用这种数据增广方式十分耗时,并不适用于大规模图学习,同时可能会破坏图的结构或连通性,进而影响模型的性能。
发明内容
为了解决上述技术问题,本申请提供了一种游戏战队推荐模型的训练方法和相关装置,避免由于样本游戏关系图中的节点数目十分庞大,导致耗时过多的问题,同时避免破坏样本游戏关系图的结构或连通性,提高了训练得到的游戏战队推荐模型的模型性能。
本申请实施例公开了如下技术方案:
一方面,本申请实施例提供一种游戏战队推荐模型的训练方法,所述方法包括:
获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
获取所述样本对象的特征数据和所述样本游戏战队的特征数据;
根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
一方面,本申请实施例提供一种游戏战队推荐模型的训练方法,所述方法包括:
获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征;
根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
一方面,本申请实施例提供一种游戏战队推荐模型的训练装置,所述装置包括获取单元、增广单元、确定单元、检索单元和训练单元:
所述获取单元,用于获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
所述获取单元,还用于获取所述样本对象的特征数据和所述样本游戏战队的特征数据;
所述增广单元,用于根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
所述确定单元,用于对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
所述检索单元,用于针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
所述训练单元,用于根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
一方面,本申请实施例提供一种游戏战队推荐模型的训练装置,所述装置包括获取单元、确定单元、打分单元和训练单元:
所述获取单元,用于获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征;
所述确定单元,用于根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
所述打分单元,用于针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
所述训练单元,用于根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
一方面,本申请实施例提供一种计算机设备,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行前述任一方面所述的方法。
一方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码当被处理器执行时使所述处理器执行前述任一方面所述的方法。
一方面,本申请实施例提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现前述任一方面所述的方法。
由上述技术方案可以看出,本方案通过图对比学习的方式训练游戏战队推荐模型,以便用于游戏战队的推荐。具体的,在进行训练时可以获取样本游戏关系图,样本游戏关系图用于描述样本对象之间的游戏关系以及用于描述样本对象与样本游戏战队之间的所属关系,并且获取样本对象的特征数据和样本游戏战队的特征数据。接着,根据样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据样本游戏关系图对特征数据进行数据增广,通过初始网络模型的嵌入层得到特征数据的第一增广特征和第二增广特征。在此过程中是对特征数据进行数据增广,样本游戏关系图仅是作为对特征数据进行数据增广的依据,并未对样本游戏关系图进行数据增广,从而避免了在样本游戏关系图上删边、新增边的操作可能破坏样本游戏关系图的连通性。然后,对样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本对象的第一特征向量,以及根据样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本游戏战队的第二特征向量。针对每个样本对象,根据样本对象的第一特征向量和样本游戏战队的第二特征向量,通过初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果,进而根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对比学习过程,对初始网络模型进行训练得到游戏战队推荐模型。由于训练过程中并未对样本游戏关系图进行数据增广,从而避免由于样本游戏关系图中的节点数目十分庞大,导致耗时过多的问题,同时避免破坏样本游戏关系图的结构或连通性,提高了训练得到的游戏战队推荐模型的模型性能。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术成员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种游戏战队推荐模型的训练方法的应用场景架构图;
图2为本申请实施例提供的一种游戏战队加入界面示例图;
图3为本申请实施例提供的一种游戏战队推荐模型的训练方法的流程图;
图4为本申请实施例提供的不同算法的推荐效果对比示例图;
图5为本申请实施例提供的一种GNNCL算法的结构示例图;
图6为本申请实施例提供的一种对比学习的基本思路示例图;
图7为本申请实施例提供的一种对比学习结构示例图;
图8为本申请实施例提供的一种确定邻域节点的示例图;
图9为本申请实施例提供的一种游戏战队推荐方法的流程图;
图10为本申请实施例提供的一种游戏战队推荐方法的结构示例图;
图11为本申请实施例提供的另一种游戏战队推荐模型的训练方法的流程图;
图12为本申请实施例提供的一种游戏战队推荐模型的训练方法的结构示例图;
图13为本申请实施例提供的一种基于DNN结构实现特征融合的结构示例图;
图14a为本申请实施例提供的另一种游戏战队推荐方法的流程图;
图14b为本申请实施例提供的一种游戏战队推荐方法的结构示例图;
图15为本申请实施例提供的一种游戏战队推荐模型的训练装置的结构图;
图16为本申请实施例提供的另一种游戏战队推荐模型的训练装置的结构图;
图17为本申请实施例提供的一种终端的结构图;
图18为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
玩家为了提高游戏表现,帮助自己更快的增长竞技能力,通常会选择加入游戏战队(也可以称为俱乐部)。为了适应玩家的游戏战队加入需求,在网络游戏中可以提供游戏战队推荐功能,在玩家登陆网络游戏后,若玩家进入游戏战队加入界面,则可以向玩家推荐可能感兴趣的游戏战队,以便玩家选择加入。
而为了游戏战队的推荐可以通过游戏战队推荐模型实现,游戏战队推荐模型通常是预先训练得到的。目前,可以通过基于GNN的对比学习进行游戏战队推荐,即基于GNN的对比学习进行游戏战队推荐模型的训练,进而利用训练得到的游戏战队推荐模型实现游戏战队的推荐。对于目前基于GNN的对比学习而言,数据增广是图对比学习的重要步骤,目前GNN采用剪切边、增加边、抽取中心网络(ego)子图等方法在全局图上实现数据增广。
然而在真实的业务场景中,图中的节点数目十分庞大,采用这种数据增广方式十分耗时,并不适用于大规模图学习,同时可能会破坏图的结构或连通性,进而影响模型的性能。
为了解决上述技术问题,本申请实施例提供一种游戏战队推荐模型的训练方法,该方法将样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据作为输入,在训练过程中根据样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据进行对比学习,在对比学习过程中是对特征数据进行数据增广,样本游戏关系图仅是作为对特征数据进行数据增广的依据,并未对样本游戏关系图进行数据增广,从而避免了在样本游戏关系图上删边、新增边的操作可能破坏样本游戏关系图的连通性。同时,避免由于样本游戏关系图中的节点数目十分庞大,导致耗时过多的问题。
需要说明的是,本申请实施例提供的游戏战队推荐模型的训练方法适用于各种网络游戏的游戏战队推荐场景,尤其是游戏战队召回场景、游戏战队推荐的精排场景等。其中,召回可以是指从海量游戏战队中将相关度高的尽可能找出来,即确定待处理对象可能感兴趣的候选游戏战队的过程。精排可以是指对召回过程胜出的游戏战队(即候选游戏战队)进行打分排序的过程。
本申请实施例提供的游戏战队推荐模型的训练方法可以由计算机设备执行,该计算机设备例如可以是服务器,也可以是终端。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。终端包括但不限于智能手机、电脑、智能语音交互设备、智能家电、车载终端、飞行器等。
如图1所示,图1示出了一种游戏战队推荐模型的训练方法的应用场景架构图,该应用场景以服务器执行本申请实施例提供的游戏战队推荐模型的训练方法为例进行介绍。
在该应用场景中可以包括服务器100,在需要对游戏战队推荐模型进行训练,以便进行游戏战队推荐时,服务器100通过图对比学习的游戏战队召回算法训练游戏战队推荐模型。具体的,网络游戏进行后会产生历史游戏数据,在进行训练时服务器100可以获取样本游戏关系图,该样本游戏关系图可以是根据历史游戏数据构建的。其中,样本游戏关系图可以是描述样本对象在网络游戏中的游戏关系的图,具体可以用于描述样本对象之间的游戏关系以及用于描述样本对象与样本游戏战队之间的所属关系。样本对象之间的游戏关系例如可以是好友关系、对局关系等,故样本游戏关系图可以是社交网络图、对局关系图等。
通常情况下,样本游戏关系图包括节点和边,节点用于表示样本对象和样本游戏战队,边用于表示样本对象之间的游戏关系,以及用于表示样本对象与样本游戏战队之间的所属关系。在网络游戏中,样本对象通常为玩家,样本游戏战队通常为俱乐部。
游戏战队推荐实际上是向对象(玩家)推荐其可能感兴趣、有可能加入的游戏战队(例如俱乐部),为此训练得到的游戏战队推荐模型需要学习到不同的对象可能对哪些游戏战队感兴趣。为此在训练时,服务器100还可以获取样本对象的特征数据和样本游戏战队的特征数据,以便得到能够确定不同的对象可能对哪些游戏战队感兴趣的游戏战队推荐模型。特征数据是能够体现被描述对象特点的数据,样本对象的特征数据可以描述样本对象在网络游戏中的行为特点,样本游戏战队的特征数据可以描述样本游戏战队的特点。
接着,服务器100可以根据样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据进行对比学习。对比学习是一种自监督学习方法,可以在没有样本标签的情况下,通过数据增广将数据分别与正样本、负样本在特征空间内进行对比,来学习样本的一般性特征表示。
在对比学习过程中,针对每个特征数据,服务器100可以根据样本游戏关系图对特征数据进行数据增广,通过初始网络模型的嵌入层得到特征数据的第一增广特征和第二增广特征。在此过程中,服务器100是对特征数据进行数据增广,样本游戏关系图仅是作为对特征数据进行数据增广的依据,并未对样本游戏关系图进行数据增广,从而避免了在样本游戏关系图上删边、新增边的操作可能破坏样本游戏关系图的连通性。其中,嵌入层可以包括图神经网络,从而通过图神经网络进行数据增广得到每个特征数据的第一增广特征和第二增广特征。
然后,服务器100对样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本对象的第一特征向量,以及根据样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本游戏战队的第二特征向量,从而得到样本对象和样本游戏战队的一般性特征表示。
针对每个样本对象,服务器100根据样本对象的第一特征向量和样本游戏战队的第二特征向量,通过初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果,进而根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对比学习过程,对初始网络模型进行训练得到游戏战队推荐模型。由于训练过程中并未对样本游戏关系图进行数据增广,从而避免由于样本游戏关系图中的节点数目十分庞大,导致耗时过多的问题,同时避免破坏样本游戏关系图的结构或连通性,提高了训练得到的游戏战队推荐模型的模型性能。
在得到该游戏战队推荐模型后,可以将该游戏战队推荐模型用于游戏战队推荐,从而将推荐的游戏战队展示给玩家。这种游戏战队推荐方法可以应用在各种网络游戏中,以游戏战队是俱乐部为例,俱乐部推荐主要是为玩家推荐合适的俱乐部,尽可能地提高玩家加入俱乐部的概率。当玩家登陆网络游戏后,若玩家进入游戏战队加入界面,则可以向玩家推荐可能感兴趣的俱乐部,以便玩家选择加入。其中,游戏战队加入界面可以参见图2所示,当玩家点击“招募大厅”时可以触发进入游戏战队加入界面,从而展示向玩家推荐的俱乐部。需要说明的是,推荐的俱乐部可以以列表的形式展示在游戏战队加入界面,也可以在游戏战队加入界面的每个页面展示一个俱乐部(例如展示一个俱乐部的成员架构等)。
图2以第二种展示方式为例,在当前页面中展示某个俱乐部,具体展示了该俱乐部的头像(参见图2中201所示),以及其中包括的成员的头像(参见图2中202所示)。若玩家对展示的俱乐部感兴趣,则会点击“申请加入”,若玩家不感兴趣,则会点击“换一个”,浏览下一个俱乐部。通常情况下,在玩家点击“申请加入”后,若玩家条件(如:等级、段位)满足未满员俱乐部的加入条件,且俱乐部的会长审批通过玩家申请(若俱乐部设置了审批选项,则有会长审批环节),玩家才会成功加入该俱乐部。
需要说明的是,图2仅是一种游戏战队加入界面的示例,本申请实施例对其具体展示方式不做限定。
需要说明的是,本申请实施例提供的方法主要涉及人工智能,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。本申请实施例提供的方法主要涉及机器学习/深度学习和自然语言处理技术等。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。在本申请实施例中,可以通过机器学习训练游戏战队推荐模型。
自然语言处理(Nature Language processing,NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
当特征数据中还包括图像特征时,本申请实施例还可以涉及计算机视觉技术,计算机视觉技术(Computer Vision, CV)计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建、自动驾驶、智慧交通等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。在本申请实施例中例如可以通过图像语义理解提取图像特征。
接下来,将以服务器执行游戏战队推荐模型的训练方法为例,结合附图对本申请实施例提供的游戏战队推荐模型的训练方法进行详细介绍。参见图3,图3示出了一种游戏战队推荐模型的训练方法的流程图,所述方法包括:
S301、获取样本游戏关系图。
网络游戏进行后会产生历史游戏数据,在进行训练时服务器可以获取样本游戏关系图,该样本游戏关系图可以是根据历史游戏数据构建的,历史游戏数据可以是一段时间内的游戏数据,例如15天内的游戏数据,本申请实施例对此不做限定。其中,样本游戏关系图用于描述样本对象之间的游戏关系以及用于描述样本对象与样本游戏战队之间的所属关系。样本对象之间的游戏关系例如可以是好友关系、对局关系等,故样本游戏关系图可以是社交网络图、对局关系图等。
通常情况下,样本游戏关系图包括节点和边,节点用于表示样本对象和样本游戏战队,边用于表示样本对象之间的游戏关系,以及用于表示样本对象与样本游戏战队之间的所属关系。在网络游戏中,样本对象通常为玩家,样本游戏战队通常为俱乐部。
在本申请实施例中,主要以样本游戏关系图是对局关系图为例进行介绍,对局关系图的边由玩家-玩家、玩家-俱乐部两种类型的边组成。为了简化问题,本申请实施例没有考虑对局关系图的异质性,把对局关系图当作同质图来进行处理。同质图指的是图中节点的类型和边的类型都仅有一种,异质图指的是图中节点的类型或边的类型多于一种,异质图的这种特性也可以称为异质性。而本申请实施例提供的对局关系图包括两种类型的边,故该对局关系图具有异质性。本申请实施例将对局关系图当做同质图来处理,简化了后续处理过程,提高了处理效率。
在本申请实施例中之所以使用对局关系图,是因为前期的算法探索中,发现使用对局关系图的推荐效果最佳,不同算法的推荐效果对比示例图可以参见图4所示。
在图4中,各个算法的含义如下:(1)battleclub表示基于对局关系图为玩家推最近15天对局过玩家所在的俱乐部;(2)crossfriendclub表示为玩家推跨游戏好友所在的俱乐部;(3)friendclub表示为玩家推游戏好友与平台好友所在的俱乐部;(4)xgboost表示极端梯度提升(xgboost)算法;(5)Rules表示按照策划提供的游戏规则给玩家推俱乐部,即按照如下的优先级给玩家推俱乐部:端游好友所在的俱乐部>平台好友所在的俱乐部>随机选择的俱乐部;(6)Random表示随机对照算法。
由图4的算法效果可知,使用对局关系图的推荐效果最好,这说明玩家的对局关系对俱乐部推荐任务而言是一种非常有价值的信息。在实践中还发现,使用15天内的历史游戏数据确定的对局关系图效果最佳,当较明显地缩短或增加对局天数时,算法的效果都会降低。
S302、获取所述样本对象的特征数据和所述样本游戏战队的特征数据。
游戏战队推荐实际上是向对象(玩家)推荐其可能感兴趣、有可能加入的游戏战队(例如俱乐部),为此训练得到的游戏战队推荐模型需要学习到不同的对象可能对哪些游戏战队感兴趣。为此在训练时,服务器还可以获取样本对象的特征数据和样本游戏战队的特征数据,以便得到能够确定不同的对象可能对哪些游戏战队感兴趣的游戏战队推荐模型。特征数据是能够体现被描述对象特点的数据,样本对象的特征数据可以描述样本对象在网络游戏中的行为特点,样本游戏战队的特征数据可以描述样本游戏战队的特点。
特征数据可以包括不同类型的特征,画像特征是常用的特征数据,基于此在一种可能的情况下,样本对象的特征数据可以是样本对象的对象画像特征,样本游戏战队的特征数据可以是样本游戏战队的游戏战队画像特征。
然而,在另一些可能的情况下,除了样本对象与样本游戏战队的画像特征,实际上样本对象在网络游戏中的角色名称、样本游戏战队的名称、样本游戏战队的宣言等样本特征,以及样本对象与样本游戏战队的图像特征等都是重要的特征,这些特征也包含了丰富的信息,对提升游戏战队推荐的效果具有重要的作用。基于此,样本对象的特征数据还可以是样本对象的多模态特征,多模态特征可以是指不同表现类型的特征,这里的表现类型可以包括画像特征类型、文本类型、图像类型、音频类型、视频类型等。为此,样本对象的多模态特征可以包括样本对象的对象画像特征(即画像特征类型的特征)、样本对象的文本特征(即文本类型的特征)、样本对象的图像特征(即图像类型的特征)中至少两种。其中,样本对象的文本特征例如可以是样本对象的名称,样本对象的图像特征例如可以是样本对象的头像。同理,样本游戏战队的特征数据还可以包括样本游戏战队的多模态特征,样本游戏战队的多模态特征包括样本游戏战队的游戏战队画像特征、样本游戏战队的文本特征、样本游戏战队的图像特征中至少两种。其中,样本游戏战队的文本特征例如可以是样本游戏战队的名称、宣言等,样本游戏战队的图像特征例如可以是样本游戏战队的头像等。其中,样本游戏战队的宣言可以是一种口号,用来对外公布样本游戏战队的主张、态度等,能够体现样本游戏战队的特征,例如“勇者常胜,毅者长行”可以是一种宣言。
需要说明的是,本申请实施例中获取历史游戏数据、特征数据需要获得玩家的许可或者同意,且对于游戏数据的获取、使用和处理均需要遵守相关国家和地区的相关法律法规和标准。
S303、根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征。
在获取到样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据后,可以将样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据作为训练样本数据,从而训练得到游戏战队推荐模型。
需要说明的是,本申请实施例训练游戏战队推荐模型采用的是图对比学习的游戏战队召回算法(Graph Neural Network with Contrastive Learning,GNNCL)。GNNCL主要包含两个学习任务:主学习任务与辅助学习任务。主学习任务主要是预测样本对象最可能会加入哪些样本游戏战队,而辅助学习任务则是对比学习。GNNCL算法的结构示例图如图5所示。在图5中初始网络模型包括嵌入层和召回层,在嵌入层可以得到样本对象的第一特征向量和样本游戏战队的第二特征向量,在召回层可以根据第一特征向量和第二特征向量得到预测游戏战队推荐结果。
具体的,在嵌入层可以进行对比学习。对比学习是一种自监督学习方法,可以在没有样本标签的情况下,通过数据增广将数据分别与正样本、负样本在特征空间内进行对比,来学习样本的一般性特征表示。其核心思想是,使得正样本之间尽可能靠近,而正样本与负样本之间尽可能远离,样本之间的距离一般采用欧式距离。因此,对比学习主要包含三个步骤:(1) 数据增广,产生多视角数据,从而获得正样本;(2) 数据的特征表示,利用DNN或GNN等模型获得数据的特征向量(embedding vectors),实现了对数据的编码;(3) 优化样本对之间的损失函数,调整模型的参数。对比学习的基本思路如图6中(a)标识的图所示,图6所示的基本思路主要包括四个部分:
(1)代理任务作用阶段。对于同一数据x,经过两个代理任务分别生成xi和xj两个样本,例如可以是用数据增广手段来作为代理任务,xi和xj就称为一个正样本对。
(2)特征提取编码器。f(・)就是一个编码器,用什么编码器不做限制,例如可以是ResNet,xi和xj通过f(・)分别得到hi和hj。
(3)多层感知器(Multilayer Perceptron,MLP)层。通过特征提取之后,再进入MLP层(例如g(・)),从而进一步提取更加丰富的特征,通过MLP层输出zi和zj。
(4)损失函数作用阶段。对比学习中的损失函数的作用是使正样本对距离尽可能小,负样本对距离尽可能大,损失越小。其中,正样本对可以是指当前生成的样本对,则其余样本对可以作为负样本对。例如图6中(b)标识的图所示,对于数据x,其正样本表示为x+,其负样本表示为x-
值得说明的是,尽管对比学习要求正样本与负样本之间的距离尽可能大,但是负采样过程并不是必需的。例如可以只利用正样本,算法模型仍然可以较好地学习到数据的特征表示,但是引入负样本可以加快模型的收敛速度,因此,负样本学习对模型的训练具有重要的意义。
由于对比学习是一种无监督学习方法,可以利用无样本标签的数据来训练模型,因此,可以解决标记数据不足的问题。除此之外,引入对比学习作为辅助学习任务,可以有效地应对数据的长尾分布问题,同时对比学习的负采样策略,可以降低训练数据与真实数据分布差异对模型训练造成的负面影响,起到了去偏误(debias)正则化的效果。由此可见,在推荐算法中引入对比学习,对提升模型的泛化能力与推荐结果的准确性有着重要的意义。
基于上述对对比学习的分析,本申请实施例根据样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据进行对比学习。在对比学习过程中需要进行数据增广,而为了避免相关技术中在全局图上实现图数据增广导致图的结构或连通性被破坏的问题,本申请实施例并未对样本游戏关系图进行数据增广,而是提供一种新的数据增广方式,将样本游戏关系图作为数据增广的依据,对特征数据进行数据增广,即针对每个特征数据,根据样本游戏关系图对特征数据进行数据增广,通过初始网络模型的嵌入层得到特征数据的第一增广特征和第二增广特征,从而避免破坏样本游戏关系图的结构或连通性,提高了训练得到的游戏战队推荐模型的模型性能。
其中,数据增广是自动扩充训练数据的一种技术,用于扩大特征数据的规模,从而在一定程度上解决由于特征数据较少导致的模型鲁棒性差、模型性能不佳的问题。
另外,基于图神经网络能够获得高层次语义特征、在图数据挖掘领域得到广泛地应用的特点,由于本申请实施例使用的样本游戏关系图是一种图数据,因此,本申请实施例在进行对比学习时可以引入图神经网络进行图对比学习,即嵌入层包括图神经网络(GraphNeural Network,GNN),参见图5所示。在这种情况下,通过初始网络模型的嵌入层得到特征数据的第一增广特征和第二增广特征的方式可以是根据样本游戏关系图,利用图神经网络对特征数据进行数据增广,得到特征数据的第一增广特征和第二增广特征,第一增广特征和第二增广特征不相同。也就是说,此时使用的图神经网络是非对称的图神经网络,从而使得第一增广特征和第二增广特征不相同,从而避免对比学习过程过早收敛,使得在对比学习中可以更好的学习特征表示。
其中,非对称的图神经网络可以是两个网络结构不同的图神经网络,一个图神经网络用于得到第一增广特征,另一个用于得到第二增广特征。由于这两个图神经网络的网络结构不同,这两个图神经网络可以用不同的函数表示,例如分别表示为f(・)与g(・),进而得到的第一增广特征和第二增广特征不相同。两个网络结构不同的图神经网络例如可以是两个图神经网络的网络层数相同,但是存在共享层和各自特有的网络层。在这种情况下,非对称的图神经网络的结构可以包括共享层、两个图神经网络各自的隐含层以及两个图神经网络各自的输出层。共享层例如可以包括两个图神经网络的输入共享层(即两个图神经网络共享的输入层),还可以包括共享隐含层(即两个图神经网络共享的隐含层)。两个网络结构不同的图神经网络例如也可以是两个图神经网络的网络层数不同或者网络结构完全独立,本申请实施例对非对称的图神经网络的网络结构不做限定。
在本申请实施例提供的GNNCL召回算法中,对比学习结构示例图可以参见图7所示,GNN结合样本游戏关系图与样本对象、样本游戏战队的特征数据,利用GNN学习样本对象的第一特征向量与样本游戏战队的第二特征向量,第一特征向量和第二特征向量都是embedding vectors。为了提升GNN算法的表示学习能力,引入了最小冗余信息原则的对比学习方法,该方法利用非对称的图神经网络(例如图中的f(・)与g(・))来对输入的特征数据进行数据增广,从而避免了在样本游戏关系图上删边、新增边的操作可能破坏图的连通性。
另外,由于在对输入的特征数据进行数据增广时,增广后得到特征数据的第一增广特征和第二增广特征,针对多个特征数据便可以得到多组第一增广特征和第二增广特征,即多组数据,多组数据之间可能相关性高,也可能相关性小。当存在至少两组数据之间的相关性比较大时,那么使用该至少两组数据和使用其中任一组数据进行模型训练,模型训练的效果基本没有差距,这种特性可以称为数据的信息冗余性。基于此,可以要求不同视角数据之间,一个正样本对(pair)在同一维度的相关性尽可能大,不同维度之间的相关性尽可能小,以保证数据的信息冗余性达到最小。
通过上述介绍可知样本游戏关系图在上述对比学习中可以作为对特征数据进行数据增广的依据。图神经网络作为一种有效的图数据表示学习方法,可以将图数据中节点当前的特征与周围邻域节点的特征进行聚合,从而生成节点的新特征。基于图神经网络的特性,本申请实施例虽然并非对图数据(例如样本游戏关系图)本身进行数据增广,但是可以依据样本游戏关系图来获取邻域节点,进而利用邻域节点的特征数据对当前的特征数据进行数据增广。具体的,本申请实施例使用的样本游戏关系图包括节点和边,节点用于表示样本对象和样本游戏战队,边用于表示样本对象之间的游戏关系,以及用于表示样本对象与样本游戏战队之间的所属关系,此时根据样本游戏关系图,利用图神经网络对特征数据进行数据增广的方式可以是确定特征数据所属的样本对象在样本游戏关系图中对应的第一节点,根据第一节点所连接的边,在样本游戏关系图中查找第一节点的邻域节点,进而利用图神经网络,将第一节点所表示的样本对象的特征数据与邻域节点所表示的样本对象的特征数据进行聚合,得到对应的第一增广特征和第二增广特征。其中,第一节点的邻域节点可以是在样本游戏关系图中与第一节点相邻的节点。
参见图8所示,若需要进行数据增广的特征数据为特征数据A,特征数据A所属的样本对象为样本对象1,样本对象1在样本游戏关系图中对应的第一节点如图8中黑色节点所示,在图8中与第一节点相邻的节点可以参见白色节点所示,故可以将图8中的白色节点确定为第一节点的邻域节点,进而在对特征数据A进行数据增广时,可以将白色节点所表示的样本对象的特征数据与特征数据A进行聚合,得到对应的第一增广特征和第二增广特征。
通过这种方式进行数据增广,可以得到高层次语义特征,从而提高模型的训练效果。
S304、对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量。
在得到每个特征数据的第一增广特征和第二增广特征后,可以对同一个特征数据的第一增广特征和第二增广特征进行特征处理,从而得到对应的特征向量。例如,针对一个样本对象的第一增广特征和第二增广特征进行特征处理,得到该样本对象的第一特征向量。针对一个样本游戏战队的第一增广特征和第二增广特征进行特征处理,得到该样本游戏战队的第二特征向量,参见图5所示。
需要说明的是,在本申请实施例中的特征处理可以包括特征选择,即从第一增广特征和第二增广特征中选择一个用于得到最终的特征向量。本申请实施例对选择方式不做限定,例如可以设置为选择第一增广特征用于得到最终的特征向量,也可以设置为选择第二增广特征用于得到最终的特征向量,还可以将第一增广特征和第二增广特征做平均后用于得到最终的特征向量。参见图7所示,图7以选择第一增广特征用于得到最终的特征向量为例。
通过特征处理可以根据第一增广特征和第二增广特征得到较好的最终的特征向量,从而有利于后续学习到更加准确的第一特征向量或第二特征向量,提高模型性能。
在得到选择后的增广特征后,可以直接将其作为最终的特征向量,也可以对选择后的增广特征通过卷积网络做进一步的特征提取,从而得到最终的特征向量,本申请实施例对此不做限定。
参见图7所示,图7以对选择后的增广特征(例如第一增广特征)通过卷积网络做进一步的特征提取为例,该卷积网络可以表示为h(・),进而得到最终的特征向量。该特征向量可以是第一特征向量或第二特征向量,当第一增广特征和第二增广特征是对样本对象的特征数据进行数据增广得到的,则最终的特征向量是第一特征向量;当第一增广特征和第二增广特征是对样本游戏战队的特征数据进行数据增广得到的,则最终的特征向量是第二特征向量。
S305、针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果。
针对每个样本对象,服务器可以根据样本对象的第一特征向量和样本游戏战队的第二特征向量,通过初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果,参见图5所示。其中,召回层可以是用于从海量游戏战队中将样本对象可能感兴趣的样本游戏战队选择出来的模块,预测游戏战队推荐结果可以包括向样本对象推荐的样本游戏战队。向量检索可以是比较第一特征向量与第二特征向量的相似度,若相似度较高,则可以确定第一特征向量与第二特征向量相似,那么,第一特征向量对应的样本对象可能对第二特征向量对应的样本游戏战队感兴趣,故可以将该样本游戏战队作为候选样游戏战队向样本对象推荐。本申请实施例可以基于计算得到的相似度,选择相似度排序Topk的样本游戏战队作为预测游戏战队推荐结果。其中,k可以根据实际需求进行设置,在一种可能的实现方式中,k可以设置为30。
在一种可能的实现方式中,本申请实施例使用的向量检索可以是faiss(FacebookAI Similarity Search)向量检索,faiss是一种常见的向量检索框架,是一种针对大规模相似度检索问题开发的一个工具,有利于实现快速地向量检索。通过faiss向量检索进行向量检索的过程可以包括建立索引和搜索,建立索引即建立第一特征向量和第二特征向量的索引文件,然后再对索引文件进行搜索,通过索引文件可以提高搜索效率。在实际进行搜索时,可以采用倒排索引(Inverted File System,IVF)的方式,即将所有第二特征向量聚类为多个簇,针对每个第一特征向量,计算第一特征向量与每个簇的中心的距离,进而选择距离第一特征向量最近的topN个簇,再进一步计算第一特征向量与topN个簇中每个第二特征向量的距离,从而得到预测游戏战队推荐结果。
通过faiss向量检索可以使得需要计算距离的向量个数减少了几个数量级,最终向量检索就变成一个很快的操作,大大提高向量检索的效率。
S306、根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
可以理解的是,本申请实施例提供的方法主要包含两个学习任务:主学习任务与辅助学习任务,因此,在训练过程中,也要基于这两个学习任务的学习结果进行训练。也就是说,在进行训练时,训练损失(loss)可以包含两个部分:主任务loss与对比学习loss。在这种情况下,S305的实现方式可以是根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距构建主任务损失函数(表示为Lmain),根据特征数据的第一增广特征和第二增广特征构建对比学习损失函数(表示为Lcl),接着根据主任务损失函数和对比学习损失函数构建目标损失函数(表示为Lloss),从而根据目标损失函数对初始网络模型的模型参数进行优化,得到游戏战队推荐模型。
其中,根据主任务损失函数和对比学习损失函数构建目标损失函数的方式可以是对主任务损失函数和对比学习损失函数进行加权求和,主任务损失函数的权重和对比学习损失函数的权重可以根据实际需求进行设置,通常情况下,可以将主任务损失函数的权重设置为1,对比学习损失函数的权重设置为γ,γ的取值可以预先设置。在这种情况下,目标损失函数的计算公式如下所示:
Lloss=γLcl+Lmain
其中,Lloss可以表示目标损失函数,Lcl可以表示对比学习损失函数,Lmain可以表示主任务损失函数。
在主学习任务中,考虑到不同曝光数据(例如历史曝光游戏战队)的价值不同,可以将每个样本对象的历史曝光游戏战队分成不同的曝光类型,不同的曝光类型的价值不同,对训练游戏战队推荐模型的贡献度不同,故其对应的损失权值也不同。本申请实施例对曝光类型的划分方式不做限定,在一种可能的实现方式中,根据样本对象的实际操作,曝光类型可以包括未点击申请、点击申请却未成功加入、成功加入。每一类样本游戏战队赋予不同的损失权值,以上述三种曝光类型为例,其中成功加入的损失权值最大(例如可以设置损失权值为1.2),点击申请却未成功加入的损失权值次之(例如可以设置损失权值为1.05),未点击申请的损失权值最小(例如可以设置损失权值为1)。在这种情况下,根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距构建主任务损失函数的方式可以是确定样本对象的历史曝光游戏战队所属的曝光类型,根据曝光类型确定历史曝光游戏战队的损失权值,根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对应的历史曝光游戏战队的损失权值,构建主任务损失函数。
在对比学习任务中,则加入了负采样过程,通过负采样过程得到负样本加入模型训练。其中,负样本可以是从全体样本游戏战队中随机进行抽样得到的。在一种可能的实现方式中,可以利用简单随机抽取的方式确定负样本,具体的,可以从所有样本游戏战队中任意抽取一定数量的样本游戏战队作为负样本,从而使得每一个样本游戏战队都有均等机会被抽取作为负样本。另一种可能的实现方式中,可以利用分层随机抽取的方式确定负样本,具体的,可以首先按照一定的分类特征对所有样本游戏战队进行分类得到多类样本游戏战队,多类样本游戏战队之间存在明显的特征差异,比如按照样本游戏战队的级别进行分类得到初级、中级和高级这三类样本游戏战队,进而从每一类样本游戏战队中抽取一定数量的样本游戏战队作为这类样本游戏战队的代表游戏战队,最后将多类样本游戏战队的代表游戏战队作为负样本。基于此,负样本能够全面覆盖每一类样本游戏战队,具有更好的代表性。
通过负样本辅助模型训练,可以使得游戏战队推荐模型在样本对象不感兴趣的样本游戏战队的方向进行学习(即学习到样本对象不感兴趣的样本游戏战队的特点),避免游戏战队推荐模型在学习样本对象对哪些样本游戏战队感兴趣方向出现过拟合的问题,以达到debias正则化的效果,进而使得训练好的游戏战队推荐模型更加能够准确区分哪些是待处理对象可能感兴趣的游戏战队,哪些是待处理对象不感兴趣的游戏战队,提高模型推荐性能。
可以理解的是,玩家的兴趣可能不是一成不变的,在一些情况下,玩家的兴趣可能会因为自身以及外界因素的干扰而随着时间推移发生改变,通常情况下可以将玩家的兴趣随时间动态变化称为玩家的兴趣漂移。为了保证游戏战队推荐模型能够应对玩家的兴趣漂移问题,本申请实施例提供的训练方法使用了在线学习机制,每天会在前一天训练好的游戏战队推荐模型基础上,利用新的训练样本数据进行增量式训练。以第i天为例,服务器可以获取第i天得到的训练样本数据,以及获取第i-1天训练得到的游戏战队推荐模型,i为大于1的正整数,进而利用第i天得到的训练样本数据对i-1天训练得到的游戏战队推荐模型进行训练,得到更新后的游戏战队推荐模型。其中,训练样本数据中包括的数据,以及训练样本数据的构建方式可以参见S301-S303的相关介绍,此处不再详细赘述。
通过这种增量式训练,可以不断地更新游戏战队推荐模型,从而使得游戏战队推荐模型可以应对玩家的兴趣漂移问题。
由上述技术方案可以看出,本方案通过图对比学习的方式训练游戏战队推荐模型,以便用于游戏战队的推荐。具体的,在进行训练时可以获取样本游戏关系图,样本游戏关系图用于描述样本对象之间的游戏关系以及用于描述样本对象与样本游戏战队之间的所属关系,并且获取样本对象的特征数据和样本游戏战队的特征数据。接着,根据样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据样本游戏关系图对特征数据进行数据增广,通过初始网络模型的嵌入层得到特征数据的第一增广特征和第二增广特征。在此过程中是对特征数据进行数据增广,样本游戏关系图仅是作为对特征数据进行数据增广的依据,并未对样本游戏关系图进行数据增广,从而避免了在样本游戏关系图上删边、新增边的操作可能破坏样本游戏关系图的连通性。然后,对样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本对象的第一特征向量,以及根据样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本游戏战队的第二特征向量。针对每个样本对象,根据样本对象的第一特征向量和样本游戏战队的第二特征向量,通过初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果,进而根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对比学习过程,对初始网络模型进行训练得到游戏战队推荐模型。由于训练过程中并未对样本游戏关系图进行数据增广,从而避免由于样本游戏关系图中的节点数目十分庞大,导致耗时过多的问题,同时避免破坏样本游戏关系图的结构或连通性,提高了训练得到的游戏战队推荐模型的模型性能。
在得到游戏战队推荐模型后,可以利用游戏战队推荐模型为对象推荐可能感兴趣的游戏战队。参见图9所示,图9示出了一种游戏战队推荐方法的流程图,所述方法包括:
S901、获取待处理游戏关系图,待处理游戏关系图用于描述待处理对象之间的游戏关系,以及用于描述待处理对象与待推荐游戏战队之间的所属关系。
S902、获取待处理对象的特征数据和待推荐游戏战队的特征数据。
在本申请实施例中,S901-S902的具体实现方式与S301-S302的介绍类似,此处不再详细赘述。其中,待处理对象可以是玩家(用户)。
S903、根据待处理游戏关系图、待处理对象的特征数据和待推荐游戏战队的特征数据,通过游戏战队推荐模型输出待处理对象对应的候选游戏战队。
S903中游戏战队推荐模型输出候选游戏战队的具体实现方式与S303-S305的介绍类似,此处不再详细赘述。
S904、针对待处理对象对应的候选游戏战队,对待处理对象对应的候选游戏战队进行排序得到待处理对象的游戏战队推荐结果。
在得到待处理对象对应的候选游戏战队后,可以对待处理对象对应的候选游戏战队进行排序得到游戏战队推荐结果,进而向待处理对象返回游戏战队推荐结果。该游戏战队推荐方法的结构示例图可以参见图10所示。
需要说明的是,在本申请实施例中,利用游戏战队推荐模型得到候选游戏战队,进而得到游戏战队推荐结果的过程可以是在线上进行,即当待处理对象登录网络游戏,进入游戏战队加入界面后触发执行图9对应实施例所提供的方法。在另一种可能的实现方式中,为了提高推荐效率,利用游戏战队推荐模型得到候选游戏战队,进而得到游戏战队推荐结果的过程可以一部分线下进行,一部分线上进行,或者全部线下进行。
其中,一部分线下进行,一部分线上进行的方式可以是S901-S903线下进行,从而得到所有待处理对象的候选游戏战队,当某个待处理对象登录网络游戏,进入游戏战队加入界面后,获取该待处理对象的候选游戏战队,触发执行S904,从而向该待处理对象返回对应的游戏战队推荐结果。全部线下进行的方式可以是S901-S904线下进行,得到所有待处理对象的游戏战队推荐结果,当某个待处理对象登录网络游戏,进入游戏战队加入界面后,查找该待处理对象的游戏战队推荐结果,从而向该待处理对象返回对应的游戏战队推荐结果。
在本申请实施例中,由于游戏战队推荐模型是基于图3对应的实施例训练得到的,避免了在样本游戏关系图上删边、新增边的操作可能破坏样本游戏关系图的连通性,提升了模型性能,因此,一定程度上提升了游戏战队推荐效果。
需要说明的是,图3和图9对应的实施例提供的方法可以应用于游戏战队召回场景。在召回游戏战队例如候选游戏战队后,可以对候选游戏战队进行排序,从而向待处理对象返回对应的游戏战队推荐结果,此过程可以称为精排过程。针对精排过程的精排任务,相关技术可以基于深度神经网络(Deep Neural Networks,DNN)的对比学习推荐方法实现,该方法主要利用对象的对象画像特征与游戏战队的游戏战队画像特征,这些特征信息往往是单一的模态。然而,在实际的推荐任务中,对象与游戏战队往往存在多模态信息,如:玩家的昵称、玩家在网络游戏内的头像等,只利用单一的模态特征并不能全面地描述对象与游戏战队的特征。
为了解决上述技术问题,本申请实施例可以基于多模态特征完成精排任务。完成精排任务所使用的游戏战队推荐模型可以是基于多模态特征训练得到的。该游戏战队推荐模型的训练方法可以参见图11所示,所述方法包括:
S1101、获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征。
多模态特征可以是指不同表现类型的特征,这里的表现类型可以包括画像特征、文本类型、图像类型、音频类型、视频类型等。为此,样本对象的多模态特征可以包括样本对象的对象画像特征、样本对象的文本特征、样本对象的图像特征中至少两种。其中,样本对象的文本特征例如可以是样本对象的名称,样本对象的图像特征例如可以是样本对象的头像。同理,样本游戏战队的多模态特征可以包括样本游戏战队的游戏战队画像特征、样本游戏战队的文本特征、样本游戏战队的图像特征中至少两种。其中,样本游戏战队的文本特征例如可以是样本游戏战队的名称、宣言等,样本游戏战队的图像特征例如可以是样本游戏战队的头像等。
需要说明的是,样本对象和样本游戏战队可以是根据一段时间内(例如15天内)的历史游戏数据得到的,该游戏数据可以是对局数据。若该游戏数据是对局数据,则可以将与样本对象具有对局关系的对象所属的游戏战队作为样本游戏战队。
为了避免由于对象的数量过大导致游戏战队推荐模型的运行时间过长,提高后续游戏战队推荐模型的推荐效率,在一种可能的实现方式中,样本对象的多模态特征可以包括样本对象的对象画像特征和样本对象的文本特征,样本游戏战队的多模态特征可以包括样本游戏战队的游戏战队画像特征和样本游戏战队的文本特征。
本申请实施例提供的方法的结构示意图可以参见图12所示,在图12中,样本对象的多模态特征可以包括样本对象的对象画像特征和样本对象的文本特征,样本游戏战队的多模态特征可以包括样本游戏战队的游戏战队画像特征和样本游戏战队的文本特征。
S1102、根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征。
在本申请实施例中,本申请实施例提供的游戏战队推荐模型的训练方法可以是使用AutoInt模型与对比学习多模态特征融合(AutoInt with Contrastive Learning,AutoIntCL)方法,此时初始网络模型可以是AutoInt模型。在这种情况下,初始网络模型可以包括多层感知器(Multilayer Perceptrons,MLPs)和多头注意力机制(Multi-head-attention)模块,参见图12所示。此时,通过初始网络模型对多模态特征进行特征融合得到融合特征的方式可以是通过多层感知器进行非线性映射得到映射特征,采用多头注意力机制模块对映射特征进行特征融合得到融合特征。其中,多头注意力机制的头数可以根据需求设置,例如可以设置为8。多头注意力机制模块可以是多头自注意力机制(Multi-head-self-attention)模块。
在一种可能的实现方式中,在多层感知器中可以使用对比学习多模态特征融合,即通过多层感知器进行非线性映射得到映射特征的方式可以是通过多层感知器将多模态特征进行数据增广得到多模态特征的第三增广特征和第四增广特征,第三增广特征和第四增广特征不相同,从而实现非对称的数据增广。接着,对样本对象的第三增广特征和第四增广特征进行特征处理,得到样本对象的映射特征,以及对样本游戏战队的第三增广特征和第四增广特征进行特征处理,得到样本游戏战队的映射特征。
其中,非对称的数据增广可以通过非对称的DNN结构(例如图中的f(・)与g(・)))实现,基于DNN结构实现特征融合的结构可以参见图13所示。
需要说明的是,在本申请实施例中的特征处理可以包括特征选择,即从第三增广特征和第四增广特征中选择一个用于得到最终的映射特征。本申请实施例对选择方式不做限定,从第三增广特征和第四增广特征中选择一个与从第一增广特征和第二增广特征中选择一个的方式类似,此处不再赘述。参见图13所示,图13以选择第三增广特征用于得到最终的映射特征为例。
在得到选择后的增广特征后,可以直接将其作为最终的特征向量,也可以对选择后的增广特征通过卷积网络做进一步的特征提取,从而得到最终的映射特征,本申请实施例对此不做限定。
参见图13所示,图13以对选择后的增广特征(例如第三增广特征)通过卷积网络做进一步的特征提取为例,该卷积网络可以表示为h(・),进而得到最终的映射特征。
S1103、针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分。
在一种可能的实现方式中,初始网络模型中还可以包括预测模块(可以表示为projector),预测模块可以根据样本对象的融合特征和样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分(score),参见图12所示。
S1104、根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
在得到样本对象的预测游戏战队得分后,可以根据样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及对比学习过程,对初始网络模型进行训练得到游戏战队推荐模型。
本申请实施例提供的游戏战队推荐模型的训练方法,主要包括主学习任务与辅助学习任务。相应的,损失函数也可以是由对比学习损失与主任务损失组成。为此,S1104的实现方式可以是根据样本对象的预测游戏战队得分和游戏战队得分标签之间的差距构建主任务损失函数,根据多模态特征的第三增广特征和第四增广特征构建对比学习损失函数,接着根据主任务损失函数和对比学习损失函数构建目标损失函数,从而根据目标损失函数对初始网络模型的模型参数进行优化,得到游戏战队推荐模型。其中,根据主任务损失函数和对比学习损失函数构建目标损失函数的具体方式可以参见图3对应的实施例的介绍,此处不再赘述。
在辅助学习任务(即对比学习)中,同一样本(例如多模态特征)不同视角下的数据(例如第三增广特征和第四增广特征)作为正样本,而负样本来自于随机采样,对比学习要求拉近正样本之间的距离(距离一般采用欧式距离),让正样本与负样本相互远离。在计算对比学习损失函数时可以将正样本的损失和负样本的损失赋予不同的损失权值,例如将正样本的损失权值设置为1,将负样本的损失权值设置为α,此时对比学习损失函数可以表示为:Lcl=αLneg+Lpos。其中,Lneg可以为负样本的损失,Lpos可以为负样本的损失,α可以根据需求设置,例如可以设置为0.5。
而主学习任务主要是预测样本对象加入样本游戏战队的得分,即预测游戏战队得分,预测游戏战队得分与真实标签(即游戏战队得分标签)越接近越好。
由于多模态特征包括了不同表现类型的特征,例如画像特征类型、文本类型、图像类型等等,相对于相关技术来说,结合了更加丰富的信息进行游戏战队推荐推荐模型的训练,从而提升了模型性能。
为了保证游戏战队推荐模型能够应对玩家的兴趣漂移问题,本申请实施例提供的训练方法使用了在线学习机制,每天会在前一天训练好的游戏战队推荐模型基础上,利用新的训练样本数据进行增量式训练。该增量是训练方式可以参见前述介绍,此处不再赘述。
通过这种增量式训练,可以不断地更新游戏战队推荐模型,从而使得游戏战队推荐模型可以应对玩家的兴趣漂移问题。
在得到游戏战队推荐模型后,可以利用游戏战队推荐模型为对象推荐可能感兴趣的游戏战队。参见图14a所示,图14a示出了一种游戏战队推荐方法的流程图,所述方法包括:
S1401、获取待处理对象的多模态特征,以及获取待处理对象对应的候选游戏战队的多模态特征。
S1402、根据待处理对象的多模态特征和待处理对象对应的候选游戏战队的多模态特征,通过游戏战队推荐模型输出候选游戏战队得分。
S1403、根据候选游戏战队得分,对待处理对象对应的候选游戏战队进行排序,得到待处理对象的游戏战队推荐结果。
需要说明的是,该游戏战队推荐方法可以应用到精排场景。其中,候选游戏战队可以是图9对应的实施例提供的方法确定的,通过本申请实施例方法实现对候选游戏战队的排序得到游戏战队推荐结果,以便向待处理对象返回该游戏战队推荐结果,从而完成游戏战队的推荐。在另一种可能的实现方式中,候选游戏战队也可以是一段时间内与待处理对象具有游戏关系(例如对局关系、好友关系等)的对象所属的游戏战队,本申请实施例对候选游戏战队的确定方式不做限定。
其中,S1401-S1403可以参见图14b所示,图14b示出了另一种游戏战队推荐方法的结构示例图。在图14b中,待处理对象的多模态特征可以包括待处理对象的对象画像特征和待处理对象的文本特征,候选游戏战队的多模态特征可以包括候选游戏战队的游戏战队画像特征和候选游戏战队的文本特征。游戏战队推荐的结构与图12类似,并且游戏战队推荐结果对多模态特征的具体过程也可以参见图12对应的介绍,此处不再详细赘述。
需要说明的是,在本申请实施例中,利用游戏战队推荐模型得到候选游戏战队,进而得到游戏战队推荐结果的过程可以是在线上进行,也可以一部分线下进行,一部分线上进行,或者全部线下进行,本申请实施例对此不做限定。
本申请实施例基于多模态特征对候选游戏战队进行打分,从而获得待处理对象的候选游戏战队得分,然后再根据候选游戏战队得分对候选游戏战队进行排序后输出,从而完成游戏战队的推荐。由于多模态特征包括了不同表现类型的特征,例如画像特征类型、文本类型、图像类型等等,相对于相关技术来说,结合了更加丰富的信息进行游戏战队推荐,从而提升了游戏战队推荐效果。
为了验证算法的有效性,将本申请实施例提供的基于GNNCL算法的游戏战队推荐方法与基于AutoIntCL算法的游戏战队推荐方法部署在网络游戏的游戏战队(例如俱乐部)推荐线上服务中,并且将相关技术提供的基于其他算法的游戏战队推荐方法部署在网络游戏的游戏战队(例如俱乐部)推荐线上服务中,不同算法的线上效果可以参见表1和表2所示:
表1
表2
表1与表2展示了各个算法线上效果,综合线上效果来看,AutoIntCL> GNNCL>faiss> battleclubv2。在点击通过率上,AutoIntCL提升幅度最大,相对于battleclubv2提升了26.59%,GNNCL相对于battleclubv2提升了9.7697%,faiss相对于battleclubv2提升了6.4472%。在曝光成功率上,仍然是AutoIntCL提升幅度最大,相对于battleclubv2提升了13.3074%,GNNCL相对于battleclubv2提升了5.4821 %,faiss相对于battleclubv2提升了3.4748%。线上效果证明了AutoIntCL算法与GNNCL算法的有效性。其中,点击通过率可以是指对象(玩家)中点击了游戏战队推荐结果的人数*100%/曝光的玩家人数;曝光成功率可以是指对象(玩家)中成功加入了推荐的游戏战队的人数*100%/曝光的玩家人数。
为了进一步验证AutoIntCL算法与GNNCL算法的性能与有效性,还可以引入了更多的相关技术中的其他算法,将这些算法部署在线上服务,算法的线上效果如下的表3所示:
表3
表3展示了各个已上线算法的曝光成功率均值,由算法的结果可以看出,AutoIntCL算法效果最佳,相对于randomv2提升了21.74%,结合battleclubv2算法可以看出,使用AutoIntCL算法(AutoIntCL使用battleclubv2的结果作为候选集)对battleclubv2的结果进行精排,的确提升了算法的效果。同时结合AutoIntCL算法与battleclub-v2-autoint-v1算法可以看出,两者都是使用了AutoInt模型来融合特征,AutoIntCL算法比battleclub-v2-autoint-v1算法多了对比学习与多模态特征学习过程,AutoIntCL算法相对于battleclub-v2-autoint-v1算法提升了7.2001%,由此可见,引入对比学习与多模态特征学习过程,的确能提升算法的效果。GNNCL算法也有较好的效果,相对于randomv2提升了12.50%,相对于battleclubv2则提升了4.3275%。综合上述结果可以看出,AutoIntCL算法与GNNCL算法是有效的,能够提升游戏中游戏战队推荐效果。
需要说明的是,本申请在上述各方面提供的实现方式的基础上,还可以进行进一步组合以提供更多实现方式。
基于图3对应实施例提供的游戏战队推荐模型的训练方法,本申请实施例还提供一种游戏战队推荐模型的训练装置1500。参见图15,所述游戏战队推荐模型的训练装置1500包括获取单元1501、增广单元1502、确定单元1503、检索单元1504和训练单元1505:
所述获取单元1501,用于获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
所述获取单元1501,还用于获取所述样本对象的特征数据和所述样本游戏战队的特征数据;
所述增广单元1502,用于根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
所述确定单元1503,用于对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
所述检索单元1504,用于针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
所述训练单元1505,用于根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
在一种可能的实现方式中,所述初始网络模型的嵌入层包括图神经网络,所述增广单元1502,具体用于:
根据所述样本游戏关系图,利用所述图神经网络对所述特征数据进行数据增广,得到所述特征数据的第一增广特征和第二增广特征,所述第一增广特征和所述第二增广特征不相同。
在一种可能的实现方式中,所述样本游戏关系图包括节点和边,节点用于表示样本对象和样本游戏战队,边用于表示样本对象之间的游戏关系,以及用于表示样本对象与样本游戏战队之间的所属关系,所述增广单元1502,具体用于:
确定所述特征数据所属的样本对象在所述样本游戏关系图中对应的第一节点;
根据所述第一节点所连接的边,在所述样本游戏关系图中查找所述第一节点的邻域节点;
利用所述图神经网络,将所述第一节点所表示的样本对象的特征数据与所述邻域节点所表示的样本对象的特征数据进行聚合,得到对应的第一增广特征和第二增广特征。
在一种可能的实现方式中,所述训练单元1505,具体用于:
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距构建主任务损失函数;
根据所述特征数据的第一增广特征和第二增广特征构建对比学习损失函数;
根据所述主任务损失函数和所述对比学习损失函数构建目标损失函数;
根据所述目标损失函数对所述初始网络模型的模型参数进行优化,得到所述游戏战队推荐模型。
在一种可能的实现方式中,所述训练单元1505,具体用于:
确定所述样本对象的历史曝光游戏战队所属的曝光类型;
根据所述曝光类型确定历史曝光游戏战队的损失权值;
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对应的历史曝光游戏战队的损失权值,构建所述主任务损失函数。
在一种可能的实现方式中,所述样本对象的特征数据包括所述样本对象的对象画像特征或所述样本对象的多模态特征,所述样本对象的多模态特征包括所述样本对象的对象画像特征、所述样本对象的文本特征、所述样本对象的图像特征中至少两种;
所述样本游戏战队的特征数据包括所述样本游戏战队的游戏战队画像特征或所述样本游戏战队的多模态特征,所述样本游戏战队的多模态特征包括所述样本游戏战队的游戏战队画像特征、所述样本游戏战队的文本特征、所述样本游戏战队的图像特征中至少两种。
在一种可能的实现方式中,所述样本游戏关系图为对局关系图或社交网络图。
在一种可能的实现方式中,所述训练单元1505,还用于:
获取第i天得到的训练样本数据,以及获取第i-1天训练得到的游戏战队推荐模型,i为大于1的正整数;
利用所述第i天得到的训练样本数据对所述i-1天训练得到的游戏战队推荐模型进行训练,得到更新后的游戏战队推荐模型
在一种可能的实现方式中,所述装置还包括推荐单元:
所述推荐单元,用于获取待处理游戏关系图,所述待处理游戏关系图用于描述待处理对象之间的游戏关系,以及用于描述待处理对象与待推荐游戏战队之间的所属关系;
获取所述待处理对象的特征数据和所述待推荐游戏战队的特征数据;
根据所述待处理游戏关系图、所述待处理对象的特征数据和所述待推荐游戏战队的特征数据,通过所述游戏战队推荐模型输出所述待处理对象对应的候选游戏战队;
对所述待处理对象对应的候选游戏战队进行排序得到所述待处理对象的游戏战队推荐结果。
由上述技术方案可以看出,本方案通过图对比学习的方式训练游戏战队推荐模型,以便用于游戏战队的推荐。具体的,在进行训练时可以获取样本游戏关系图,样本游戏关系图用于描述样本对象之间的游戏关系以及用于描述样本对象与样本游戏战队之间的所属关系,并且获取样本对象的特征数据和样本游戏战队的特征数据。接着,根据样本游戏关系图、样本对象的特征数据和样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据样本游戏关系图对特征数据进行数据增广,通过初始网络模型的嵌入层得到特征数据的第一增广特征和第二增广特征。在此过程中是对特征数据进行数据增广,样本游戏关系图仅是作为对特征数据进行数据增广的依据,并未对样本游戏关系图进行数据增广,从而避免了在样本游戏关系图上删边、新增边的操作可能破坏样本游戏关系图的连通性。然后,对样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本对象的第一特征向量,以及根据样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到样本游戏战队的第二特征向量。针对每个样本对象,根据样本对象的第一特征向量和样本游戏战队的第二特征向量,通过初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果,进而根据样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对比学习过程,对初始网络模型进行训练得到游戏战队推荐模型。由于训练过程中并未对样本游戏关系图进行数据增广,从而避免由于样本游戏关系图中的节点数目十分庞大,导致耗时过多的问题,同时避免破坏样本游戏关系图的结构或连通性,提高了训练得到的游戏战队推荐模型的模型性能。
基于图11对应实施例提供的游戏战队推荐模型的训练方法,本申请实施例还提供一种游戏战队推荐模型的训练装置1600。参见图16,所述游戏战队推荐模型的训练装置1600包括获取单元1601、确定单元1602、打分单元1603和训练单元1604:
所述获取单元1601,用于获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征;
所述确定单元1602,用于根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
所述打分单元1603,用于针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
所述训练单元1604,用于根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
在一种可能的实现方式中,所述初始网络模型包括多层感知器和多头注意力机制模块,所述确定单元1602,具体用于:
通过所述多层感知器进行非线性映射得到映射特征;
采用所述多头注意力机制模块对所述映射特征进行特征融合得到所述融合特征。
在一种可能的实现方式中,所述确定单元1602,具体用于:
通过所述多层感知器将所述多模态特征进行数据增广得到所述多模态特征的第三增广特征和第四增广特征,所述第三增广特征和所述第四增广特征不相同;
对所述样本对象的第三增广特征和第四增广特征进行特征处理,得到所述样本对象的映射特征,以及对所述样本游戏战队的第三增广特征和第四增广特征进行特征处理,得到所述样本游戏战队的映射特征。
在一种可能的实现方式中,所述训练单元1604,具体用于:
根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距构建主任务损失函数;
根据所述多模态特征的第三增广特征和第四增广特征构建对比学习损失函数;
根据所述主任务损失函数和所述对比学习损失函数构建目标损失函数;
根据所述目标损失函数对所述初始网络模型的模型参数进行优化,得到所述游戏战队推荐模型。
在一种可能的实现方式中,所述装置还包括推荐单元:
所述推荐单元,用于获取待处理对象的多模态特征,以及获取所述待处理对象对应的候选游戏战队的多模态特征;
根据所述待处理对象的多模态特征和所述待处理对象对应的候选游戏战队的多模态特征,通过所述游戏战队推荐模型输出候选游戏战队得分;
根据所述候选游戏战队得分,对所述待处理对象对应的候选游戏战队进行排序,得到所述待处理对象的游戏战队推荐结果。
由于多模态特征包括了不同表现类型的特征,例如画像特征类型、文本类型、图像类型等等,相对于相关技术来说,结合了更加丰富的信息进行游戏战队推荐推荐模型的训练,从而提升了模型性能。
本申请实施例还提供了一种计算机设备,该计算机设备可以执行游戏战队推荐模型的训练方法。该计算机设备例如可以是终端,以终端为智能手机为例:
图17示出的是与本申请实施例提供的智能手机的部分结构的框图。参考图17,智能手机包括:射频(英文全称:Radio Frequency,英文缩写:RF)电路1710、存储器1720、输入单元1730、显示单元1740、传感器1750、音频电路1760、无线保真(英文缩写:WiFi)模块1770、处理器1780、以及电源1790等部件。输入单元1730可包括触控面板1731以及其他输入设备1732,显示单元1740可包括显示面板1741,音频电路1760可以包括扬声器1761和传声器1762。可以理解的是,图17中示出的智能手机结构并不构成对智能手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储器1720可用于存储软件程序以及模块,处理器1780通过运行存储在存储器1720的软件程序以及模块,从而执行智能手机的各种功能应用以及数据处理。存储器1720可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据智能手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器1720可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
处理器1780是智能手机的控制中心,利用各种接口和线路连接整个智能手机的各个部分,通过运行或执行存储在存储器1720内的软件程序和/或模块,以及调用存储在存储器1720内的数据,执行智能手机的各种功能和处理数据。可选的,处理器1780可包括一个或多个处理单元;优选的,处理器1780可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1780中。
在本实施例中,智能手机中的处理器1780可以执行以下步骤:
获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
获取所述样本对象的特征数据和所述样本游戏战队的特征数据;
根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
或,
获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征;
根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
本申请实施例提供的计算机设备还可以是服务器,请参见图18所示,图18为本申请实施例提供的服务器1800的结构图,服务器1800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器,例如中央处理器(Central Processing Units,简称CPU)1822,以及存储器1832,一个或一个以上存储应用程序1842或数据1844的存储介质1830(例如一个或一个以上海量存储设备)。其中,存储器1832和存储介质1830可以是短暂存储或持久存储。存储在存储介质1830的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1822可以设置为与存储介质1830通信,在服务器1800上执行存储介质1830中的一系列指令操作。
服务器1800还可以包括一个或一个以上电源1826,一个或一个以上有线或无线网络接口1850,一个或一个以上输入输出接口1858,和/或,一个或一个以上操作系统1841,例如Windows ServerTM,Mac OS XTM,UnixTM, LinuxTM,FreeBSDTM等等。
在本实施例中,服务器1800中的中央处理器1822可以执行以下步骤:
获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
获取所述样本对象的特征数据和所述样本游戏战队的特征数据;
根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
或,
获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征;
根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
根据本申请的一个方面,提供了一种计算机可读存储介质,所述计算机可读存储介质用于存储程序代码,所述程序代码用于执行前述各个实施例所述的游戏战队推荐模型的训练方法。
根据本申请的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得该计算机设备执行上述实施例各种可选实现方式中提供的方法。
上述各个附图对应的流程或结构的描述各有侧重,某个流程或结构中没有详述的部分,可以参见其他流程或结构的相关描述。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储计算机程序的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术成员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (18)

1.一种游戏战队推荐模型的训练方法,其特征在于,适用于游戏的游戏战队推荐场景,所述方法包括:
获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
获取所述样本对象的特征数据和所述样本游戏战队的特征数据,所述样本对象的特征数据为描述样本对象在网络游戏中的行为特点,所述样本游戏战队的特征数据为描述样本游戏战队的特点;
根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
2.根据权利要求1所述的方法,其特征在于,所述初始网络模型的嵌入层包括图神经网络,所述根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征,包括:
根据所述样本游戏关系图,利用所述图神经网络对所述特征数据进行数据增广,得到所述特征数据的第一增广特征和第二增广特征,所述第一增广特征和所述第二增广特征不相同。
3.根据权利要求2所述的方法,其特征在于,所述样本游戏关系图包括节点和边,节点用于表示样本对象和样本游戏战队,边用于表示样本对象之间的游戏关系,以及用于表示样本对象与样本游戏战队之间的所属关系,所述根据所述样本游戏关系图,利用所述图神经网络对所述特征数据进行数据增广,得到所述特征数据的第一增广特征和第二增广特征,包括:
确定所述特征数据所属的样本对象在所述样本游戏关系图中对应的第一节点;
根据所述第一节点所连接的边,在所述样本游戏关系图中查找所述第一节点的邻域节点;
利用所述图神经网络,将所述第一节点所表示的样本对象的特征数据与所述邻域节点所表示的样本对象的特征数据进行聚合,得到对应的第一增广特征和第二增广特征。
4.根据权利要求1所述的方法,其特征在于,所述根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型,包括:
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距构建主任务损失函数;
根据所述特征数据的第一增广特征和第二增广特征构建对比学习损失函数;
根据所述主任务损失函数和所述对比学习损失函数构建目标损失函数;
根据所述目标损失函数对所述初始网络模型的模型参数进行优化,得到所述游戏战队推荐模型。
5.根据权利要求4所述的方法,其特征在于,所述根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距构建主任务损失函数,包括:
确定所述样本对象的历史曝光游戏战队所属的曝光类型;
根据所述曝光类型确定历史曝光游戏战队的损失权值;
根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及对应的历史曝光游戏战队的损失权值,构建所述主任务损失函数。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述样本对象的特征数据包括所述样本对象的对象画像特征或所述样本对象的多模态特征,所述样本对象的多模态特征包括所述样本对象的对象画像特征、所述样本对象的文本特征、所述样本对象的图像特征中至少两种;
所述样本游戏战队的特征数据包括所述样本游戏战队的游戏战队画像特征或所述样本游戏战队的多模态特征,所述样本游戏战队的多模态特征包括所述样本游戏战队的游戏战队画像特征、所述样本游戏战队的文本特征、所述样本游戏战队的图像特征中至少两种。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述样本游戏关系图为对局关系图或社交网络图。
8.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
获取第i天得到的训练样本数据,以及获取第i-1天训练得到的游戏战队推荐模型,i为大于1的正整数;
利用所述第i天得到的训练样本数据对所述i-1天训练得到的游戏战队推荐模型进行训练,得到更新后的游戏战队推荐模型。
9.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
获取待处理游戏关系图,所述待处理游戏关系图用于描述待处理对象之间的游戏关系,以及用于描述待处理对象与待推荐游戏战队之间的所属关系;
获取所述待处理对象的特征数据和所述待推荐游戏战队的特征数据;
根据所述待处理游戏关系图、所述待处理对象的特征数据和所述待推荐游戏战队的特征数据,通过所述游戏战队推荐模型输出所述待处理对象对应的候选游戏战队;
对所述待处理对象对应的候选游戏战队进行排序得到所述待处理对象的游戏战队推荐结果。
10.一种游戏战队推荐模型的训练方法,其特征在于,适用于游戏的游戏战队推荐场景,所述方法包括:
获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征,所述特征体现被描述对象特点;
根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
11.根据权利要求10所述的方法,其特征在于,所述初始网络模型包括多层感知器和多头注意力机制模块,所述通过初始网络模型对所述多模态特征进行特征融合得到融合特征,包括:
通过所述多层感知器进行非线性映射得到映射特征;
采用所述多头注意力机制模块对所述映射特征进行特征融合得到所述融合特征。
12.根据权利要求11所述的方法,其特征在于,所述通过所述多层感知器进行非线性映射得到映射特征,包括:
通过所述多层感知器将所述多模态特征进行数据增广得到所述多模态特征的第三增广特征和第四增广特征,所述第三增广特征和所述第四增广特征不相同;
对所述样本对象的第三增广特征和第四增广特征进行特征处理,得到所述样本对象的映射特征,以及对所述样本游戏战队的第三增广特征和第四增广特征进行特征处理,得到所述样本游戏战队的映射特征。
13.根据权利要求12所述的方法,其特征在于,所述根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型,包括:
根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距构建主任务损失函数;
根据所述多模态特征的第三增广特征和第四增广特征构建对比学习损失函数;
根据所述主任务损失函数和所述对比学习损失函数构建目标损失函数;
根据所述目标损失函数对所述初始网络模型的模型参数进行优化,得到所述游戏战队推荐模型。
14.根据权利要求10-13任一项所述的方法,其特征在于,所述方法还包括:
获取待处理对象的多模态特征,以及获取所述待处理对象对应的候选游戏战队的多模态特征;
根据所述待处理对象的多模态特征和所述待处理对象对应的候选游戏战队的多模态特征,通过所述游戏战队推荐模型输出候选游戏战队得分;
根据所述候选游戏战队得分,对所述待处理对象对应的候选游戏战队进行排序,得到所述待处理对象的游戏战队推荐结果。
15.一种游戏战队推荐模型的训练装置,其特征在于,适用于游戏的游戏战队推荐场景,所述装置包括获取单元、增广单元、确定单元、检索单元和训练单元:
所述获取单元,用于获取样本游戏关系图,所述样本游戏关系图用于描述样本对象之间的游戏关系,以及用于描述样本对象与样本游戏战队之间的所属关系;
所述获取单元,还用于获取所述样本对象的特征数据和所述样本游戏战队的特征数据,所述样本对象的特征数据为描述样本对象在网络游戏中的行为特点,所述样本游戏战队的特征数据为描述样本游戏战队的特点;
所述增广单元,用于根据所述样本游戏关系图、所述样本对象的特征数据和所述样本游戏战队的特征数据进行对比学习,在对比学习过程中针对每个特征数据,根据所述样本游戏关系图对所述特征数据进行数据增广,通过初始网络模型的嵌入层得到所述特征数据的第一增广特征和第二增广特征;
所述确定单元,用于对所述样本对象的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本对象的第一特征向量,以及根据所述样本游戏战队的特征数据的第一增广特征和第二增广特征进行特征处理,得到所述样本游戏战队的第二特征向量;
所述检索单元,用于针对每个样本对象,根据所述样本对象的第一特征向量和所述样本游戏战队的第二特征向量,通过所述初始网络模型的召回层进行向量检索得到预测游戏战队推荐结果;
所述训练单元,用于根据所述样本对象的预测游戏战队推荐结果和历史曝光游戏战队之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
16.一种游戏战队推荐模型的训练装置,其特征在于,适用于游戏的游戏战队推荐场景,所述装置包括获取单元、确定单元、打分单元和训练单元:
所述获取单元,用于获取样本对象的多模态特征和样本游戏战队的多模态特征,所述多模态特征为不同表现类型的特征,所述特征体现被描述对象特点;
所述确定单元,用于根据所述样本对象的多模态特征和所述样本游戏战队的多模态特征进行对比学习,在对比学习过程中针对每个多模态特征,通过初始网络模型对所述多模态特征进行特征融合得到融合特征;
所述打分单元,用于针对每个样本对象,根据所述样本对象的融合特征和所述样本游戏战队的融合特征对样本游戏战队进行打分,得到预测游戏战队得分;
所述训练单元,用于根据所述样本对象的预测游戏战队得分和游戏战队得分标签之间的差距,以及所述对比学习过程,对所述初始网络模型进行训练得到游戏战队推荐模型。
17.一种计算机设备,其特征在于,所述计算机设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-14任一项所述的方法。
18.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储程序代码,所述程序代码当被处理器执行时使所述处理器执行权利要求1-14任一项所述的方法。
CN202211392916.7A 2022-11-08 2022-11-08 游戏战队推荐模型的训练方法和相关装置 Active CN115487508B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211392916.7A CN115487508B (zh) 2022-11-08 2022-11-08 游戏战队推荐模型的训练方法和相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211392916.7A CN115487508B (zh) 2022-11-08 2022-11-08 游戏战队推荐模型的训练方法和相关装置

Publications (2)

Publication Number Publication Date
CN115487508A CN115487508A (zh) 2022-12-20
CN115487508B true CN115487508B (zh) 2023-04-07

Family

ID=85116284

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211392916.7A Active CN115487508B (zh) 2022-11-08 2022-11-08 游戏战队推荐模型的训练方法和相关装置

Country Status (1)

Country Link
CN (1) CN115487508B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118051782B (zh) * 2024-04-16 2024-07-05 腾讯科技(深圳)有限公司 一种模型训练的方法、业务处理的方法以及相关装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977411A (zh) * 2017-11-21 2018-05-01 腾讯科技(成都)有限公司 群组推荐方法、装置、存储介质以及服务器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107998661B (zh) * 2017-12-26 2021-03-26 苏州大学 一种在线对战游戏的辅助决策方法、装置及存储介质
CN113240071B (zh) * 2021-05-13 2023-07-28 平安科技(深圳)有限公司 图神经网络处理方法、装置、计算机设备及存储介质
CN114372566A (zh) * 2022-03-21 2022-04-19 支付宝(杭州)信息技术有限公司 图数据的增广、图神经网络训练方法、装置以及设备
CN114821736A (zh) * 2022-05-13 2022-07-29 中国人民解放军国防科技大学 基于对比学习的多模态人脸识别方法、装置、设备及介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977411A (zh) * 2017-11-21 2018-05-01 腾讯科技(成都)有限公司 群组推荐方法、装置、存储介质以及服务器

Also Published As

Publication number Publication date
CN115487508A (zh) 2022-12-20

Similar Documents

Publication Publication Date Title
Tewel et al. Zerocap: Zero-shot image-to-text generation for visual-semantic arithmetic
CN111930992B (zh) 神经网络训练方法、装置及电子设备
CN108269110B (zh) 基于社区问答的物品推荐方法、系统及用户设备
CN110368690B (zh) 游戏决策模型训练方法、游戏策略生成方法及装置
CN110414432A (zh) 对象识别模型的训练方法、对象识别方法及相应的装置
US11238097B2 (en) Method and apparatus for recalling news based on artificial intelligence, device and storage medium
CN111046275B (zh) 基于人工智能的用户标签确定方法及装置、存储介质
CN110234018B (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN116756574B (zh) 多模态预训练模型的训练方法、使用方法、装置和设备
CN111339343A (zh) 图像检索方法、装置、存储介质及设备
CN111666919A (zh) 一种对象识别方法、装置、计算机设备和存储介质
CN112527993B (zh) 一种跨媒体层次化深度视频问答推理框架
CN116975350A (zh) 图文检索方法、装置、设备及存储介质
CN115487508B (zh) 游戏战队推荐模型的训练方法和相关装置
CN118035945B (zh) 一种标签识别模型的处理方法和相关装置
CN114282059A (zh) 视频检索的方法、装置、设备及存储介质
CN112052795B (zh) 一种基于多尺度时空特征聚合的视频行为识别方法
CN114297354B (zh) 一种弹幕生成方法及装置、存储介质、电子装置
CN113010772B (zh) 一种数据处理方法、相关设备及计算机可读存储介质
CN115269961A (zh) 内容搜索方法以及相关设备
CN116850601A (zh) 一种游戏对象处理方法、装置、计算机设备及存储介质
CN114637855A (zh) 基于知识图谱的搜索方法、装置、计算机设备及存储介质
CN113762324A (zh) 虚拟对象检测方法、装置、设备及计算机可读存储介质
Kim et al. Semi-supervised image captioning by adversarially propagating labeled data
CN117711001B (zh) 图像处理方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40079086

Country of ref document: HK