CN116186541A - 一种推荐模型的训练方法及装置 - Google Patents

一种推荐模型的训练方法及装置 Download PDF

Info

Publication number
CN116186541A
CN116186541A CN202310201058.1A CN202310201058A CN116186541A CN 116186541 A CN116186541 A CN 116186541A CN 202310201058 A CN202310201058 A CN 202310201058A CN 116186541 A CN116186541 A CN 116186541A
Authority
CN
China
Prior art keywords
node
user
graph
neural network
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310201058.1A
Other languages
English (en)
Inventor
董辉
暴宇健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Longzhi Digital Technology Service Co Ltd
Original Assignee
Beijing Longzhi Digital Technology Service Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Longzhi Digital Technology Service Co Ltd filed Critical Beijing Longzhi Digital Technology Service Co Ltd
Priority to CN202310201058.1A priority Critical patent/CN116186541A/zh
Publication of CN116186541A publication Critical patent/CN116186541A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及人工智能技术领域,提供了一种推荐模型的训练方法、装置、计算机设备及计算机可读存储介质。该方法能够充分利用海量的用户交互序列,提取出交互用户属性特征、交互对象属性特的丰富且动态的语义表征,充分挖掘不同交互用户属性特征、交互对象属性特之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升下游模型的训练精度,从而进一步提升包括图神经网络和线性分类器的推荐模型在稀疏推荐场中的泛化性能,以及,可以提升推荐模型对于用户与对象之间的交互结果的预测评估的精确度,进而可以提高推荐对象的转化率以及用户体验。

Description

一种推荐模型的训练方法及装置
技术领域
本公开涉及人工智能技术领域,尤其涉及一种推荐模型的训练方法及装置。
背景技术
在互联网电子商务业务中,如何根据用户的个性化特征推荐合适的商品或服务给用户一直是一个重要课题。在某些相对低频场景下,如线上广告、线上租房、线上买房等,由于正样本(比如点击、购买商品)数据的稀疏性,现有的推荐模型不能很好的捕捉用户和商品的关系,很难对用户接下来的购买行为进行很精准的预测,会出现过拟合,泛化能力弱等问题;这样,会使得利用现有的推荐模型向用户推荐商品或服务的场景下,给用户所推荐的商品或服务并不是用户真正想要的商品或服务,从而导致用户体验较差,且在提高商品或服务的转化率上有一定的局限性。
发明内容
有鉴于此,本公开实施例提供了一种推荐模型的训练方法、装置、计算机设备及计算机可读存储介质,以解决现有技术中由于正样本(比如点击、购买商品)数据的稀疏性,现有的推荐模型不能很好的捕捉用户和商品的关系,很难对用户接下来的购买行为进行很精准的预测,会出现过拟合,泛化能力弱等问题,这样,会使得利用现有的推荐模型向用户推荐商品或服务的场景下,给用户所推荐的商品或服务并不是用户真正想要的商品或服务,从而导致用户体验较差,且在提高商品或服务的转化率上有一定的局限性的问题。
本公开实施例的第一方面,提供了一种推荐模型的训练方法,所述方法包括:
获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征;
将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;
固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;
基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。
本公开实施例的第二方面,提供了一种推荐模型的训练装置,所述装置包括:
图获取单元,用于获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征;
第一训练单元,用于将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;
第二训练单元,用于固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;
模型确定单元,用于基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。
本公开实施例的第三方面,提供了一种计算机设备,包括存储器、处理器以及存储在存储器中并且可以在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:本公开实施例可以先获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征。然后,可以将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络。接着,可以固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器。最后,可以基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。可见,本实施例中,先利用所述遮挡二部图对推荐模型中的图神经网络进行自监督学习,减少图神经网络对标签的过渡依赖,然后利用图神经网络学习到的知识(即固定所述调整后的图神经网络的网络参数),利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练;这种训练方法能够充分利用海量的用户交互序列(即交互用户属性特征、交互对象属性特征、历史交互行为特征、关系属性特征),提取出交互用户属性特征、交互对象属性特的丰富且动态的语义表征,充分挖掘不同交互用户属性特征、交互对象属性特之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升下游模型(即推荐模型中的线性分类器)的训练精度,从而进一步提升包括图神经网络和线性分类器的推荐模型在稀疏推荐场中的泛化性能,以及,可以提升推荐模型对于用户与对象之间的交互结果的预测评估的精确度,进而可以提高推荐对象的转化率以及用户体验。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本公开实施例的应用场景的场景示意图;
图2是本公开实施例提供的推荐模型的训练方法的流程图;
图3是本公开实施例提供的图神经网络的训练流程示意图;
图4是本公开实施例提供的线性分类器的训练流程示意图;
图5是本公开实施例提供的推荐模型的训练装置的框图;
图6是本公开实施例提供的计算机设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
下面将结合附图详细说明根据本公开实施例的一种推荐模型的训练方法和装置。
在现有技术中,由于传统的推荐模型的训练方法,在某些相对低频场景下,如线上广告、线上租房、线上买房等,由于正样本(比如点击、购买商品)数据的稀疏性,现有的推荐模型不能很好的捕捉用户和商品的关系,很难对用户接下来的购买行为进行很精准的预测,会出现过拟合,泛化能力弱等问题;这样,会使得利用现有的推荐模型向用户推荐商品或服务的场景下,给用户所推荐的商品或服务并不是用户真正想要的商品或服务,从而导致用户体验较差,且在提高商品或服务的转化率上有一定的局限性。
在线上电子商务推荐场景中,主要采用基于用户行为作为反馈信息,对用户的喜好进行建模,然后根据用户喜好与已有商品库内的商品或服务的匹配关系排序,推荐最符合用户喜好的商品或服务。该类模型的整体结构都是输入给模型用户特征和商品特征,对某一个特定商品进行判别用户是否会点击,购买该商品。该判别结果被作为模型的输出结果与真实的用户点击,购买结果进行损失函数计算,从而指导模型进行优化。比较有代表性的模型有深度因式分解机(DeepFM)和深度兴趣网络(DIN)等。模型会重点建模历史行为序列与目标商品之间的关系,通过过去的历史判断用户对当前该商品的喜好程度,最后输出一个单独的概率判断用户点击或者购买的倾向。这类模型的共同点是使用已知特征对某用户对单一的某个特定商品进行预测。此类基于单个(用户,商品)有序对的模型在正样本(被点击,被购买的商品),与负样本(未被点击或购买)比例很小时,会对模型训练造成较大不良影响。导致模型精度下降和正样本的召回率下降。这种情况下,这类模型需要对正样本进行过采样或对负样本进行欠采样等操作。训练过程相对复杂困难。这类模型对序列的处理比较简单,没有充分考虑到用户访问序列内部隐含的关系,以及序列中节点和节点的相似性,对于用户与物品发生的关系也没有充分建模,容易产生过拟合现象,线上泛化能力较差。
为了解决上述问题。本发明提供了一种推荐模型的训练方法,在本方法中,由于本实施例可以先利用所述遮挡二部图对推荐模型中的图神经网络进行自监督学习,减少图神经网络对标签的过渡依赖,然后利用图神经网络学习到的知识(即固定所述调整后的图神经网络的网络参数),利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练;这种训练方法能够充分利用海量的用户交互序列(即交互用户属性特征、交互对象属性特征、历史交互行为特征、关系属性特征),提取出交互用户属性特征、交互对象属性特的丰富且动态的语义表征,充分挖掘不同交互用户属性特征、交互对象属性特之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升下游模型(即推荐模型中的线性分类器)的训练精度,从而进一步提升包括图神经网络和线性分类器的推荐模型在稀疏推荐场中的泛化性能,以及,可以提升推荐模型对于用户与对象之间的交互结果的预测评估的精确度,进而可以提高推荐对象的转化率以及用户体验。
举例说明,本发明实施例可以应用到如图1所示的应用场景。在该场景中,可以包括终端设备1和服务器2。
终端设备1可以是硬件,也可以是软件。当终端设备1为硬件时,其可以是具有显示屏且支持与服务器2通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备1为软件时,其可以安装在如上该的电子设备中。终端设备1可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本公开实施例对此不作限制。进一步地,终端设备1上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
服务器2可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器2可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本公开实施例对此不作限制。
需要说明的是,服务器2可以是硬件,也可以是软件。当服务器2为硬件时,其可以是为终端设备1提供各种服务的各种电子设备。当服务器2为软件时,其可以是为终端设备1提供各种服务的多个软件或软件模块,也可以是为终端设备1提供各种服务的单个软件或软件模块,本公开实施例对此不作限制。
终端设备1与服务器2可以通过网络进行通信连接。网络可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near Field Communication,NFC)、红外(Infrared)等,本公开实施例对此不作限制。
具体地,用户可以通过终端设备1输入训练样本二部图;终端设备1将训练样本二部图向服务器2发送。服务器2存储有待训练的推荐模型;服务器2可以先将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;然后,服务器2可以固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;接着,服务器2可以基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。这样,由于本申请可以先利用所述遮挡二部图对推荐模型中的图神经网络进行自监督学习,减少图神经网络对标签的过渡依赖,然后利用图神经网络学习到的知识(即固定所述调整后的图神经网络的网络参数),利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练;这种训练方法能够充分利用海量的用户交互序列(即交互用户属性特征、交互对象属性特征、历史交互行为特征、关系属性特征),提取出交互用户属性特征、交互对象属性特的丰富且动态的语义表征,充分挖掘不同交互用户属性特征、交互对象属性特之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升下游模型(即推荐模型中的线性分类器)的训练精度,从而进一步提升包括图神经网络和线性分类器的推荐模型在稀疏推荐场中的泛化性能,以及,可以提升推荐模型对于用户与对象之间的交互结果的预测评估的精确度,进而可以提高推荐对象的转化率以及用户体验。
需要说明的是,终端设备1和服务器2以及网络的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本公开实施例对此不作限制。
需要注意的是,上述应用场景仅是为了便于理解本公开而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
图2是本公开实施例提供的一种推荐模型的训练方法的流程图。图2的一种推荐模型的训练方法可以由图1的终端设备或服务器执行。如图2所示,该推荐模型的训练方法包括:
S201:获取训练样本二部图。
训练样本二部图可以理解为用于对推荐模型进行训练的二部图(又称作二分图)。在本实施例中,训练样本二部图可以为将推荐场景中的用户和推荐的对象(比如商品、服务等)建模成的一个二部图。
所述训练样本二部图包括若干用户节点、若干对象节点和若干条边。其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连,可以理解的是,每条边均与两个节点连接,且这两个节点为不同的节点,例如,一条边a的一端与一个用户节点连接,边a的另一端与一个对象节点连接,又例如,一条边b的一端与一个用户节点A连接,边b的另一端与一个用户节点B连接,还例如,一条边c的一端与一个对象节点A连接,边c的另一端与一个对象节点B连接。
可以理解的是,用户节点为代表一个交互用户的节点,对象节点为代表一个交互对象的节点,边代表交互用户与交互对象之间的历史交互行为、交互对象之间的关系或者交互用户之间的关系。
每个用户节点的节点特征均分别为一交互用户属性特征;交互用户属性特征可以理解为能够反映执行交互行为的用户本身属性的特征信息,交互用户可以理解为针对交互对象产生交互行为的账户或者客户端,例如,交互用户属性特征能够反映用户所使用的手机的型号(即账号所登录的手机型号)、账号的位置(比如省份、城市)等的特征。需要说明的是,每个用户节点分别代表不同的用户,在一种实现方式中,每个用户节点的节点特征均不相同。
每个对象节点的节点特征均分别为一交互对象属性特征;交互对象属性特征可以理解为能够反映交互对象本身属性的特征信息,其中,交互对象可以理解为被执行交互行为的对象,例如,交互对象为商品或服务时,交互对象属性特征可以为能够反映商品或服务的价格、单日销售量、产品类型等属性的特征。需要说明的是,每个对象节点分别代表不同的对象,在一种实现方式中,每个对象节点的节点特征均不相同。
每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征。若一条边的一端与一个用户节点连接,另一端与一个对象节点连接,则该条边反映一个用户节点与一个对象节点之间的历史交互行为特征,历史交互行为特征可以理解为历史已经发生的交互行为特征,交互行为特征可以理解为能够反映交互用户对交互对象所执行的操作的特征信息,例如,假设交互对象为商品,交互行为特征包括能够反映交互用户对商品的点击次数、是否被用户收藏和/或购买的特征;需要说明的是,在线上电子商务场景中,用户常常在同一个电子商务网站或移动端应用程序中浏览多个商品或服务,其行为可能有在某商品页面停留、点击商品查看详情等操作,可以将这些操作统称为交互行为。
若一条边的两端均与用户节点连接,或者均与对象节点连接,则该条边可以反映两个用户节点的关系属性特征,例如两个用户节点对应的用户为好友关系,或者,该条边可以反映两个对象节点的关系属性特征,例如两个对象节点对应的对象(例如商品)为同类型商品或者属于同个店铺。需要说明的是,两个节点之间的关系属性特征可以理解为能够反映两个节点之间的关联关系的特征。
例如,如图3所示,训练样本二部图可以包括两个用户节点、四个对象节点和七条边,其中,两个用户节点分别为用户1节点和用户2节点,四个对象节点分别为商品1节点、商品2节点、商品3节点和商品4节点,七条边包括:用户1节点与商品1节点之间的边、用户1节点与商品2节点之间的边、用户1节点与商品3节点之间的边、用户2节点与商品3节点之间的边、用户2节点与商品4节点之间的边、商品1节点与商品4节点之间的边、商品2节点与商品3节点之间的边。其中,用户1节点与商品1节点之间的边、用户1节点与商品2节点之间的边、用户1节点与商品3节点之间的边、用户2节点与商品3节点之间的边、用户2节点与商品4节点之间的边均可以反映用户节点与对象节点之间的历史交互行为特征(例如用户购买了商品),商品1节点与商品4节点之间的边反映商品1节点与商品4节点之间的关系属性特征为同店关系,商品2节点与商品3节点之间的边反映商品2节点与商品3节点之间的关系属性特征为同类关系。
S202:将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络。
在本实施例中,待训练的推荐模型可以包括图神经网络和线性分类器。为了能够充分利用海量的用户交互序列(即用户与对象的历史交互行为特征),提取出不同用户节点与对象节点的丰富且动态的语义表征,充分挖掘不同用户节点与对象节点之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升推荐模型的训练精度,从而进一步提升推荐模型在稀疏推荐场中的泛化性能,在本实施例中,首先对图神经网络进行自监督学习,减少模型对标签的过渡依赖,然后将学习到的知识迁移到具有特定监督信号的线性分类器的训练任务中进行建模。
在本实施例中,可以先将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以便利用遮挡二部图对图神经网络进行训练。在一种实现方式中,可以先在所述训练样本二部图中随机选择一对象节点或一用户节点作为目标节点。然后,可以将所述目标节点的原始属性特征设置为预设默认值,得到遮挡二部图,其中,目标节点的原始属性特征可以理解为目标节点的原本的属性特征,例如,目标节点为对象节点时,目标节点的原始属性特征为交互对象属性特征,目标节点为用户节点时,目标节点的原始属性特征为交互用户属性特征。接着,可以利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;可以理解为,将遮挡二部图输入到推荐模型中的图神经网络中,得到目标节点对应的预测属性特征,接着,利用目标节点对应的预测属性特征和原始属性特征,对图神经网络的网络参数进行调整,得到调整后的图神经网络。在一种实现方式中,所述图神经网络为图卷积神经网络(GCN)、图注意力神经网络结(GAT)或者图门控神经网络(GANN)。
例如,如图3所示,获取到训练样本二部图后,可以先根据训练样本二部图构建图关系,以及随机选择一个节点,比如选择商品4节点,将这个商品4节点的部分内禀特征(即属性特征)设置为预设默认值,例如将商品4节点的属性特征“价格”遮盖住且设为约着默认值(比如-1)后,利用用户1节点、用户2节点、商品1节点、商品2节点、商品3节点和商品4节点对推荐模型中的图神经网络进行训练,即对图神经网络的网络参数进行调整,得到调整后的图神经网络。
S203:固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器。
在图模型任务训练完成后,可以利用调整后的图神经网络得到对每个节点对应的更合理的嵌入表征向量(相同的节点会因为节点所处的图结构上下文不同,节点的嵌入表征向量也会有相应的变化,从而更好的适应不同用户的个性化需求),然后,利用调整后的图神经网络和训练样本二部图对线性分类器的网络参数进行微调(Finetune)。
在训练完图神经网络,可以固定调整后的图神经网络的网络参数,也就是,冻结整个图神经网络,此时,图神经网络的网络参数是不变的。接着,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器。可以理解的是,利用调整后的图神经网络和线性分类器,利用所述训练样本二部图,对所述训练样本二部图中的一个对象节点和一个用户节点进行一次二分类预测,预测该用户节点对应的用户是否会在该对象节点对应的对象上产生转化行为(即交互结果),例如,对象为商品时,预测该用户节点对应的用户是否会购买、收藏、预约或者浏览该对象节点对应的商品;这样,便可以利用预测交互结果和真实交互结果对所述推荐模型中的线性分类器的网络参数进行调整,得到调整后的线性分类器
S204:基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。
在得到所述调整后的图神经网络和所述调整后的线性分类器后,可以将所述调整后的图神经网络与所述调整后的线性分类器进行连接,例如将调整后的线性分类器连接在调整后的图神经网络之后,便可以得到已训练的推荐模型。
本公开实施例与现有技术相比存在的有益效果是:本公开实施例可以先获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征。然后,可以将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络。接着,可以固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器。最后,可以基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。可见,本实施例中,先利用所述遮挡二部图对推荐模型中的图神经网络进行自监督学习,减少图神经网络对标签的过渡依赖,然后利用图神经网络学习到的知识(即固定所述调整后的图神经网络的网络参数),利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练;这种训练方法能够充分利用海量的用户交互序列(即交互用户属性特征、交互对象属性特征、历史交互行为特征、关系属性特征),提取出交互用户属性特征、交互对象属性特的丰富且动态的语义表征,充分挖掘不同交互用户属性特征、交互对象属性特之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升下游模型(即推荐模型中的线性分类器)的训练精度,从而进一步提升包括图神经网络和线性分类器的推荐模型在稀疏推荐场中的泛化性能,以及,可以提升推荐模型对于用户与对象之间的交互结果的预测评估的精确度,进而可以提高推荐对象的转化率以及用户体验。可以理解的是,先使用自监督预训练方法训练图神经网络,然后在针对线性分类器调优,两个阶段训练能在一定程度上起到正则化效果,让优化过程的数值稳定性提升。
在一些实施例中,S201“获取训练样本二部图”的步骤,可以包括以下步骤:
S201a:获取每个若干交互用户属性特征、若干交互对象属性特征、交互用户属性特征之间的关系属性特征、交互对象属性特征之间的关系属性特征,以及,交互对象属性特征与交互用户属性特征之间的历史交互行为特征;
S201b:将每个交互用户属性特征均分别作为一个用户节点的节点特征;
S201c:将每个交互对象属性特征均分别作为一个对象节点的节点特征;
S201d:根据交互用户属性特征之间的关系属性特征,在用户节点之间生成用于连接两个用户节点的边;
S201e:根据交互对象属性特征之间的关系属性特征,在对象节点之间生成用于连接两个对象节点的边;
S201f:根据交互对象属性特征与交互用户属性特征之间的历史交互行为特征,在对象节点和用户节点之间生成用于连接一个对象节点和一个用户节点的边。
在本实施例中,获取到若干交互用户属性特征、若干交互对象属性特征、交互用户属性特征之间的关系属性特征、交互对象属性特征之间的关系属性特征,以及,交互对象属性特征与交互用户属性特征之间的历史交互行为特征后,可以充分利用不同交互用户和交互对象之间的关系,并将这种关系转化为二部图,这样可以更灵活的进行项目选择的原始转化。由于若干交互用户属性特征和若干交互对象属性特征之间存在一定的迥乎关系,可以将其构筑为一个有向的二部图,相比于一维的纯序列,可以通过环的结构捕获隐含在顺序行为中的复杂用户偏好,之后使用图神经网络进行图中节点的节点特征获取。
例如,获取到用户1对应的交互用户属性特征、用户2对应的交互用户属性特征、商品1对应的交互对象属性特征、商品2对应的交互对象属性特征、商品3对应的交互对象属性特征、商品4对应的交互对象属性特征、商品1节点与商品4节点之间的关系属性特征、商品2节点与商品3节点之间的关系属性特征,以及,用户1节点与商品1节点之间的历史交互行为特征、用户1节点与商品2节点之间的历史交互行为特征、用户1节点与商品3节点之间的历史交互行为特征、用户2节点与商品3节点之间的历史交互行为特征、用户2节点与商品4节点之间的历史交互行为特征、商品1节点与商品4节点之间的历史交互行为特征、商品2节点与商品3节点之间的历史交互行为特征。可以如图3所示,将用户1对应的交互用户属性特征、用户2对应的交互用户属性特征分别作为一个用户节点的节点特征;可以将商品1对应的交互对象属性特征、商品2对应的交互对象属性特征、商品3对应的交互对象属性特征、商品4对应的交互对象属性特征分别作为一个对象节点的节点特征。在用户1节点与商品1节点之间生成一条边,用户1节点与商品2节点之间生成一条边,用户1节点与商品3节点之间生成一条边,用户2节点与商品3节点之间生成一条边,用户2节点与商品4节点之间生成一条边,商品1节点与商品4节点之间生成一条边,商品2节点与商品3节点之间的边;从而可以得到如图3所示的训练样本二部图。这样,由于除了节点本身的属性和稀疏的标签外,由于训练样本二部图中还包含了揭示节点连接性的丰富结构,这样,通过利用训练样本二部图对推荐模型进行预训练,可以用海量数据挖掘出有效的丰富信息,辅助推荐模型进行更好的训练,使得经过训练的推荐模型能够有效解决推荐场景中标签稀疏问题。
在一些实施例中,S202中的“利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络”的步骤,可以包括以下步骤:
S202a:将所述遮挡二部图输入所述推荐模型中的图神经网络,得到所述遮挡二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量;
S202b:将所述目标节点对应的嵌入表征向量输入预设的线性回归器,得到所述目标节点对应的预测属性特征;
S202c:根据所述目标节点对应的预测属性特征与所述目标节点的原始属性特征,对所述推荐模型中的图神经网络的网络参数进行调整,得到调整后的图神经网络。
在本实施例中,可以先将所述遮挡二部图输入所述推荐模型中的图神经网络,经过图神经网络映射后,可以得到所述遮挡二部图中每个对象节点对应的嵌入表征项链以及每个用户节点各自分别对应的嵌入表征向量,其中,包括目标节点的嵌入表征向量。其中,对象节点对应的嵌入表征向量为交互对象属性特征对应的低维度稠密表征向量,对象节点对应的嵌入表征向量可以反映对象节点对应的上下文信息、与用户个性化和用户动态变化的关联关系。用户节点各自分别对应的嵌入表征向量为交互用户属性特征对应的低维度稠密表征向量,能够反映用户节点对应的上下文信息、用户个性化和用户动态变化的情况。这样,获得的每个对象节点以及每个用户节点各自分别对应的嵌入表征向量能够充分结合上下文信息,依据不同用户动态变化,将个性化信息融入到向量表达中,改善隐层向量个表征能力,可以有效提升推荐模型推荐任务的个性化性能。
然后,可以单独将目标节点对应的嵌入表征向量输入预设的线性回归器,得到所述目标节点对应的预测属性特征,需要说明的是,线性回归器并未设置在推荐模型中,而仅是利用来对图神经网络进行训练的。接着,可以根据所述目标节点对应的预测属性特征与所述目标节点的原始属性特征,对所述推荐模型中的图神经网络的网络参数进行调整,得到调整后的图神经网络。作为一种示例,在得到所述目标节点对应的预测属性特征后,可以利用所述目标节点对应的预测属性特征与所述目标节点的原始属性特征计算损失函数值,若所述损失函数值不满足预设条件(例如大于预设阈值),则可以根据损失函数值对所述图神经网络的网络参数进行调整,得到调整后的图神经网络,继续执行S202a,直至所述损失函数值小于预设阈值,或者S202a-S202c的训练次数达到预设次数,便可以得到调整后的图神经网络。
在一种实现方式中,可以利用交叉熵损失函数、所述目标节点对应的预测属性特征与所述目标节点的原始属性特征,对所述图神经网络的网络参数,得到调整后的图神经网络。具体地,可以根据所述目标节点对应的预测属性特征与所述目标节点的原始属性特征,确定交叉熵损失的平均值;以及,根据所述交叉熵损失的平均值,确定总损失函数值,例如,将所述交叉熵损失的平均值作为总损失函数值。这样,便可以利用总损失函数值对所述图神经网络的网络参数进行调整,得到调整后的图神经网络。
例如,如图3所示,获取到训练样本二部图后,可以先根据训练样本二部图构建图关系,以及随机选择一个节点,比如选择商品4节点,将这个商品4节点的部分内禀特征(即属性特征)设置为预设默认值,例如将商品4节点的属性特征“价格”遮盖住且设为约着默认值(比如-1)后,将用户1节点、用户2节点、商品1节点、商品2节点、商品3节点和商品4节点输入推荐模型中的图神经网络进行映射,经过图神经网络映射后,得到每个节点的嵌入表征向量,即得到用户1节点、用户2节点、商品1节点、商品2节点、商品3节点和商品4节点各自分别对应的嵌入表征向量,找到被遮盖部分特征的商品4节点的嵌入表征向量输入一个线性回归器得到商品4节点对应的价格预测值,最后计算预测价格和真实商品价格的误差作为损失函数值,进行梯度反向传播从而进行图神经网络和回归器进行参数更新,继续进行采样,正向传播,误差计算,梯度反向传播的过程一直进行直到训练损失收敛。
在一些实施例中,S203中的“固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器”的步骤,可以包括以下步骤:
S203a:固定所述调整后的图神经网络的网络参数;
S203b:将所述训练样本二部图输入所述调整后的图神经网络,得到所述训练样本二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量;
S203c:将一对象节点对应的嵌入表征向量和一用户节点对应的嵌入表征向量输入所述推荐模型中的线性分类器,得到所述对象节点和所述用户节点之间的预测交互结果;
S203d:根据所述对象节点和所述用户节点之间的历史交互行为特征,确定所述对象节点和所述用户节点之间的真实交互结果;
S203e:根据所述对象节点和所述用户节点之间的预测交互结果和真实交互结果,对所述线性分类器的网络参数进行调整,得到调整后的线性分类器。
在固定所述调整后的图神经网络的网络参数后,便可以将所述训练样本二部图输入所述调整后的图神经网络,得到所述训练样本二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量。将一对象节点对应的嵌入表征向量和一用户节点对应的嵌入表征向量输入所述推荐模型中的线性分类器,得到所述对象节点和所述用户节点之间的预测交互结果,可以理解的是,可以将希望预测交互结果的对象节点和用户节点对应的嵌入表征向量输入所述推荐模型中的线性分类器,便可以得到所述对象节点和所述用户节点之间的预测交互结果。在一种实现方式中,交互结果可以1或者0,交互结果1或0可以代表该位置商品(即该对象节点)是否最终被用户(即用户节点)购买或预定(也即用户在该商品上发生了转化行为)。
在本实施例中,还需要根据所述对象节点和所述用户节点之间的历史交互行为特征,确定所述对象节点和所述用户节点之间的真实交互结果。可以理解的是,由于连接一个对象节点和用户节点的边可以反映这两个节点之间的历史交互行为特征,因此,可以根据训练样本二部图中所述所述对象节点和所述用户节点之间的边确定所述对象节点和所述用户节点之间的真实交互结果。
在确定所述对象节点和所述用户节点之间的预测交互结果和真实交互结果后,可以根据所述对象节点和所述用户节点之间的预测交互结果和真实交互结果,对所述线性分类器的网络参数进行调整,得到调整后的线性分类器。
作为一种示例,在得到所述对象节点和所述用户节点之间的预测交互结果和真实交互结果后,可以利用所述对象节点和所述用户节点之间的预测交互结果和真实交互结果计算损失函数值,若所述损失函数值不满足预设条件(例如大于预设阈值),则可以根据损失函数值对所述线性分类器的网络参数进行调整,得到调整后的线性分类器,继续执行S203a,直至所述损失函数值小于预设阈值,或者S203a-S202e的训练次数达到预设次数,便可以得到调整后的线性分类器。
在一种实现方式中,可以利用二分类交叉熵损失函数、所述对象节点和所述用户节点之间的预测交互结果和真实交互结果,对所述线性分类器的网络参数,得到调整后的线性分类器。具体地,可以根据所述对象节点和所述用户节点之间的预测交互结果和真实交互结果,确定二分类交叉熵损失的平均值;以及,根据所述二分类交叉熵损失的平均值,确定总损失函数值,例如,将所述二分类交叉熵损失的平均值作为总损失函数值。这样,便可以利用总损失函数值对所述线性分类器的网络参数进行调整,得到调整后的线性分类器。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
下述为本公开装置实施例,可以用于执行本公开方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图5是本公开实施例提供的推荐模型的训练装置的示意图。如图5所示,该推荐模型的训练装置包括:
图获取单元501,用于获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征;
第一训练单元502,用于将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;
第二训练单元503,用于固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;
模型确定单元504,用于基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。
可选的,所述图获取单元501,用于:
获取每个若干交互用户属性特征、若干交互对象属性特征、交互用户属性特征之间的关系属性特征、交互对象属性特征之间的关系属性特征,以及,交互对象属性特征与交互用户属性特征之间的历史交互行为特征;
将每个交互用户属性特征均分别作为一个用户节点的节点特征;
将每个交互对象属性特征均分别作为一个对象节点的节点特征;
根据交互用户属性特征之间的关系属性特征,在用户节点之间生成用于连接两个用户节点的边;
根据交互对象属性特征之间的关系属性特征,在对象节点之间生成用于连接两个对象节点的边;
根据交互对象属性特征与交互用户属性特征之间的历史交互行为特征,在对象节点和用户节点之间生成用于连接一个对象节点和一个用户节点的边。
可选的,每个用户节点的节点特征均不相同;每个对象节点的节点特征均不相同。
可选的,所述第一训练单元502,用于:
在所述训练样本二部图中随机选择一对象节点或一用户节点作为目标节点;
将所述目标节点的原始属性特征设置为预设默认值,得到遮挡二部图。
可选的,所述第一训练单元502,用于:
将所述遮挡二部图输入所述推荐模型中的图神经网络,得到所述遮挡二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量;
将所述目标节点对应的嵌入表征向量输入预设的线性回归器,得到所述目标节点对应的预测属性特征;
根据所述目标节点对应的预测属性特征与所述目标节点的原始属性特征,对所述推荐模型中的图神经网络的网络参数进行调整,得到调整后的图神经网络。
可选的,所述图神经网络为图卷积神经网络、图注意力神经网络结或者图门控神经网络。
可选的,所述第二训练单元503,用于:
固定所述调整后的图神经网络的网络参数;
将所述训练样本二部图输入所述调整后的图神经网络,得到所述训练样本二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量;
将一对象节点对应的嵌入表征向量和一用户节点对应的嵌入表征向量输入所述推荐模型中的线性分类器,得到所述对象节点和所述用户节点之间的预测交互结果;
根据所述对象节点和所述用户节点之间的历史交互行为特征,确定所述对象节点和所述用户节点之间的真实交互结果;
根据所述对象节点和所述用户节点之间的预测交互结果和真实交互结果,对所述线性分类器的网络参数进行调整,得到调整后的线性分类器。
本公开实施例与现有技术相比存在的有益效果是:本公开实施例提供了一种推荐模型的训练装置,所述装置包括:图获取单元,用于获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征;第一训练单元,用于将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;第二训练单元,用于固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;模型确定单元,用于基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。可见,本实施例中,可以先利用所述遮挡二部图对推荐模型中的图神经网络进行自监督学习,减少图神经网络对标签的过渡依赖,然后利用图神经网络学习到的知识(即固定所述调整后的图神经网络的网络参数),利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练;这种训练方法能够充分利用海量的用户交互序列(即交互用户属性特征、交互对象属性特征、历史交互行为特征、关系属性特征),提取出交互用户属性特征、交互对象属性特的丰富且动态的语义表征,充分挖掘不同交互用户属性特征、交互对象属性特之间潜在的语义关联,且能规避推荐场景中正负样本比例悬殊的问题,提升下游模型(即推荐模型中的线性分类器)的训练精度,从而进一步提升包括图神经网络和线性分类器的推荐模型在稀疏推荐场中的泛化性能,以及,可以提升推荐模型对于用户与对象之间的交互结果的预测评估的精确度,进而可以提高推荐对象的转化率以及用户体验。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。
图6是本公开实施例提供的计算机设备6的示意图。如图6所示,该实施例的计算机设备6包括:处理器601、存储器602以及存储在该存储器602中并且可以在处理器601上运行的计算机程序603。处理器601执行计算机程序603时实现上述各个方法实施例中的步骤。或者,处理器601执行计算机程序603时实现上述各装置实施例中各模块/模块的功能。
示例性地,计算机程序603可以被分割成一个或多个模块/模块,一个或多个模块/模块被存储在存储器602中,并由处理器601执行,以完成本公开。一个或多个模块/模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序603在计算机设备6中的执行过程。
计算机设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算机设备。计算机设备6可以包括但不仅限于处理器601和存储器602。本领域技术人员可以理解,图6仅仅是计算机设备6的示例,并不构成对计算机设备6的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如,计算机设备还可以包括输入输出设备、网络接入设备、总线等。
处理器601可以是中央处理模块(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器602可以是计算机设备6的内部存储模块,例如,计算机设备6的硬盘或内存。存储器602也可以是计算机设备6的外部存储设备,例如,计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,存储器602还可以既包括计算机设备6的内部存储模块也包括外部存储设备。存储器602用于存储计算机程序以及计算机设备所需的其它程序和数据。存储器602还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能模块、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块、模块完成,即将装置的内部结构划分成不同的功能模块或模块,以完成以上描述的全部或者部分功能。实施例中的各功能模块、模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中,上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。另外,各功能模块、模块的具体名称也只是为了便于相互区分,并不用于限制本公开的保护范围。上述系统中模块、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的模块及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在本公开所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,多个模块或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或模块的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本公开各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
集成的模块/模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。

Claims (10)

1.一种推荐模型的训练方法,其特征在于,所述方法包括:
获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征;
将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;
固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;
基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。
2.根据权利要求1所述的方法,其特征在于,所述获取训练样本二部图,包括:
获取每个若干交互用户属性特征、若干交互对象属性特征、交互用户属性特征之间的关系属性特征、交互对象属性特征之间的关系属性特征,以及,交互对象属性特征与交互用户属性特征之间的历史交互行为特征;
将每个交互用户属性特征均分别作为一个用户节点的节点特征;
将每个交互对象属性特征均分别作为一个对象节点的节点特征;
根据交互用户属性特征之间的关系属性特征,在用户节点之间生成用于连接两个用户节点的边;
根据交互对象属性特征之间的关系属性特征,在对象节点之间生成用于连接两个对象节点的边;
根据交互对象属性特征与交互用户属性特征之间的历史交互行为特征,在对象节点和用户节点之间生成用于连接一个对象节点和一个用户节点的边。
3.根据权利要求1或2所述的方法,其特征在于,每个用户节点的节点特征均不相同;每个对象节点的节点特征均不相同。
4.根据权利要求1所述的方法,其特征在于,所述将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,包括:
在所述训练样本二部图中随机选择一对象节点或一用户节点作为目标节点;
将所述目标节点的原始属性特征设置为预设默认值,得到遮挡二部图。
5.根据权利要求4所述的方法,其特征在于,所述利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络,包括:
将所述遮挡二部图输入所述推荐模型中的图神经网络,得到所述遮挡二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量;
将所述目标节点对应的嵌入表征向量输入预设的线性回归器,得到所述目标节点对应的预测属性特征;
根据所述目标节点对应的预测属性特征与所述目标节点的原始属性特征,对所述推荐模型中的图神经网络的网络参数进行调整,得到调整后的图神经网络。
6.根据权利要求1或5所述的方法,其特征在于,所述图神经网络为图卷积神经网络、图注意力神经网络结或者图门控神经网络。
7.根据权利要求1所述的方法,其特征在于,所述固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器,包括:
固定所述调整后的图神经网络的网络参数;
将所述训练样本二部图输入所述调整后的图神经网络,得到所述训练样本二部图中每个对象节点以及每个用户节点各自分别对应的嵌入表征向量;
将一对象节点对应的嵌入表征向量和一用户节点对应的嵌入表征向量输入所述推荐模型中的线性分类器,得到所述对象节点和所述用户节点之间的预测交互结果;
根据所述对象节点和所述用户节点之间的历史交互行为特征,确定所述对象节点和所述用户节点之间的真实交互结果;
根据所述对象节点和所述用户节点之间的预测交互结果和真实交互结果,对所述线性分类器的网络参数进行调整,得到调整后的线性分类器。
8.一种推荐模型的训练装置,其特征在于,所述装置包括:
图获取单元,用于获取训练样本二部图;所述训练样本二部图包括若干用户节点、若干对象节点和若干条边,其中,每条边的两端分别与所述若干用户节点、所述若干对象节点中的两个不相同的节点相连;每个用户节点的节点特征均分别为一交互用户属性特征;每个对象节点的节点特征均分别为一交互对象属性特征;每条边均反映两个不相同的节点之间的历史交互行为特征或关系属性特征;
第一训练单元,用于将所述训练样本二部图中的一节点的属性特征设置为预设默认值,得到遮挡二部图,以及,利用所述遮挡二部图对推荐模型中的图神经网络进行训练,得到调整后的图神经网络;
第二训练单元,用于固定所述调整后的图神经网络的网络参数,利用所述训练样本二部图对所述推荐模型中的线性分类器进行训练,得到调整后的线性分类器;
模型确定单元,用于基于所述调整后的图神经网络和所述调整后的线性分类器,得到已训练的推荐模型。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并且可以在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202310201058.1A 2023-03-01 2023-03-01 一种推荐模型的训练方法及装置 Pending CN116186541A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310201058.1A CN116186541A (zh) 2023-03-01 2023-03-01 一种推荐模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310201058.1A CN116186541A (zh) 2023-03-01 2023-03-01 一种推荐模型的训练方法及装置

Publications (1)

Publication Number Publication Date
CN116186541A true CN116186541A (zh) 2023-05-30

Family

ID=86444256

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310201058.1A Pending CN116186541A (zh) 2023-03-01 2023-03-01 一种推荐模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN116186541A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117195061A (zh) * 2023-11-07 2023-12-08 腾讯科技(深圳)有限公司 事件响应预测模型处理方法、装置和计算机设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117195061A (zh) * 2023-11-07 2023-12-08 腾讯科技(深圳)有限公司 事件响应预测模型处理方法、装置和计算机设备
CN117195061B (zh) * 2023-11-07 2024-03-29 腾讯科技(深圳)有限公司 事件响应预测模型处理方法、装置和计算机设备

Similar Documents

Publication Publication Date Title
CN116541610B (zh) 一种推荐模型的训练方法及装置
CN110929136A (zh) 一种个性化推荐方法和装置
CN112085565A (zh) 基于深度学习的信息推荐方法、装置、设备及存储介质
CN115935185A (zh) 一种推荐模型的训练方法及装置
CN110866040A (zh) 用户画像生成方法、装置和系统
CN109947811A (zh) 通用特征库生成方法及装置、存储介质、电子设备
CN115631012A (zh) 目标推荐方法及装置
CN110866625A (zh) 促销指标信息生成方法和装置
CN116186541A (zh) 一种推荐模型的训练方法及装置
CN112650942A (zh) 产品推荐方法、装置、计算机系统和计算机可读存储介质
CN113495991A (zh) 一种推荐方法和装置
CN111967611A (zh) 特征生成方法和装置、电子设备和存储介质
CN114429384B (zh) 基于电商平台的产品智能推荐方法及系统
CN116029766A (zh) 用户交易决策识别方法、激励策略优化方法、装置和设备
CN111768218A (zh) 用于处理用户交互信息的方法和装置
CN110827044A (zh) 提取用户兴趣模式的方法和装置
CN112328899B (zh) 信息处理方法、信息处理装置、存储介质与电子设备
CN113792952A (zh) 用于生成模型的方法和装置
CN111598599B (zh) 用户表征方法、装置、电子设备及计算机可读介质
CN116911913B (zh) 一种交互结果的预测方法及装置
CN116911912B (zh) 一种交互对象和交互结果的预测方法及装置
CN113449175A (zh) 热点数据的推荐方法和装置
CN116911304B (zh) 一种文本推荐方法及装置
CN116468507A (zh) 目标推荐方法及装置
CN116340638A (zh) 一种交互结果的确定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination