CN111861635A - 一种针对商品分享时的好友推荐方法、装置及设备 - Google Patents

一种针对商品分享时的好友推荐方法、装置及设备 Download PDF

Info

Publication number
CN111861635A
CN111861635A CN202010553464.0A CN202010553464A CN111861635A CN 111861635 A CN111861635 A CN 111861635A CN 202010553464 A CN202010553464 A CN 202010553464A CN 111861635 A CN111861635 A CN 111861635A
Authority
CN
China
Prior art keywords
sample
user
matrix
training sample
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010553464.0A
Other languages
English (en)
Other versions
CN111861635B (zh
Inventor
石川
王啸
纪厚业
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202010553464.0A priority Critical patent/CN111861635B/zh
Publication of CN111861635A publication Critical patent/CN111861635A/zh
Application granted granted Critical
Publication of CN111861635B publication Critical patent/CN111861635B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明一种针对商品分享时的好友推荐方法、装置及设备,应用于计算机技术领域。该针对商品分享时的好友推荐方法包括:在检测到第一用户分享目标商品时,确定第一用户的好友列表中的多个第二用户;确定第一用户对应的向量、多个第二用户对应的向量,以及目标商品对应的向量;针对每一第二用户,将第一用户对应的向量、该第二用户对应的向量,以及目标商品对应的向量,输入至预设的预测模型中,得到第一用户向该第二用户分享所述目标商品的分享概率;利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向第一用户进行推荐的目标第二用户;向第一用户推荐所确定出的目标第二用户。本方案可以提升针对商品分享时好友推荐的命中率。

Description

一种针对商品分享时的好友推荐方法、装置及设备
技术领域
本发明涉及计算机技术领域,特别是涉及一种针对商品分享时的好友推荐方法、装置及设备。
背景技术
商品分享是电商平台中常有的分享范式。例如,当用户在浏览商品时,通过电商平台内提供的分享功能,显示用户当前的好友列表,用户将商品分享给列表中的好友。
现有技术中,针对分享商品时的好友推荐方法包括:确定待分享商品的用户的多个好友,利用好友自身的用户信息,确定待推荐的好友,进行推荐。
然而,现有技术中,在确定待推荐好友时,仅仅考虑了好友自身的用户信息,考虑因素单一,导致好友推荐的命中率不高,最终影响用户的使用粘性。
发明内容
本发明实施例的目的在于提供一种针对商品分享时的好友推荐方法、装置及设备,以提升针对商品分享时好友推荐的命中率。具体技术方案如下:
第一方面,本发明实施例提供了一种针对商品分享时的好友推荐方法,所述方法包括:
在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;
确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;所述第一用户对应的向量为表征所述第一用户的用户特征的向量,每一第二用户对应的向量为表征该第二用户的用户特征的向量,所述目标商品对应的向量为表征所述目标商品的商品特征的向量;
针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;
利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;
向所述第一用户推荐所确定出的目标第二用户;
其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息。
可选地,所述预测模型的训练方式,包括:
确定多个训练样本;
确定每个训练样本中各对象对应的样本向量,以及每个训练样本的标签信息;
针对每一训练样本,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;其中,该训练样本中第二样本用户对应的分享概率为:该训练样本中第一样本用户,向该第二样本用户分享相应商品的概率;所述相应商品为该训练样本中的样本商品;
基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;
基于所述损失值,判断训练中的所述异质图神经网络是否收敛,如果收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型;否则,调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。
可选地,所述异质图神经网络包括:
特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络;
所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本对应的分享概率,包括:
所述特征预训练子网络,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵;
所述三元异质图神经子网络,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,每一对象对应的语义矩阵用于表征该对象对应的表示矩阵在多种元路径下的语义的矩阵;
所述对偶协同注意力子网络,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵;并且,分别对所述第一协同矩阵和第二协同矩阵,进行归一化处理,得到该训练样本中第一样本用户在指定元路径下的第一权重,以及该训练样本中第二样本用户在所述指定元路径下的第二权重;将所述第一权重与该训练样本中第一样本用户对应的语义矩阵进行融合处理,得到第一目标矩阵;将所述第二权重与该训练样本中第二样本用户对应的语义矩阵进行融合处理,得到第二目标矩阵;所述第一协同矩阵用于表征该训练样本中样本商品与该训练样本中第一样本用户之间的关联性,所述第二协同矩阵用于表征该训练样本中样本商品与该训练样本中第二样本用户之间的关联性;
所述三元组子网络,生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率。
可选地,所述分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵,包括:
分别将该训练样本中各对象对应的样本向量映射到预设的初始矩阵内,得到该训练样本中各对象对应的特征矩阵;
分别将该训练样本中各对象对应的特征矩阵代入预定的表示矩阵生成公式内,得到该训练样本中各对象对应的表示矩阵;
所述基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,包括:
针对该训练样本中每一对象,将该对象对应的表示矩阵,代入至预定的语义矩阵生成公式,得到该对象对应的表示矩阵在不同元路径下的语义矩阵,并利用预设的语义聚合器,聚合所得到的语义矩阵,得到该对象对应的语义矩阵;
所述利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵,包括:
将该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵;
将该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵;
所述生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率,包括:
将所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵,输入至预设的联合矩阵生成公式,生成所述联合矩阵;
将所述联合矩阵输入至预设的预测概率公式,预测得到该训练样本对应的分享概率。
可选地,所述第一协同矩阵生成公式包括:
Figure BDA0002543352110000041
其中
Figure BDA0002543352110000051
为第一协同矩阵,
Figure BDA0002543352110000052
为第一协同注意力向量的转置,WU,I和bU,I分别为权重矩阵和偏置向量,
Figure BDA0002543352110000053
为第一样本用户的元路径,
Figure BDA0002543352110000054
为第一样本用户对应的语义矩阵,
Figure BDA0002543352110000055
为样本商品对应的语义矩阵,为样本商品,u为第一样本用户,||代表拼接操作,σ为激活函数;
所述第二协同矩阵生成公式包括:
Figure BDA0002543352110000056
其中,
Figure BDA0002543352110000057
为第二协同矩阵,
Figure BDA0002543352110000058
为第二协同注意力向量的转置,WV,I和bV,I分别为权重矩阵和偏置向量,
Figure BDA0002543352110000059
为第二样本用户的第m条元路径,
Figure BDA00025433521100000510
为第二样本用户对应的语义矩阵,
Figure BDA00025433521100000511
为样本商品对应的语义矩阵,为样本商品,v为第二样本用户,||代表拼接操作,σ为激活函数。
第二方面,本发明实施例提供了一种针对商品分享时的好友推荐装置,包括:
列表确定模块,用于在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;
向量确定模块,用于确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;所述第一用户对应的向量为表征所述第一用户的用户特征的向量,每一第二用户对应的向量为表征该第二用户的用户特征的向量,所述目标商品对应的向量为表征所述目标商品的商品特征的向量;
向量输入模块,用于针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;
筛选模块,用于利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;
推荐模块,用于向所述第一用户推荐所确定出的目标第二用户;
其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息。
可选地,所述预测模型通过预测模块训练;所述预测模块包括:
样本确定子模块,用于确定多个训练样本;
样本向量确定子模块,用于确定每个训练样本中各对象对应的样本向量,以及每个训练样本的标签信息;
训练子模块,用于针对每一训练样本,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;其中,该训练样本中第二样本用户对应的分享概率为:该训练样本中第一样本用户,向该第二样本用户分享相应商品的概率;所述相应商品为该训练样本中的样本商品;
损失值计算子模块,用于基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;
判断子模块,用于基于所述损失值,判断训练中的所述异质图神经网络是否收敛,如果收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型;否则,调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。
可选地,所述异质图神经网络包括:
特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络;
所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本对应的分享概率,包括:
所述特征预训练子网络,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵;
所述三元异质图神经子网络,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,每一对象对应的语义矩阵用于表征该对象对应的表示矩阵在多种元路径下的语义的矩阵;
所述对偶协同注意力子网络,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵;并且,分别对所述第一协同矩阵和第二协同矩阵,进行归一化处理,得到该训练样本中第一样本用户在指定元路径下的第一权重,以及该训练样本中第二样本用户在所述指定元路径下的第二权重;将所述第一权重与该训练样本中第一样本用户对应的语义矩阵进行融合处理,得到第一目标矩阵;将所述第二权重与该训练样本中第二样本用户对应的语义矩阵进行融合处理,得到第二目标矩阵;所述第一协同矩阵用于表征该训练样本中样本商品与该训练样本中第一样本用户之间的关联性,所述第二协同矩阵用于表征该训练样本中样本商品与该训练样本中第二样本用户之间的关联性;
所述三元组子网络,生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率。
可选地,所述分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵,包括:
分别将该训练样本中各对象对应的样本向量映射到预设的初始矩阵内,得到该训练样本中各对象对应的特征矩阵;
分别将该训练样本中各对象对应的特征矩阵代入预定的表示矩阵生成公式内,得到该训练样本中各对象对应的表示矩阵;
所述基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,包括:
针对该训练样本中每一对象,将该对象对应的表示矩阵,代入至预定的语义矩阵生成公式,得到该对象对应的表示矩阵在不同元路径下的语义矩阵,并利用预设的语义聚合器,聚合所得到的语义矩阵,得到该对象对应的语义矩阵;
所述利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵,包括:
将该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵;
将该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵;
所述生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率,包括:
将所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵,输入至预设的联合矩阵生成公式,生成所述联合矩阵;
将所述联合矩阵输入至预设的预测概率公式,预测得到该训练样本对应的分享概率。
第三方面,本发明实施例还提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现一种针对商品分享时的好友推荐方法的步骤。
本发明实施例有益效果:
本发明实施例提供的在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;所述第一用户对应的向量为表征所述第一用户的用户特征的向量,每一第二用户对应的向量为表征该第二用户的用户特征的向量,所述目标商品对应的向量为表征所述目标商品的商品特征的向量;针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息;利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;向所述第一用户推荐所确定出的目标第二用户。可见,本方案在进行好友推荐时,利用用户、商品、好友三个对象的特征信息,即综合多个因素来确定好友是否被推荐,相对于现有技术仅仅考虑单一因素,所推荐的好友可以更符合用户的推荐需求,因此,可以提升针对商品分享时好友推荐的命中率,从而提高了用户的使用粘性。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明一种针对商品分享时的好友推荐方法的流程图;
图2为本发明一种针对商品分享时的好友推荐方法的另一流程图;
图3为本发明一种针对商品分享时的好友推荐装置的结构示意图;
图4为本发明一种电子设备的结构示意图;
图5为异质图神经网络的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了提升针对商品分享时好友推荐的命中率,本发明实施例提供了一种针对商品分享时的好友推荐方法、装置及设备。
下面首先对本发明实施例所提供的一种针对商品分享时的好友推荐方法进行介绍。
本发明实施例所提供的一种针对商品分享时的好友推荐方法的执行主体可以为一种针对商品分享时的好友推荐装置。该装置可以应用于电子设备中,该电子设备可以为终端设备,也可以为服务器。在具体应用中,当该好友推荐装置应用于终端设备时,该好友推荐装置具体可以为购物客户端,或者,该购物客户端中的插件;当该好友推荐装置应用于服务器时,该好友推荐装置为该购物客户端对应的服务端。
本发明实施例所涉及的好友推荐方法是在用户将浏览的商品进行分享的过程中,为用户推荐待分享商品的好友的方法。
如图1所示,本发明实施例所提供的一种针对商品分享时的好友推荐方法可以包括如下步骤:
S101,在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;
其中,检测到第一用户分享目标商品的实现方式可以为:检测第一用户是否将当前浏览的商品通过分享功能进行分享。当第一用户将当前浏览的商品通过分享功能进行分享时,即为检测到第一用户分享目标商品。另外,当第一用户通过分享功能分享当前浏览的商品时,将当前浏览的商品作为目标商品。此外,分享功能的实现可以通过点击预设的功能按钮来完成。
第一用户的好友列表可以为第一用户在本发明实施例中提供的一种针对商品分享时的好友推荐装置中创建的好友列表,也可以为在社交平台中的好友列表,例如:微信好友列表或QQ好友列表等,在此不做限定。
S102,确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;
为了在第一用户需要分享目标商品时,向第一用户推荐好友,在确定第一用户的好友列表中的多个第二用户后,可以对确定的第一用户、目标商品和多个第二用户进行信息转换,即将第一用户的用户特征进行向量化,得到第一用户对应的向量,将每一第二用户对应的用户特征进行向量化,得到该第二用户对应的向量,并将目标商品的商品特征进行向量化,得到目标商品对应的向量。
示例性的,第一用户的用户特征可以包括:性别、年龄、所属省份、所属城市、所属县或购买水平等信息;第二用户的用户特征可以包括:性别、年龄、所属省份、所属城市、所属县或购买水平等信息;目标商品的商品特征可以包括:类目、类目级别或品牌等信息。并且,对用户特征、商品特征进行向量化的具体方式可以与现有技术中对信息进行向量化的方式相同,在此不做限定。
并且,第一用户对应的向量的数量可以为一个或多个,一个向量用于表征第一用户的一种用户特征,当第一用户对应的向量的数量为多个时,不同的向量用于表征第一用户的不同的用户特征。类似的,第二用户对应的向量的数量可以为一个或多个,一个向量用于表征第二用户的一种用户特征,当第二用户对应的向量的数量为多个时,不同的向量用于表征第二用户的不同的用户特征。类似的,目标商品对应的向量可以为一个或多个,一个向量用于表征目标商品的一种用户特征,当目标商品对应的向量的数量为多个时,不同的向量用于表征目标商品的不同的商品特征。
S103,针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;
其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象。其中,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息。
第一样本用户为分享商品的用户,第二样本用户为第一样本用户的好友中,待分享样本商品的用户,样本商品为第一样本用户浏览商品时,通过分享功能分享的商品。其中,第一样本用户的用户特征可以包括:性别、年龄、所属省份、所属城市、所属县或购买水平等信息;第二样本用户的用户特征可以包括:性别、年龄、所属省份、所属城市、所属县或购买水平等信息;样本商品的商品特征可以包括:类目、类目级别或品牌等信息。
为了得到预测模型,需要将训练样本中各对象的相关信息进行信息转化,将转化后的信息转化数据输入至预设的异质图神经网络进行训练。具体而言,训练样本中各对象的相关信息进行信息转化包括:将第一样本用户的用户特征进行向量化,得到第一样本用户对应的样本向量,将每一第二样本用户对应的用户特征进行向量化,得到该第二样本用户对应的样本向量,并将样本商品的商品特征进行向量化,得到样本商品对应的样本向量。
另外,训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息;具体而言,标签信息可以包括是或否两种信息,也可以包括0或1两种信息,当标签信息包括0或1的两种信息时,将第一样本用户没有向第二样本用户分享过样本商品时的标签信息作为0,将第一样本用户向第二样本用户分享过样本商品时的标签信息作为1。此外,所述第一用户向该第二用户分享所述目标商品的分享概率可以有多种表现形式,例如:分享概率可以为百分比,也可以为0-1之间的标量。
并且,第一样本用户对应的样本向量的数量,与第一用户对应的向量的数量相同,且第一样本用户对应的样本向量所表征用户特征,与第一用户对应的向量所表征用户特征相同。类似的,第二样本用户对应的样本向量的数量,与第二用户对应的向量的数量相同,且第二样本用户对应的样本向量所表征用户特征,与第二用户对应的向量所表征用户特征相同。类似的,样本商品对应的样本向量的数量,与目标商品对应的向量的数量相同,且样本商品对应的样本向量所表征商品特征,与目标商品对应的向量所表征商品特征相同。
另外,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型后,预设的预测模型利用所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,确定所述第一用户向该第二用户分享所述目标商品的分享概率的具体过程,与下文对于预设的预测模型的训练过程中,所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率的具体实现过程类似,本发明实施例对此不再赘述。
S104,利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;
为了提高命中率从而提升粘性,在得到所述第一用户向各个第二用户分享所述目标商品的分享概率后,利用分享概率来筛选用于向所述第一用户进行推荐的目标第二用户。
需要说明的是,利用分享概率来筛选用于向所述第一用户进行推荐的目标第二用户的实现方式可以包括多种。
示例性的,在一种实现方式中,将得到的分享概率与预定阈值进行对比,筛选出分享概率值高于预定阈值的分享概率,将筛选出的分享概率对应的第二用户作为目标第二用户。
示例性的,在另一种实现方式中,对各个分享概率进行降序排序,将前N个分享概率所对应的用户,均确定为目标第二用户。
S105,向所述第一用户推荐所确定出的目标第二用户。
在确定目标第二用户后,向所述第一用户推荐所确定出的目标第二用户。其中,向所述第一用户推荐所确定出的目标第二用户可以包括:向所述第一用户推荐表征目标第二用户的账户信息,账户信息为目标第二用户的登录账户所包包含的信息,例如:头像、用户名等信息。
本发明实施例所提供方案中,在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;向所述第一用户推荐所确定出的目标第二用户。可见,本方案在进行好友推荐时,利用用户、商品、好友三个对象的特征信息,即综合多个因素来确定好友是否被推荐,相对于现有技术仅仅考虑单一因素,所推荐的好友可以更符合用户的推荐需求,因此,可以提升针对商品分享时好友推荐的命中率,从而提高了用户的使用粘性。
为了方案清楚以及布局清晰,下面示例性的介绍预测模型的训练过程。
可选地,如图2所示,所述预测模型的训练方式可以包括:
S201,确定多个训练样本;
其中,训练样本为基于历史分享信息所分析得到的样本。举例说明:
在历史分享信息中,对获取到的用户A、商品a进行分析,确定用户A是否对商品a通过分享功能进行分享过,如果是,则将用户A、商品a、用户A的好友列表中一个好友1作为一个训练样本,并将用户A作为第一样本用户,商品a作为样本商品,好友1作为第二样本用户。
S202,确定每个训练样本中各对象对应的样本向量,以及每个训练样本的标签信息;
在利用训练样本进行模型训练时,需要将每个训练样本中各对象的相关信息进行向量转化,得到每个训练样本中各对象对应的样本向量,并获取每个训练样本中,第一样本用户是否向第二样本用户分享过所述样本商品的信息,作为每个训练样本对应的标签信息。
S203,针对每一训练样本,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;
其中,该训练样本中第二样本用户对应的分享概率为:该训练样本中第一样本用户,向该第二样本用户分享相应商品的概率;所述相应商品为该训练样本中的样本商品。
为了方案清楚及布局清晰,后续对S203的具体实现方式进行介绍。
S204,基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;
其中,计算损失值所利用的损失函数可以包括但不限于:平方损失函数、对数损失函数或指数损失函数,等等,具体而言,在一种实现方式中,基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值可以包括:
将基于所预测得到的各个分享概率与各个训练样本的标签信息输入预设的损失值计算公式中,得到损失值;
损失值计算公式包括:
Figure BDA0002543352110000151
其中,L为损失值,yu,i,v为标签信息,
Figure BDA0002543352110000152
为分享概率,
Figure BDA0002543352110000153
为训练样本的集合,u,i,v分别为第一样本用户,样本商品,第二样本用户。
S205,基于所述损失值,判断训练中的所述异质图神经网络是否收敛,如果收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型;否则,调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。
其中,基于所述损失值,判断训练中的所述异质图神经网络是否收敛,具体可以为:判断该损失值是否小于预设阈值,如果小于,判定训练中的所述异质图神经网络收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型,否则,判定训练中的所述异质图神经网络未收敛。当判定训练中的所述异质图神经网络未收敛时,可以调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。继续训练所述异质图神经网络即为返回S203。
为了方案清楚及布局清晰,以一个训练样本为例,下面介绍所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率的具体实现方式。
需要说明的是,所述异质图神经网络包括:特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络;其中,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,包括:将该训练样本中各对象对应的样本向量依次通过特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络处理,得到该训练样本中第二样本用户对应的分享概率。
示例性的,在一种实现方式中,所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率可以包括如下A1-A4步骤:
A1,所述特征预训练子网络,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵;
A2,所述三元异质图神经子网络,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,每一对象对应的语义矩阵用于表征该对象对应的表示矩阵在多种元路径下的语义的矩阵;
A3,所述对偶协同注意力子网络,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵;并且,分别对所述第一协同矩阵和第二协同矩阵,进行归一化处理,得到该训练样本中第一样本用户在指定元路径下的第一权重,以及该训练样本中第二样本用户在所述指定元路径下的第二权重;将所述第一权重与该训练样本中第一样本用户对应的语义矩阵进行融合处理,得到第一目标矩阵;将所述第二权重与该训练样本中第二样本用户对应的语义矩阵进行融合处理,得到第二目标矩阵;所述第一协同矩阵用于表征该训练样本中样本商品与该训练样本中第一样本用户之间的关联性,所述第二协同矩阵用于表征该训练样本中样本商品与该训练样本中第二样本用户之间的关联性;
A4,三元组子网络,生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率。
相应的,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵,可以包括:
分别将该训练样本中各对象对应的样本向量映射到预设的初始矩阵内,得到该训练样本中各对象对应的特征矩阵;
分别将该训练样本中各对象对应的特征矩阵代入预定的表示矩阵生成公式内,得到该训练样本中各对象对应的表示矩阵;
相应的,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,可以包括:
针对该训练样本中每一对象,将该对象对应的表示矩阵,代入至预定的语义矩阵生成公式,得到该对象对应的表示矩阵在不同元路径下的语义矩阵,并利用预设的语义聚合器,聚合所得到的语义矩阵,得到该对象对应的语义矩阵;
相应的,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵,包括:
将该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵;
将该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵;
相应的,所述生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率,包括:
将所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵,输入至预设的联合矩阵生成公式,生成所述联合矩阵;
将所述联合矩阵输入至预设的预测概率公式,预测得到该训练样本对应的分享概率。
为了方案清楚,下面以第一样本用户u,样本商品i,第二样本用户v为例,对上述各步骤中所涉及的各个矩阵以及相应的处理过程进行示例性的解释说明,:
(1)A1步骤中,涉及到的矩阵和相应的处理过程包括:
对第一样本用户u的第k个用户特征所对应的样本向量
Figure BDA0002543352110000181
进行特征映射,其中,特征映射所利用的公式为:
Figure BDA0002543352110000182
其中,
Figure BDA0002543352110000183
是第一样本用户u对应的特征矩阵,
Figure BDA0002543352110000184
为第一样本用户u的预设的初始矩阵,fk为针对第一样本用户u的第k个用户特征,
Figure BDA0002543352110000185
将得到的第一样本用户u对应的特征矩阵
Figure BDA0002543352110000186
输入至预定的表示矩阵生成公式,其中,预定的表示矩阵生成公式为:
Figure BDA0002543352110000187
其中,xu为第一样本用户u对应的表示矩阵,|fU|为第一样本用户的用户特征的个数,σ为激活函数,WU和bU分别是用户u的权重矩阵和偏置向量,‖代表拼接操作。类似的,通过上述过程,可以得到样本商品i和第二样本用户v对应的表示矩阵:xi和xv
(2)A2步骤中,涉及到的矩阵和相应的处理过程包括:
将第一样本用户u对应的表示矩阵xu输入至预定的语义矩阵生成公式,其中,语义矩阵生成公式为:
Figure BDA0002543352110000191
其中,
Figure BDA0002543352110000192
为第一样本用户u对应的语义矩阵,xu为第一样本用户u对应的表示矩阵,ΦU为第一样本用户u相应的元路径,σ为激活函数,‖代表拼接操作,
Figure BDA0002543352110000193
Figure BDA0002543352110000194
分别是针对元路径ΦU的权重矩阵和偏置向量,
Figure BDA0002543352110000195
为与第一样本用户u在元路径ΦU下相邻的目标对象,
Figure BDA0002543352110000196
为将第一样本用户u对应的表示矩阵与目标对象对应的特征矩阵进行聚合,得到的指定元路径下的语义表示矩阵,且
Figure BDA0002543352110000197
xn为目标对象的特征对应的向量,
Figure BDA0002543352110000198
为语义聚合器;
为了提高语义聚合的时间效率,语义聚合器可以采用平均池MeanPooling来加速聚合过程,具体过程如下:
Figure BDA0002543352110000199
类似的,通过上述过程,可以得到样本商品i,第二样本用户v对应的语义矩阵
Figure BDA00025433521100001910
Figure BDA00025433521100001911
(3)A3步骤中,涉及到的矩阵和相应的处理过程包括:
将第一样本用户u对应的语义矩阵
Figure BDA00025433521100001912
样本商品i对应的语义矩阵
Figure BDA00025433521100001913
以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵,其中,第一协同矩阵生成公式为:
Figure BDA00025433521100001914
其中,
Figure BDA00025433521100001915
为第一协同矩阵,
Figure BDA00025433521100001916
为第一协同注意力向量的转置,σ为激活函数,‖代表拼接操作,WU,I和bU,I分别为针对第一样本用户u和样本商品i的权重矩阵和偏置向量,
Figure BDA0002543352110000201
为第一样本用户u的m条元路径。
将第二样本用户v对应的语义矩阵
Figure BDA0002543352110000202
样本商品i对应的语义矩阵
Figure BDA0002543352110000203
以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵,其中,第二协同矩阵生成公式为:
Figure BDA0002543352110000204
其中,
Figure BDA0002543352110000205
为第二协同矩阵,
Figure BDA0002543352110000206
为第二协同注意力向量的转置,σ为激活函数,‖代表拼接操作,WV,I和bV,I分别为针对第二样本用户v和样本商品i的权重矩阵和偏置向量,
Figure BDA0002543352110000207
为第二样本用户的第m条元路径。
对所述第一协同矩阵,进行归一化处理,其中,归一化处理所采用的公式为:
Figure BDA0002543352110000208
其中,
Figure BDA0002543352110000209
为第一样本用户u在元路径
Figure BDA00025433521100002010
下的第一权重,类似的,对第二协同矩阵,进行归一化处理,可以得到第二样本用户v在元路径
Figure BDA00025433521100002011
下的第二权重
Figure BDA00025433521100002012
将第一权重
Figure BDA00025433521100002013
与第一样本用户对应的语义矩阵融合,其中,融合处理所采用的公式为:
Figure BDA00025433521100002014
其中,hu为第一目标矩阵,类似的,将第二权重
Figure BDA00025433521100002015
与第二样本用户对应的语义矩阵融合,可以得到第二目标矩阵hv
(4)A4步骤中,涉及到的矩阵和相应的处理过程包括:
为了能够将第一目标矩阵hu,第二目标矩阵hv,以及样本商品i对应的语义矩阵
Figure BDA0002543352110000211
利用预设的联合矩阵生成公式进行联合,在联合前,将第一目标矩阵hu,第二目标矩阵hv,以及样本商品i对应的语义矩阵
Figure BDA0002543352110000212
分别利用投影函数投影至同一空间,得到第一目标矩阵hu对应的第一目标投影矩阵zu,第二目标矩阵hv对应的第二目标投影矩阵zv,以及样本商品i对应的语义矩阵
Figure BDA0002543352110000213
对应的样本投影矩阵zi,预设的联合矩阵生成公式包括:
ru,i,v=|zu+zi-zv|
其中,ru,i,v为联合矩阵,将ru,i,v输入预测概率公式内:
Figure BDA0002543352110000214
其中,
Figure BDA0002543352110000215
为计算得到的分享概率,W和b分别是权重矩阵和偏置向量。
本发明的实施例中,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;基于所述损失值,判断训练中的所述异质图神经网络是否收敛。可见,训练得到的预测模型用户针对商品分享时的好友推荐,能够提高好友推荐的命中率,提高用户使用粘性。
为了方案清楚,示例性的,如图5所示,给出了一种异质图神经网络所包含的各子网络结构,以及各子网络的处理过程。图中,u为第一样本用户,i为样本商品,v为第二样本用户,第一样本用户u的用户特征可以包括:性别、年龄、所属省份、所属城市、所属县或购买水平等信息;第二样本用户v的用户特征可以包括:性别、年龄、所属省份、所属城市、所属县或购买水平等信息;样本商品i的商品特征可以包括:类目、类目级别或品牌等信息;xu为第一样本用户u对应的表示矩阵,xi为样本商品i对应的表示矩阵,xv第二样本用户v对应的表示矩阵;ΦU为第一样本用户u相应的元路径,
Figure BDA0002543352110000216
为第一样本用户u对应的语义矩阵,
Figure BDA0002543352110000217
为第二样本用户v对应的语义矩阵,
Figure BDA0002543352110000218
为样本商品i对应的语义矩阵,hu为第一目标矩阵,hv为第二目标矩阵。
相应于上述方法实施例,本发明实施例还提供了一种针对商品分享时的好友推荐装置,如图3所示,该装置可以包括:
列表确定模块310,用于在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;
向量确定模块320,用于确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;所述第一用户对应的向量为表征所述第一用户的用户特征的向量,每一第二用户对应的向量为表征该第二用户的用户特征的向量,所述目标商品对应的向量为表征所述目标商品的商品特征的向量;
向量输入模块330,用于针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;
筛选模块340,用于利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;
推荐模块350,用于向所述第一用户推荐所确定出的目标第二用户;
其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息。
本发明实施例所提供方案中,在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;向所述第一用户推荐所确定出的目标第二用户。可见,本方案在进行好友推荐时,利用用户、商品、好友三个对象的特征信息,即综合多个因素来确定好友是否被推荐,相对于现有技术仅仅考虑单一因素,所推荐的好友可以更符合用户的推荐需求,因此,可以提升针对商品分享时好友推荐的命中率,从而提高了用户的使用粘性。
可选地,所述预测模型通过预测模块训练;所述预测模块包括:
样本确定子模块,用于确定多个训练样本;
样本向量确定子模块,用于确定每个训练样本中各对象对应的样本向量,以及每个训练样本的标签信息;
训练子模块,用于针对每一训练样本,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;其中,该训练样本中第二样本用户对应的分享概率为:该训练样本中第一样本用户,向该第二样本用户分享相应商品的概率;所述相应商品为该训练样本中的样本商品;
损失值计算子模块,用于基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;
判断子模块,用于基于所述损失值,判断训练中的所述异质图神经网络是否收敛,如果收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型;否则,调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。
可选地,所述异质图神经网络包括:
特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络;
所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本对应的分享概率,包括:
所述特征预训练子网络,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵;
所述三元异质图神经子网络,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,每一对象对应的语义矩阵用于表征该对象对应的表示矩阵在多种元路径下的语义的矩阵;
所述对偶协同注意力子网络,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵;并且,分别对所述第一协同矩阵和第二协同矩阵,进行归一化处理,得到该训练样本中第一样本用户在指定元路径下的第一权重,以及该训练样本中第二样本用户在所述指定元路径下的第二权重;将所述第一权重与该训练样本中第一样本用户对应的语义矩阵进行融合处理,得到第一目标矩阵;将所述第二权重与该训练样本中第二样本用户对应的语义矩阵进行融合处理,得到第二目标矩阵;所述第一协同矩阵用于表征该训练样本中样本商品与该训练样本中第一样本用户之间的关联性,所述第二协同矩阵用于表征该训练样本中样本商品与该训练样本中第二样本用户之间的关联性;
所述三元组子网络,生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率。
可选地,所述分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵,包括:
分别将该训练样本中各对象对应的样本向量映射到预设的初始矩阵内,得到该训练样本中各对象对应的特征矩阵;
分别将该训练样本中各对象对应的特征矩阵代入预定的表示矩阵生成公式内,得到该训练样本中各对象对应的表示矩阵;
所述基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,包括:
针对该训练样本中每一对象,将该对象对应的表示矩阵,代入至预定的语义矩阵生成公式,得到该对象对应的表示矩阵在不同元路径下的语义矩阵,并利用预设的语义聚合器,聚合所得到的语义矩阵,得到该对象对应的语义矩阵;
所述利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵,包括:
将该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵;
将该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵;
所述生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率,包括:
将所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵,输入至预设的联合矩阵生成公式,生成所述联合矩阵;
将所述联合矩阵输入至预设的预测概率公式,预测得到该训练样本对应的分享概率。
本发明实施例还提供了一种电子设备,如图4所示,包括处理器401、通信接口402、存储器403和通信总线404,其中,处理器401,通信接口402,存储器403通过通信总线404完成相互间的通信,
存储器403,用于存放计算机程序;
处理器401,用于执行存储器403上所存放的程序时,实现本发明实施例所提供的任一针对商品分享时的好友推荐方法的步骤。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本发明提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一针对商品分享时的好友推荐方法的步骤。
在本发明提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一针对商品分享时的好友推荐方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备及存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本发明的较佳实施例,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种针对商品分享时的好友推荐方法,其特征在于,包括:
在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;
确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;所述第一用户对应的向量为表征所述第一用户的用户特征的向量,每一第二用户对应的向量为表征该第二用户的用户特征的向量,所述目标商品对应的向量为表征所述目标商品的商品特征的向量;
针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;
利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;
向所述第一用户推荐所确定出的目标第二用户;
其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息。
2.根据权利要求1所述的方法,其特征在于,所述预测模型的训练方式,包括:
确定多个训练样本;
确定每个训练样本中各对象对应的样本向量,以及每个训练样本的标签信息;
针对每一训练样本,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;其中,该训练样本中第二样本用户对应的分享概率为:该训练样本中第一样本用户,向该第二样本用户分享相应商品的概率;所述相应商品为该训练样本中的样本商品;
基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;
基于所述损失值,判断训练中的所述异质图神经网络是否收敛,如果收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型;否则,调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。
3.根据权利要求2所述的方法,其特征在于,所述异质图神经网络包括:
特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络;
所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本对应的分享概率,包括:
所述特征预训练子网络,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵;
所述三元异质图神经子网络,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,每一对象对应的语义矩阵用于表征该对象对应的表示矩阵在多种元路径下的语义的矩阵;
所述对偶协同注意力子网络,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵;并且,分别对所述第一协同矩阵和第二协同矩阵,进行归一化处理,得到该训练样本中第一样本用户在指定元路径下的第一权重,以及该训练样本中第二样本用户在所述指定元路径下的第二权重;将所述第一权重与该训练样本中第一样本用户对应的语义矩阵进行融合处理,得到第一目标矩阵;将所述第二权重与该训练样本中第二样本用户对应的语义矩阵进行融合处理,得到第二目标矩阵;所述第一协同矩阵用于表征该训练样本中样本商品与该训练样本中第一样本用户之间的关联性,所述第二协同矩阵用于表征该训练样本中样本商品与该训练样本中第二样本用户之间的关联性;
所述三元组子网络,生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率。
4.根据权利要求3所述的方法,其特征在于,
所述分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵,包括:
分别将该训练样本中各对象对应的样本向量映射到预设的初始矩阵内,得到该训练样本中各对象对应的特征矩阵;
分别将该训练样本中各对象对应的特征矩阵代入预定的表示矩阵生成公式内,得到该训练样本中各对象对应的表示矩阵;
所述基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,包括:
针对该训练样本中每一对象,将该对象对应的表示矩阵,代入至预定的语义矩阵生成公式,得到该对象对应的表示矩阵在不同元路径下的语义矩阵,并利用预设的语义聚合器,聚合所得到的语义矩阵,得到该对象对应的语义矩阵;
所述利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵,包括:
将该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵;
将该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵;
所述生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率,包括:
将所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵,输入至预设的联合矩阵生成公式,生成所述联合矩阵;
将所述联合矩阵输入至预设的预测概率公式,预测得到该训练样本对应的分享概率。
5.根据权利要求4所述的方法,其特征在于,
所述第一协同矩阵生成公式包括:
Figure FDA0002543352100000041
其中,
Figure FDA0002543352100000042
为第一协同矩阵,
Figure FDA0002543352100000043
为第一协同注意力向量的转置,WU,I和bU,I分别为权重矩阵和偏置向量,
Figure FDA0002543352100000044
为第一样本用户的m条元路径,
Figure FDA0002543352100000045
为第一样本用户对应的语义矩阵,
Figure FDA0002543352100000046
为样本商品对应的语义矩阵,i为样本商品,u为第一样本用户,||代表拼接操作,σ为激活函数;
所述第二协同矩阵生成公式包括:
Figure FDA0002543352100000047
其中,
Figure FDA0002543352100000048
为第二协同矩阵,
Figure FDA0002543352100000049
为第二协同注意力向量的转置,WV,I和bV,I分别为权重矩阵和偏置向量,
Figure FDA00025433521000000410
为第二样本用户的第m条元路径,
Figure FDA00025433521000000411
为第二样本用户对应的语义矩阵,
Figure FDA00025433521000000412
为样本商品对应的语义矩阵,i为样本商品,v为第二样本用户,||代表拼接操作,σ为激活函数。
6.一种针对商品分享时的好友推荐装置,其特征在于,包括:
列表确定模块,用于在检测到第一用户分享目标商品时,确定所述第一用户的好友列表中的多个第二用户;
向量确定模块,用于确定所述第一用户对应的向量、多个第二用户对应的向量,以及所述目标商品对应的向量;所述第一用户对应的向量为表征所述第一用户的用户特征的向量,每一第二用户对应的向量为表征该第二用户的用户特征的向量,所述目标商品对应的向量为表征所述目标商品的商品特征的向量;
向量输入模块,用于针对每一第二用户,将所述第一用户对应的向量、该第二用户对应的向量,以及所述目标商品对应的向量,输入至预设的预测模型中,得到所述第一用户向该第二用户分享所述目标商品的分享概率,作为该第二用户对应的分享概率;
筛选模块,用于利用各个第二用户对应的分享概率,从多个第二用户中,筛选用于向所述第一用户进行推荐的目标第二用户;
推荐模块,用于向所述第一用户推荐所确定出的目标第二用户;
其中,所述预测模型是基于训练样本中各对象对应的样本向量,以及所述训练样本的标签信息,对预设的异质图神经网络进行训练所得到的模型;所述训练样本包括:第一样本用户、第二样本用户和样本商品三个对象,所述第一样本用户对应的样本向量用于表征所述第一样本用户的用户特征,所述第二样本用户对应的样本向量用于表征所述第二样本用户的用户特征,所述样本商品对应的样本向量用于表征所述样本商品的商品特征;所述训练样本的标签信息为:用于表征所述第一样本用户是否向所述第二样本用户分享过所述样本商品的信息。
7.根据权利要求6所述的装置,其特征在于,所述预测模型通过预测模块训练;所述预测模块包括:
样本确定子模块,用于确定多个训练样本;
样本向量确定子模块,用于确定每个训练样本中各对象对应的样本向量,以及每个训练样本的标签信息;
训练子模块,用于针对每一训练样本,将该训练样本中各对象对应的样本向量输入至所述异质图神经网络,以使得所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本中第二样本用户对应的分享概率;其中,该训练样本中第二样本用户对应的分享概率为:该训练样本中第一样本用户,向该第二样本用户分享相应商品的概率;所述相应商品为该训练样本中的样本商品;
损失值计算子模块,用于基于所预测得到的各个分享概率与各个训练样本的标签信息,计算损失值;
判断子模块,用于基于所述损失值,判断训练中的所述异质图神经网络是否收敛,如果收敛,结束训练,得到训练完成的所述异质图神经网络,作为所述预测模型;否则,调整训练中的所述异质图神经网络的网络参数,继续训练所述异质图神经网络。
8.根据权利要求7所述的装置,其特征在于,所述异质图神经网络包括:
特征预训练子网络、三元异质图神经子网络、对偶协同注意力子网络以及三元组子网络;
所述异质图神经网络利用该训练样本中各对象对应的样本向量,预测该训练样本对应的分享概率,包括:
所述特征预训练子网络,分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵;
所述三元异质图神经子网络,基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,每一对象对应的语义矩阵用于表征该对象对应的表示矩阵在多种元路径下的语义的矩阵;
所述对偶协同注意力子网络,利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵;并且,分别对所述第一协同矩阵和第二协同矩阵,进行归一化处理,得到该训练样本中第一样本用户在指定元路径下的第一权重,以及该训练样本中第二样本用户在所述指定元路径下的第二权重;将所述第一权重与该训练样本中第一样本用户对应的语义矩阵进行融合处理,得到第一目标矩阵;将所述第二权重与该训练样本中第二样本用户对应的语义矩阵进行融合处理,得到第二目标矩阵;所述第一协同矩阵用于表征该训练样本中样本商品与该训练样本中第一样本用户之间的关联性,所述第二协同矩阵用于表征该训练样本中样本商品与该训练样本中第二样本用户之间的关联性;
所述三元组子网络,生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率。
9.根据权利要求8所述的装置,其特征在于,
所述分别对该训练样本中各对象对应的样本向量进行矩阵转换,得到该训练样本中各对象对应的表示矩阵,包括:
分别将该训练样本中各对象对应的样本向量映射到预设的初始矩阵内,得到该训练样本中各对象对应的特征矩阵;
分别将该训练样本中各对象对应的特征矩阵代入预定的表示矩阵生成公式内,得到该训练样本中各对象对应的表示矩阵;
所述基于该训练样本中各对象对应的表示矩阵,生成该训练样本中各对象对应的语义矩阵,包括:
针对该训练样本中每一对象,将该对象对应的表示矩阵,代入至预定的语义矩阵生成公式,得到该对象对应的表示矩阵在不同元路径下的语义矩阵,并利用预设的语义聚合器,聚合所得到的语义矩阵,得到该对象对应的语义矩阵;
所述利用该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,生成第一协同矩阵,利用该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,生成第二协同矩阵,包括:
将该训练样本中第一样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第一协同注意力向量,输入至预定的第一协同矩阵生成公式,生成第一协同矩阵;
将该训练样本中第二样本用户对应的语义矩阵、该训练样本中样本商品对应的语义矩阵,以及预设的第二协同注意力向量,输入至预设的第二协同矩阵生成公式,生成第二协同矩阵;
所述生成包括所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵的联合矩阵,并基于所述联合矩阵,确定该训练样本对应的分享概率,包括:
将所述第一目标矩阵、所述第二目标矩阵,以及该训练样本中样本商品对应的语义矩阵,输入至预设的联合矩阵生成公式,生成所述联合矩阵;
将所述联合矩阵输入至预设的预测概率公式,预测得到该训练样本对应的分享概率。
10.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-5任一所述的方法步骤。
CN202010553464.0A 2020-06-17 2020-06-17 一种针对商品分享时的好友推荐方法、装置及设备 Active CN111861635B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010553464.0A CN111861635B (zh) 2020-06-17 2020-06-17 一种针对商品分享时的好友推荐方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010553464.0A CN111861635B (zh) 2020-06-17 2020-06-17 一种针对商品分享时的好友推荐方法、装置及设备

Publications (2)

Publication Number Publication Date
CN111861635A true CN111861635A (zh) 2020-10-30
CN111861635B CN111861635B (zh) 2022-10-25

Family

ID=72986705

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010553464.0A Active CN111861635B (zh) 2020-06-17 2020-06-17 一种针对商品分享时的好友推荐方法、装置及设备

Country Status (1)

Country Link
CN (1) CN111861635B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104601438A (zh) * 2014-04-28 2015-05-06 腾讯科技(深圳)有限公司 一种好友推荐方法和装置
CN108985830A (zh) * 2018-07-05 2018-12-11 北京邮电大学 基于异质信息网络的推荐评分方法、装置
CN110400169A (zh) * 2019-07-02 2019-11-01 阿里巴巴集团控股有限公司 一种信息推送方法、装置及设备
WO2019223379A1 (zh) * 2018-05-22 2019-11-28 阿里巴巴集团控股有限公司 一种产品推荐方法和装置
CN111191143A (zh) * 2019-07-17 2020-05-22 腾讯科技(深圳)有限公司 应用推荐方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104601438A (zh) * 2014-04-28 2015-05-06 腾讯科技(深圳)有限公司 一种好友推荐方法和装置
WO2019223379A1 (zh) * 2018-05-22 2019-11-28 阿里巴巴集团控股有限公司 一种产品推荐方法和装置
CN108985830A (zh) * 2018-07-05 2018-12-11 北京邮电大学 基于异质信息网络的推荐评分方法、装置
CN110400169A (zh) * 2019-07-02 2019-11-01 阿里巴巴集团控股有限公司 一种信息推送方法、装置及设备
CN111191143A (zh) * 2019-07-17 2020-05-22 腾讯科技(深圳)有限公司 应用推荐方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHUAN SHI 等: "Heterogeneous Information Network", 《IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING》 *
YANG XIAO 等: "ANE: Network Embedding via Adversarial Autoencoders", 《2018 IEEE INTERNATIONAL CONFERENCE ON BIG DATA AND SMART COMPUTING》 *

Also Published As

Publication number Publication date
CN111861635B (zh) 2022-10-25

Similar Documents

Publication Publication Date Title
CN108985830B (zh) 基于异质信息网络的推荐评分方法、装置
Alfaro‐García et al. Logarithmic aggregation operators and distance measures
WO2021027260A1 (zh) 处理交互序列数据的方法及装置
US20180068371A1 (en) Learning Vector-Space Representations of Items for Recommendations using Word Embedding Models
US11651233B2 (en) Candidate visualization techniques for use with genetic algorithms
Mirghafoori et al. Analysis of the barriers affecting the quality of electronic services of libraries by VIKOR, FMEA and entropy combined approach in an intuitionistic-fuzzy environment
US20210311751A1 (en) Machine-learning models applied to interaction data for determining interaction goals and facilitating experience-based modifications to interface elements in online environments
US20140188994A1 (en) Social Neighborhood Determination
CN108920665B (zh) 基于网络结构和评论文本的推荐评分方法及装置
CN112163963B (zh) 业务推荐方法、装置、计算机设备和存储介质
JP6060298B1 (ja) 情報配信装置、情報配信方法および情報配信プログラム
CN112989146B (zh) 向目标用户推荐资源的方法、装置、设备、介质和程序产品
US8560490B2 (en) Collaborative networking with optimized inter-domain information quality assessment
US20220253721A1 (en) Generating recommendations using adversarial counterfactual learning and evaluation
CN113191838A (zh) 一种基于异质图神经网络的购物推荐方法及系统
CN111695024A (zh) 对象评估值的预测方法及系统、推荐方法及系统
WO2021139513A1 (zh) 处理交互序列数据的方法及装置
CN111861635B (zh) 一种针对商品分享时的好友推荐方法、装置及设备
CN112905885B (zh) 向用户推荐资源的方法、装置、设备、介质和程序产品
CN113076487B (zh) 一种用户兴趣表征及内容推荐方法、装置和设备
CN115758271A (zh) 数据处理方法、装置、计算机设备和存储介质
CN111507471B (zh) 一种模型训练方法、装置、设备及存储介质
CN117112880A (zh) 信息推荐、多目标推荐模型训练方法、装置和计算机设备
CN114429384A (zh) 基于电商平台的产品智能推荐方法及系统
CN112950352A (zh) 用户筛选策略生成方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant