CN116167828A - 一种基于图协同和对比学习的物品推荐方法 - Google Patents

一种基于图协同和对比学习的物品推荐方法 Download PDF

Info

Publication number
CN116167828A
CN116167828A CN202310451106.2A CN202310451106A CN116167828A CN 116167828 A CN116167828 A CN 116167828A CN 202310451106 A CN202310451106 A CN 202310451106A CN 116167828 A CN116167828 A CN 116167828A
Authority
CN
China
Prior art keywords
user
structural representation
item
loss function
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310451106.2A
Other languages
English (en)
Other versions
CN116167828B (zh
Inventor
沈利东
赵朋朋
郝永静
沈逸旸
沈逸明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Yiyou Huiyun Software Co ltd
Original Assignee
Jiangsu Yiyou Huiyun Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Yiyou Huiyun Software Co ltd filed Critical Jiangsu Yiyou Huiyun Software Co ltd
Priority to CN202310451106.2A priority Critical patent/CN116167828B/zh
Publication of CN116167828A publication Critical patent/CN116167828A/zh
Application granted granted Critical
Publication of CN116167828B publication Critical patent/CN116167828B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及机器学习技术领域,特别是涉及一种基于图协同和对比学习的物品推荐方法。所述物品推荐方法,包括:基于用户物品交互图,使用图卷积神经网络获取用户的结构表示和物品的结构表示;基于用物品的语义信息,使用注意力机制和多层感知机获取用户的语义表示和物品的语义表示;分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,并确定损失函数;基于所述损失函数,进行迭代训练生成用户物品推荐模型;基于所述物品推荐模型,向用户推荐感兴趣的物品。本申请的一种基于图协同和对比学习的物品推荐方法,物品推荐准确率高,鲁棒性好。

Description

一种基于图协同和对比学习的物品推荐方法
技术领域
本申请涉及机器学习技术领域,特别是涉及一种基于图协同和对比学习的物品推荐方法。
背景技术
推荐系统是基于用户的历史交互信息为用户推荐感兴趣物品的一种系统。图协同过滤是一种基于图结构的推荐方法,其将多跳邻居集成到用户或物品的表示来进行物品推荐,但是其受数据稀疏性的影响较大;对比学习可以从数据本身挖掘信号来处理稀疏性问题,现有技术中基于对比学习的方法大多是通过随机的方式生成增强视图,但是这种方法容易使有用信息丢失,进而导致在物品推荐的准确性和鲁棒性不高。
发明内容
为了解决现有技术存在的不足,本申请的目的在于提供一种基于图协同和对比学习的物品推荐方法,提高推荐系统的推荐精准度。
为实现上述目的,本申请提供一种基于图协同和对比学习的物品推荐方法,包括:
基于用户物品交互图,使用图卷积神经网络获取用户的结构表示和物品的结构表示;
基于用户物品的语义信息,使用注意力机制和多层感知机获取用户的语义表示和物品的语义表示;
分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数;
基于所述损失函数,进行迭代训练生成物品推荐模型;
基于所述物品推荐模型,向用户推荐感兴趣的物品。
进一步地,所述使用图卷积神经网络获取用户的结构表示和物品的结构表示的步骤,包括:
采用如下公式计算图卷积神经网络每一层输出的用户的结构表示和物品的结构表示:
Figure SMS_1
Figure SMS_2
其中,
Figure SMS_4
和/>
Figure SMS_8
分别为图卷积神经网络第/>
Figure SMS_10
层输出的用户的结构表示和物品的结构表示,/>
Figure SMS_5
和/>
Figure SMS_7
表示用户/>
Figure SMS_9
和物品/>
Figure SMS_12
的一阶邻居,/>
Figure SMS_3
和/>
Figure SMS_6
分别为图卷积神经网络第/>
Figure SMS_11
层的用户的结构表示和物品的结构表示;
采用如下公式计算图卷积神经网络最终输出的用户的结构表示和物品的结构表示:
Figure SMS_13
Figure SMS_14
其中,其中
Figure SMS_15
是图卷积神经网络的总层数,/>
Figure SMS_18
和/>
Figure SMS_22
为用户/>
Figure SMS_17
和物品/>
Figure SMS_20
在图卷积神经网络的第/>
Figure SMS_21
层的结构表示,/>
Figure SMS_24
和/>
Figure SMS_16
是用户/>
Figure SMS_19
和物品/>
Figure SMS_23
经图卷积神经网络后的结构表示。
进一步地,所述使用注意力机制和多层感知机获取用户的语义表示和物品的语义表示的步骤采用如下公式:
Figure SMS_25
Figure SMS_26
Figure SMS_27
其中,
Figure SMS_34
,/>
Figure SMS_37
和/>
Figure SMS_46
分别是物品/>
Figure SMS_35
的类别属性和商标属性的向量化,/>
Figure SMS_43
是物品/>
Figure SMS_32
的文本属性的向量化,/>
Figure SMS_42
是物品/>
Figure SMS_31
的特征向量;/>
Figure SMS_44
是/>
Figure SMS_28
矩阵,/>
Figure SMS_39
是/>
Figure SMS_38
维向量;/>
Figure SMS_48
为多层感知机;/>
Figure SMS_29
是物品/>
Figure SMS_41
的语义表示,
Figure SMS_36
是用户/>
Figure SMS_47
的语义表示,/>
Figure SMS_33
为用户/>
Figure SMS_45
交互过的第t个物品的语义表示,/>
Figure SMS_30
为用户/>
Figure SMS_40
交互过的物品的总数。
进一步地,所述分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数的步骤,包括:
采用如下公式在特征增强前对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定特征增强前对比学习的损失函数:
Figure SMS_49
Figure SMS_50
Figure SMS_51
;/>
其中,
Figure SMS_53
是特征增强前对比学习的损失函数,/>
Figure SMS_57
是特征增强前物品的结构表示和物品的语义表示进行对比学习的损失函数,/>
Figure SMS_62
是特征增强前用户的结构表示和用户的语义表示进行对比学习的损失函数,/>
Figure SMS_55
和/>
Figure SMS_59
分别是用户/>
Figure SMS_61
的结构标识和语义表示,/>
Figure SMS_65
和/>
Figure SMS_52
分别表示物品/>
Figure SMS_56
的结构表示和语义表示,/>
Figure SMS_60
表示物品/>
Figure SMS_64
的语义表示,/>
Figure SMS_54
表示用户/>
Figure SMS_58
的语义表示,/>
Figure SMS_63
为温度参数,N为物品总数,M为用户总数。
进一步地,所述分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数的步骤,包括:
采用如下公式在特征增强后对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定特征增强后对比学习的损失函数:
Figure SMS_66
Figure SMS_67
Figure SMS_68
其中,
Figure SMS_69
是特征增强后对比学习的损失函数,/>
Figure SMS_70
是特征增强后物品的结构表示和物品的语义表示进行对比学习的损失函数,/>
Figure SMS_71
是特征增强后用户的结构表示和用户的语义表示进行对比学习的损失函数。
进一步地,所述特征增强,包括:
使用两个多层感知机作为特征增强器,分别对用户的结构表示和用户的语义表示进行特征增强,采用如下公式:
Figure SMS_72
Figure SMS_73
其中,
Figure SMS_74
和/>
Figure SMS_75
为特征增强后的用户/>
Figure SMS_76
的结构表示和语义表示,/>
Figure SMS_77
和/>
Figure SMS_78
表示两个特征增强器的参数。
进一步地,所述分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数的步骤,包括:
基于用户的结构表示和语义表示,物品的结构表示和语义表示,确定用户对物品的推荐分数和推荐损失函数,所述用户对物品的推荐分数和推荐损失函数采用如下公式:
Figure SMS_79
;/>
其中,
Figure SMS_82
,/>
Figure SMS_85
是物品推荐模型对用户/>
Figure SMS_88
和物品/>
Figure SMS_81
的推荐分数,
Figure SMS_83
是激活函数,/>
Figure SMS_87
表示成对训练数据,/>
Figure SMS_89
表示用户/>
Figure SMS_80
与之交互的物品,/>
Figure SMS_84
表示用户/>
Figure SMS_86
未与之交互的物品。
进一步地,所述基于所述损失函数,进行迭代训练生成物品推荐模型的步骤,包括:
基于特征增强前对比学习的损失函数、特征增强后对比学习的损失函数和推荐损失函数,构建联合损失函数,所述联合损失函数采用如下公式:
Figure SMS_90
其中,
Figure SMS_91
为联合损失函数,/>
Figure SMS_92
、/>
Figure SMS_93
和/>
Figure SMS_94
是需要调整的超参数,/>
Figure SMS_95
是正则化项;
随机初始化所述图卷积神经网络的参数
Figure SMS_96
和两个特征增强器的参数/>
Figure SMS_97
和/>
Figure SMS_98
,基于所述联合损失函数更新图卷积神经网络的参数/>
Figure SMS_99
Figure SMS_100
固定参数
Figure SMS_101
,基于特征增强后对比学习的损失函数,优化特征增强器的参数/>
Figure SMS_102
Figure SMS_103
Figure SMS_104
Figure SMS_105
Figure SMS_106
Figure SMS_107
为特征增强后对比学习的损失函数,/>
Figure SMS_108
和/>
Figure SMS_109
为通过反向传播更新后的编码器参数。
为实现上述目的,本申请提供的电子设备,包括:
处理器;
存储器,其上存储有一个或多个在所述处理器上运行的计算机程序指令;
其中,所述处理器运行所述计算机指令时,执行如上所述的基于图协同和对比学习的物品推荐方法。
为实现上述目的,本申请提供的计算机可读存储介质,其上存储有计算机指令,当计算机指令被处理器运行时,执行如上所述的基于图协同和对比学习的物品推荐方法的步骤。
本申请的一种基于图协同和对比学习的物品推荐方法,通过图卷积神经网络和多层感知机分别获取结构表示和语义表示,并进行特征增强前和特征增强后的对比学习,增强了物品推荐模型的准确性和鲁棒性。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。
附图说明
附图用来提供对本申请的进一步理解,并且构成说明书的一部分,并与本申请的实施例一起,用于解释本申请,并不构成对本申请的限制。在附图中:
图1为本申请的基于图协同和对比学习的物品推荐方法的流程示意图;
图2为本申请的物品推荐模型的结构示意图;
图3位本申请的测试数据集的示意图;
图4为本申请的物品推荐模型的性能指标的示意图。
具体实施方式
下面将参照附图更详细地描述本申请的实施例。虽然附图中显示了本申请的某些实施例,然而应当理解的是,本申请可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本申请。应当理解的是,本申请的附图及实施例仅用于示例性作用,并非用于限制本申请的保护范围。
应当理解,本申请的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本申请的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本申请中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。“多个”应理解为两个或以上。
下面,将参考附图详细地说明本申请的实施例。
实施例1
本申请的一个实施例,提供了一种基于图协同和对比学习的物品推荐方法,下面将参考图1对本申请的基于图协同和对比学习的物品推荐方法进行详细描述。
首先,步骤S101:基于用户物品交互图,使用图卷积神经网络获取用户的结构表示和物品的结构表示。
参阅图2,用户物品交互图是一种反应表示用户和物品之关系的图结构。
具体的,包括:
采用如下公式计算图卷积神经网络每一层输出的用户的结构表示和物品的结构表示:
Figure SMS_110
;/>
Figure SMS_111
其中,
Figure SMS_114
和/>
Figure SMS_116
分别为图卷积神经网络第/>
Figure SMS_120
层输出的用户的结构表示和物品的结构表示,/>
Figure SMS_113
和/>
Figure SMS_117
表示用户/>
Figure SMS_119
和物品/>
Figure SMS_121
的一阶邻居,/>
Figure SMS_112
和/>
Figure SMS_115
分别为图卷积神经网络第/>
Figure SMS_118
层的用户的结构表示和物品的结构表示;
采用如下公式计算图卷积神经网络最终输出的用户的结构表示和物品的结构表示:
Figure SMS_122
Figure SMS_123
其中,其中
Figure SMS_125
是图卷积神经网络的总层数,/>
Figure SMS_127
和/>
Figure SMS_131
为用户/>
Figure SMS_126
和物品/>
Figure SMS_129
在图卷积神经网络的第/>
Figure SMS_130
层的结构表示,/>
Figure SMS_133
和/>
Figure SMS_124
是用户/>
Figure SMS_128
和物品/>
Figure SMS_132
经图卷积神经网络后的结构表示。
需要说明的是,图卷积神经网络通常使用如下聚合方法获取结构表示:
Figure SMS_134
/>
Figure SMS_135
Figure SMS_136
/>
Figure SMS_137
其中
Figure SMS_138
是传播函数,/>
Figure SMS_139
是读出函数,在本实施方式中,对此聚合方式做了如上的简化。
步骤S102:基于用物品的语义信息,使用注意力机制和多层感知机获取用户的语义表示和物品的语义表。
具体的,采用如下公式:
Figure SMS_140
Figure SMS_141
Figure SMS_142
其中,
Figure SMS_147
,/>
Figure SMS_146
和/>
Figure SMS_158
分别是物品/>
Figure SMS_149
的类别属性和商标属性的向量化,/>
Figure SMS_155
是物品/>
Figure SMS_151
的文本属性的向量化,/>
Figure SMS_157
是物品/>
Figure SMS_152
的特征向量;/>
Figure SMS_159
是/>
Figure SMS_143
矩阵,/>
Figure SMS_156
是/>
Figure SMS_145
维向量;/>
Figure SMS_161
为多层感知机;/>
Figure SMS_150
是物品/>
Figure SMS_162
的语义表示,/>
Figure SMS_153
是用户/>
Figure SMS_163
的语义表示,/>
Figure SMS_148
为用户/>
Figure SMS_160
交互过的第t个物品的语义表示,/>
Figure SMS_144
为用户/>
Figure SMS_154
交互过的物品的总数。
需要说明的是,物品的语义信息是多种多样的,包括但不限于商标、类别和描述等。在本实施方式中,只是对物品的类别属性、商标属性以及文本属性作为语义信息向量化后使用。
在另外一些实施方式中,也可以将物品的应用场景、适宜人群等作为语义信息。
步骤S103:分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,并确定损失函数。
具体的,包括:
采用如下公式在特征增强前对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定特征增强前对比学习的损失函数:
Figure SMS_164
Figure SMS_165
Figure SMS_166
其中,
Figure SMS_168
是特征增强前对比学习的损失函数,/>
Figure SMS_173
是特征增强前物品的结构表示和物品的语义表示进行对比学习的损失函数,/>
Figure SMS_177
是特征增强前用户的结构表示和用户的语义表示进行对比学习的损失函数,/>
Figure SMS_170
和/>
Figure SMS_174
分别是用户/>
Figure SMS_178
的结构标识和语义表示,/>
Figure SMS_180
和/>
Figure SMS_167
分别表示物品/>
Figure SMS_171
的结构表示和语义表示,/>
Figure SMS_175
表示物品/>
Figure SMS_179
的语义表示,/>
Figure SMS_169
表示用户/>
Figure SMS_172
的语义表示,/>
Figure SMS_176
为温度参数,N为物品总数,M为用户总数。
具体的,特征增强包括:
使用两个多层感知机作为特征增强器分别对用户的结构表示和用户的语义表示进行特征增强,采用如下公式:
Figure SMS_181
Figure SMS_182
其中,
Figure SMS_183
和/>
Figure SMS_184
为特征增强后的用户/>
Figure SMS_185
的结构表示和语义表示,/>
Figure SMS_186
和/>
Figure SMS_187
表示两个特征增强器的参数。
具体的,包括:
采用如下公式在特征增强后对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定特征增强后对比学习的损失函数:
确定损失函数包括:确定特征增强后对比学习的损失函数,特征增强后对比学习的损失函数采用如下公式:
Figure SMS_188
Figure SMS_189
Figure SMS_190
其中,
Figure SMS_191
是特征增强后对比学习的损失函数,/>
Figure SMS_192
是特征增强后物品的结构表示和物品的语义表示进行对比学习的损失函数,/>
Figure SMS_193
是特征增强后用户的结构表示和用户的语义表示进行对比学习的损失函数。
具体的,包括:
采用如下公式基于用户的结构表示和语义表示,物品的结构表示和语义表示,确定用户对物品的推荐分数和推荐损失函数,用户对物品的推荐分数和推荐损失函数:
Figure SMS_194
其中,
Figure SMS_196
,/>
Figure SMS_199
是物品推荐模型对用户/>
Figure SMS_202
和物品/>
Figure SMS_197
的推荐分数,
Figure SMS_200
是激活函数,/>
Figure SMS_203
表示成对训练数据,/>
Figure SMS_204
表示用户/>
Figure SMS_195
与之交互的物品,/>
Figure SMS_198
表示用户/>
Figure SMS_201
未与之交互的物品。
步骤S104:基于损失函数,进行迭代训练生成用户物品推荐模型。
具体的,基于特征增强前对比学习的损失函数、特征增强后对比学习的损失函数和推荐损失函数,构建联合损失函数,所述联合损失函数采用如下公式:
Figure SMS_205
其中,
Figure SMS_206
为联合损失函数,/>
Figure SMS_207
、/>
Figure SMS_208
和/>
Figure SMS_209
是需要调整的超参数,/>
Figure SMS_210
是正则化项;
随机初始化所述图卷积神经网络的参数
Figure SMS_211
和两个特征增强器的参数/>
Figure SMS_212
和/>
Figure SMS_213
,基于联合损失函数更新图卷积神经网络的参数/>
Figure SMS_214
Figure SMS_215
固定参数
Figure SMS_216
,基于特征增强后对比学习的损失函数,优化特征增强器的参数/>
Figure SMS_217
和/>
Figure SMS_218
Figure SMS_219
Figure SMS_220
Figure SMS_221
Figure SMS_222
为特征增强后对比学习的损失函数,/>
Figure SMS_223
和/>
Figure SMS_224
为通过反向传播更新后的编码器参数。
步骤S105:基于所述物品推荐模型,向用户推荐感兴趣的物品。
参阅图3,本实施方式中,使用广泛用于推荐的ML-1M、Amazon Books 和AlibabaiFashion三个数据集进行训练测试。
参阅图4,图4为本申请的物品推荐模型的性能指标的示意图,如图3所示,以HR@K和NDCG@K(k=10,20)作为主要的性能评价指标,可以看出本申请的物品推荐模型(表中的Meta-SSCI)在三个数据集上预测推荐的性能显著的优于其他如:Mctric、NeuMF、FISM、NGCF、MultiGCF、LightGCN、SGL和NCL等模型的性能。
实施例2
本实施例中,还提供一种基于图协同和对比学习的物品推荐模型,下面将参考图2对本申请的基于对比学习的物品推荐方法进行详细描述,包括:
结构信息建模层,通常基于GCN的协同过滤方法基于聚合方案为用户和物品生成信息表示,聚合方案可以分为两个阶段:
Figure SMS_225
/>
Figure SMS_226
Figure SMS_227
/>
Figure SMS_228
为了提高计算效率,对上述聚合方式进行简化,计算方式如下:
Figure SMS_229
其中
Figure SMS_233
是传播函数,/>
Figure SMS_234
是读出函数。/>
Figure SMS_239
和/>
Figure SMS_232
分别为第/>
Figure SMS_236
层的用户和物品的输出,/>
Figure SMS_238
和/>
Figure SMS_241
表示用户/>
Figure SMS_231
和物品/>
Figure SMS_235
的一阶邻居,/>
Figure SMS_237
和/>
Figure SMS_240
分别为第/>
Figure SMS_230
层的用户和物品的输出。
经过
Figure SMS_242
层传播,采用加权和函数作为读出函数,将各层的表示法进行组合,得到最终表示法如下:
Figure SMS_243
;/>
Figure SMS_244
其中
Figure SMS_246
是GCN层数,/>
Figure SMS_249
和/>
Figure SMS_252
是用户/>
Figure SMS_247
和物品/>
Figure SMS_250
第/>
Figure SMS_253
层的表示,/>
Figure SMS_254
和/>
Figure SMS_245
是用户/>
Figure SMS_248
和物品/>
Figure SMS_251
的最终表示。
语义信息建模层,物品的语义信息是多种多样的,包括物品类别,物品的商标和物品描述等。为了获得更全面的物品语义表示,考虑了多个属性。给定一个物品
Figure SMS_256
,其语义信息可以表示为:/>
Figure SMS_258
,其中/>
Figure SMS_261
和/>
Figure SMS_257
分别是物品
Figure SMS_259
的类别属性和商标属性的表示。此外,/>
Figure SMS_260
表示物品/>
Figure SMS_262
的文本属性表示。最后,将语义信息输入到注意力机制中,得到物品/>
Figure SMS_255
的语义信息表示,计算如下:
Figure SMS_263
其中
Figure SMS_264
是/>
Figure SMS_265
矩阵,/>
Figure SMS_266
是/>
Figure SMS_267
维向量。
对于物品的多个属性,将物品
Figure SMS_268
的语义信息表示计算为物品/>
Figure SMS_269
的属性向量表示的总和,这些表示由注意力分数加权,为了捕获数据的非线性特征,将其输入MLP,物品基于语义信息的表示如下:
Figure SMS_270
最后,用户基于语义信息的表示如下:
Figure SMS_271
其中
Figure SMS_272
表示与用户/>
Figure SMS_273
交互过的物品的语义表示。
对比学习层,结构信息和语义信息对比学习:得到基于结构信息和语义信息的用户和物品的表示后。结构信息和语义信息的对比学习计算方法如下:
Figure SMS_274
其中
Figure SMS_275
和/>
Figure SMS_276
分别表示用户/>
Figure SMS_277
基于结构信息和语义信息的表示,/>
Figure SMS_278
表示用户/>
Figure SMS_279
基于语义信息的表示,/>
Figure SMS_280
为温度参数。
Figure SMS_281
其中
Figure SMS_282
和/>
Figure SMS_283
分别表示物品/>
Figure SMS_284
基于结构信息和语义信息的表示,/>
Figure SMS_285
表示物品/>
Figure SMS_286
基于语义信息的表示。
Figure SMS_287
可学习的特征增强对比学习:使用两个MLP作为特征增强器来捕获隐藏在基于结构和语义表示中的特征级别监督信号。仅详细介绍了基于可学习特征增强的用户对比视图,物品表示可以类似地获得。
Figure SMS_288
和/>
Figure SMS_289
分别输入特征增强器,之后得到特征增强后的视图,其计算方式如下:
Figure SMS_290
Figure SMS_291
其中
Figure SMS_292
和/>
Figure SMS_293
为用户特征增强后的结构和语义信息的视图。其中/>
Figure SMS_294
和/>
Figure SMS_295
表示两个增强器的参数。
可学习模型增强的对比学习损失函数如下:
Figure SMS_296
其中
Figure SMS_297
表示用户/>
Figure SMS_298
表示特征增强后的基于语义信息表示,/>
Figure SMS_299
表示用户/>
Figure SMS_300
特征增强后的基于语义信息表示,/>
Figure SMS_301
表示用户/>
Figure SMS_302
基于语义信息的表示。/>
Figure SMS_303
为温度参数。
Figure SMS_304
其中
Figure SMS_305
表示物品/>
Figure SMS_306
表示特征增强后的基于语义信息表示,/>
Figure SMS_307
表示物品/>
Figure SMS_308
特征增强后的基于语义信息表示,/>
Figure SMS_309
表示物品/>
Figure SMS_310
特征增强后的基于语义信息的表示。
Figure SMS_311
预测层和模型优化,融合用户和物品在结构信息和语义信息方面的表示作为推荐的最终表示嵌入,并使用它们的内积向用户推荐可能感兴趣的物品。公式如下:
Figure SMS_312
其中
Figure SMS_313
是用户/>
Figure SMS_314
对物品/>
Figure SMS_315
的推荐分数。
为了捕获用户交互数据中的信息,选择常用的推荐排名函数贝叶斯个性化排名(BPR)损失作为最终的推荐损失函数。它的目标是强制用户交互的物品得分高于未交互的物品。形式上,BPR损失的目标函数如下:
Figure SMS_316
其中
Figure SMS_317
是激活函数,/>
Figure SMS_318
表示成对训练数据,/>
Figure SMS_319
表示用户/>
Figure SMS_320
与之交互的物品,/>
Figure SMS_321
表示用户/>
Figure SMS_322
未与之交互的物品。
执行基于元学习的二步更新策略来指导模型的训练,这有利于模型挖掘数据本身监督信号。整个训练过程可以分为两个阶段。
在第一阶段,随机初始化GCN的参数
Figure SMS_323
和两个特征增强器/>
Figure SMS_324
和/>
Figure SMS_325
的参数。通过等式计算推荐损失。联合推荐损失函数和对比损失函数通过来更新GCN的参数/>
Figure SMS_326
,计算方式如下:
Figure SMS_327
其中
Figure SMS_328
、/>
Figure SMS_329
和/>
Figure SMS_330
是需要调整的超参数,/>
Figure SMS_331
是正则化项。
Figure SMS_332
在第二阶段,固
Figure SMS_333
参数并针对GCN的性能优化/>
Figure SMS_334
和/>
Figure SMS_335
。计算方式如下:
Figure SMS_336
然后得到学习增强器
Figure SMS_337
和/>
Figure SMS_338
,其中/>
Figure SMS_339
和/>
Figure SMS_340
表示通过反向传播在第二阶段更新得到。
Figure SMS_341
Figure SMS_342
实施例3
本实施例中,还提供一种电子设备,包括处理器和存储器。存储器用于存储非暂时性计算机可读指令。处理器用于运行非暂时性计算机可读指令,非暂时性计算机可读指令被处理器运行时可以执行上文所述的基于图协同和对比学习的物品推荐方法的一个或多个步骤。存储器和处理器可以通过总线系统和/或其它形式的连接机构互连。
例如,处理器可以是中央处理单元(CPU)、数字信号处理器(DSP)或者具有数据处理能力和/或程序执行能力的其它形式的处理单元,例如现场可编程门阵列(FPGA)等;例如,中央处理单元(CPU)可以为X86或ARM架构等。
例如,存储器可以包括一个或多个计算机程序产品的任意组合,计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、可擦除可编程只读存储器(EPROM)、便携式紧致盘只读存储器(CD-ROM)、USB存储器、闪存等。在计算机可读存储介质上可以存储一个或多个计算机程序模块,处理器可以运行一个或多个计算机程序模块,以实现电子设备的各种功能。在计算机可读存储介质中还可以存储各种应用程序和各种数据以及应用程序使用和/或产生的各种数据等。
需要说明的是,本申请的实施例中,电子设备的具体功能和技术效果可以参考上文中关于基于图协同和对比学习的物品推荐方法的描述,此处不再赘述。
实施例4
本实施例中,还提供一种计算机可读存储介质,存储介质用于存储非暂时性计算机可读指令。例如,当非暂时性计算机可读指令由计算机执行时可以执行根据上文所述的基于图协同和对比学习的物品推荐方法中的一个或多个步骤。
例如,该存储介质可以应用于上述电子设备中。例如,存储介质可以为实施例3的电子设备中的存储器。例如,关于存储介质的相关说明可以参考实施例3的电子设备中的存储器的相应描述,此处不再赘述。
需要说明的是,本申请上述的存储介质(计算机可读介质)可以是计算机可读信号介质或者非暂时性计算机可读存储介质或者是上述两者的任意组合。非暂时性计算机可读存储介质例如可以是,但不限于,电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。非暂时性计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本申请中,非暂时性计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是非暂时性计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言,诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这根据所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等。
以上描述仅为本申请的部分实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本申请的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (10)

1.一种基于图协同和对比学习的物品推荐方法,包括:
基于用户物品交互图,使用图卷积神经网络获取用户的结构表示和物品的结构表示;
基于用户物品的语义信息,使用注意力机制和多层感知机获取用户的语义表示和物品的语义表示;
分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,并确定损失函数;
基于所述损失函数,进行迭代训练生成用户物品推荐模型;
基于所述物品推荐模型,向用户推荐感兴趣的物品。
2.根据权利要求1所述的基于图协同和对比学习的物品推荐方法,其特征在于, 所述使用图卷积神经网络获取用户的结构表示和物品的结构表示包括:
采用如下公式计算图卷积神经网络每一层输出的用户的结构表示和物品的结构表示:
Figure QLYQS_1
Figure QLYQS_2
其中,
Figure QLYQS_4
和/>
Figure QLYQS_8
分别为图卷积神经网络第/>
Figure QLYQS_10
层输出的用户的结构表示和物品的结构表示,/>
Figure QLYQS_5
和/>
Figure QLYQS_7
表示用户/>
Figure QLYQS_11
和物品/>
Figure QLYQS_12
的一阶邻居,/>
Figure QLYQS_3
和/>
Figure QLYQS_6
分别为图卷积神经网络第/>
Figure QLYQS_9
层的用户的结构表示和物品的结构表示;
采用如下公式计算图卷积神经网络最终输出的用户的结构表示和物品的结构表示:
Figure QLYQS_13
Figure QLYQS_14
其中,其中
Figure QLYQS_17
是图卷积神经网络的总层数,/>
Figure QLYQS_19
和/>
Figure QLYQS_21
为用户/>
Figure QLYQS_16
和物品/>
Figure QLYQS_18
在图卷积神经网络的第/>
Figure QLYQS_23
层的结构表示,/>
Figure QLYQS_24
和/>
Figure QLYQS_15
是用户/>
Figure QLYQS_20
和物品/>
Figure QLYQS_22
经图卷积神经网络后的结构表示。
3.根据权利要求1所述的基于图协同和对比学习的物品推荐方法,其特征在于,所述使用注意力机制和多层感知机获取用户的语义表示和物品的语义表示的步骤,采用如下公式:
Figure QLYQS_25
Figure QLYQS_26
;/>
Figure QLYQS_27
其中,
Figure QLYQS_31
,/>
Figure QLYQS_32
和/>
Figure QLYQS_44
分别是物品/>
Figure QLYQS_30
的类别属性和商标属性的向量化,/>
Figure QLYQS_41
是物品/>
Figure QLYQS_36
的文本属性的向量化,/>
Figure QLYQS_42
是物品/>
Figure QLYQS_38
的特征向量;/>
Figure QLYQS_48
是/>
Figure QLYQS_28
矩阵,/>
Figure QLYQS_39
是/>
Figure QLYQS_33
维向量;/>
Figure QLYQS_43
为多层感知机;/>
Figure QLYQS_34
是物品/>
Figure QLYQS_47
的语义表示,/>
Figure QLYQS_35
是用户/>
Figure QLYQS_45
的语义表示,/>
Figure QLYQS_37
为用户/>
Figure QLYQS_46
交互过的第t个物品的语义表示,/>
Figure QLYQS_29
为用户/>
Figure QLYQS_40
交互过的物品的总数。
4.根据权利要求1所述的基于图协同和对比学习的物品推荐方法,其特征在于,所述分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数的步骤,包括:所述确定损失函数包括:
采用如下公式在特征增强前对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定特征增强前对比学习的损失函数:
Figure QLYQS_49
Figure QLYQS_50
Figure QLYQS_51
其中,
Figure QLYQS_54
是特征增强前对比学习的损失函数,/>
Figure QLYQS_59
是特征增强前物品的结构表示和物品的语义表示进行对比学习的损失函数,/>
Figure QLYQS_63
是特征增强前用户的结构表示和用户的语义表示进行对比学习的损失函数,/>
Figure QLYQS_53
和/>
Figure QLYQS_56
分别是用户/>
Figure QLYQS_62
的结构标识和语义表示,/>
Figure QLYQS_64
和/>
Figure QLYQS_52
分别表示物品/>
Figure QLYQS_57
的结构表示和语义表示,/>
Figure QLYQS_61
表示物品/>
Figure QLYQS_65
的语义表示,/>
Figure QLYQS_55
表示用户/>
Figure QLYQS_58
的语义表示,/>
Figure QLYQS_60
为温度参数,N为物品总数,M为用户总数。
5.根据权利要求1所述的基于图协同和对比学习的物品推荐方法,其特征在于,所述分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数的步骤,包括:
采用如下公式在特征增强后对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定特征增强后对比学习的损失函数:
Figure QLYQS_66
;/>
Figure QLYQS_67
Figure QLYQS_68
其中,
Figure QLYQS_69
是特征增强后对比学习的损失函数,/>
Figure QLYQS_70
是特征增强后物品的结构表示和物品的语义表示进行对比学习的损失函数,/>
Figure QLYQS_71
是特征增强后用户的结构表示和用户的语义表示进行对比学习的损失函数。
6.根据权利要求4或5所述的基于图协同和对比学习的物品推荐方法,其特征在于,所述特征增强,包括:
使用两个多层感知机作为特征增强器,分别对用户的结构表示和用户的语义表示进行特征增强,采用如下公式:
Figure QLYQS_72
Figure QLYQS_73
其中,
Figure QLYQS_74
和/>
Figure QLYQS_75
为特征增强后的用户/>
Figure QLYQS_76
的结构表示和语义表示,/>
Figure QLYQS_77
和 />
Figure QLYQS_78
表示两个特征增强器的参数。
7.根据权利要求1所述的基于图协同和对比学习的物品推荐方法,其特征在于,所述分别对所述用户的结构表示和用户的语义表示,物品的结构表示和物品的语义表示进行对比学习,确定损失函数的步骤,包括:
基于用户的结构表示和语义表示,物品的结构表示和语义表示,确定用户对物品的推荐分数和推荐损失函数,所述用户对物品的推荐分数和推荐损失函数采用如下公式:
Figure QLYQS_79
其中,
Figure QLYQS_81
,/>
Figure QLYQS_85
是物品推荐模型对用户/>
Figure QLYQS_87
和物品/>
Figure QLYQS_82
的推荐分数,/>
Figure QLYQS_83
是激活函数,/>
Figure QLYQS_86
表示成对训练数据,/>
Figure QLYQS_89
表示用户/>
Figure QLYQS_80
与之交互的物品,/>
Figure QLYQS_84
表示用户/>
Figure QLYQS_88
未与之交互的物品。
8.根据权利要求7所述的基于图协同和对比学习的物品推荐方法,其特征在于,所述基于所述损失函数,进行迭代训练生成物品推荐模型的步骤,包括:
基于特征增强前对比学习的损失函数、特征增强后对比学习的损失函数和推荐损失函数,构建联合损失函数,所述联合损失函数采用如下公式:
Figure QLYQS_90
其中,
Figure QLYQS_91
为联合损失函数,/>
Figure QLYQS_92
、/>
Figure QLYQS_93
和/>
Figure QLYQS_94
是需要调整的超参数,/>
Figure QLYQS_95
是正则化项;
随机初始化所述图卷积神经网络的参数
Figure QLYQS_96
和两个特征增强器的参数/>
Figure QLYQS_97
和/>
Figure QLYQS_98
,基于所述联合损失函数更新图卷积神经网络的参数/>
Figure QLYQS_99
Figure QLYQS_100
固定参数
Figure QLYQS_101
,基于特征增强后对比学习的损失函数,优化特征增强器的参数/>
Figure QLYQS_102
和/>
Figure QLYQS_103
Figure QLYQS_104
Figure QLYQS_105
Figure QLYQS_106
Figure QLYQS_107
为特征增强后对比学习的损失函数,/>
Figure QLYQS_108
和/>
Figure QLYQS_109
为通过反向传播更新后的编码器参数。
9.一种电子设备,其特征在于,包括:
处理器;
存储器,其上存储有一个或多个在所述处理器上运行的计算机程序指令;
其中,所述处理器运行所述计算机指令时,执行权利要求1-8任一项所述的基于图协同和对比学习的物品推荐方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机指令,当计算机指令被处理器运行时,执行权利要求1-8任一项所述的基于图协同和对比学习的物品推荐方法的步骤。
CN202310451106.2A 2023-04-25 2023-04-25 一种基于图协同和对比学习的物品推荐方法 Active CN116167828B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310451106.2A CN116167828B (zh) 2023-04-25 2023-04-25 一种基于图协同和对比学习的物品推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310451106.2A CN116167828B (zh) 2023-04-25 2023-04-25 一种基于图协同和对比学习的物品推荐方法

Publications (2)

Publication Number Publication Date
CN116167828A true CN116167828A (zh) 2023-05-26
CN116167828B CN116167828B (zh) 2023-07-25

Family

ID=86416721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310451106.2A Active CN116167828B (zh) 2023-04-25 2023-04-25 一种基于图协同和对比学习的物品推荐方法

Country Status (1)

Country Link
CN (1) CN116167828B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117131282A (zh) * 2023-10-26 2023-11-28 江西财经大学 融合层注意力机制的多视角图对比学习推荐方法与系统

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113722603A (zh) * 2021-11-02 2021-11-30 阿里巴巴达摩院(杭州)科技有限公司 对象推送方法、产品推送方法、计算机终端及存储介质
CN114038517A (zh) * 2021-08-25 2022-02-11 暨南大学 一种基于对比学习的自监督图神经网络预训练方法
CN114036405A (zh) * 2021-11-02 2022-02-11 扬州大学 一种基于图卷积网络的社交推荐方法与系统
CN114723522A (zh) * 2022-03-31 2022-07-08 合肥工业大学 一种面向评论文本的图神经网络推荐方法
CN114817712A (zh) * 2022-04-15 2022-07-29 华南理工大学 一种基于多任务学习和知识图谱增强的项目推荐方法
CN115082142A (zh) * 2022-05-10 2022-09-20 华南理工大学 一种基于异构关系图神经网络的推荐方法、装置及介质
CN115544379A (zh) * 2022-05-11 2022-12-30 江苏亿友慧云软件股份有限公司 基于四元数图卷积神经网络的推荐方法和装置
CN115659059A (zh) * 2022-05-11 2023-01-31 江苏亿友慧云软件股份有限公司 基于图对比学习的推荐模型训练方法和装置
CN115935067A (zh) * 2022-12-12 2023-04-07 合肥工业大学 面向社会化推荐的语义与结构视图融合的物品推荐方法
CN115982480A (zh) * 2023-02-13 2023-04-18 山东师范大学 基于协同注意力网络和对比学习的序列推荐方法及系统
CN115982467A (zh) * 2023-01-03 2023-04-18 华南理工大学 一种去偏化用户多兴趣推荐方法、装置及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114038517A (zh) * 2021-08-25 2022-02-11 暨南大学 一种基于对比学习的自监督图神经网络预训练方法
CN113722603A (zh) * 2021-11-02 2021-11-30 阿里巴巴达摩院(杭州)科技有限公司 对象推送方法、产品推送方法、计算机终端及存储介质
CN114036405A (zh) * 2021-11-02 2022-02-11 扬州大学 一种基于图卷积网络的社交推荐方法与系统
CN114723522A (zh) * 2022-03-31 2022-07-08 合肥工业大学 一种面向评论文本的图神经网络推荐方法
CN114817712A (zh) * 2022-04-15 2022-07-29 华南理工大学 一种基于多任务学习和知识图谱增强的项目推荐方法
CN115082142A (zh) * 2022-05-10 2022-09-20 华南理工大学 一种基于异构关系图神经网络的推荐方法、装置及介质
CN115544379A (zh) * 2022-05-11 2022-12-30 江苏亿友慧云软件股份有限公司 基于四元数图卷积神经网络的推荐方法和装置
CN115659059A (zh) * 2022-05-11 2023-01-31 江苏亿友慧云软件股份有限公司 基于图对比学习的推荐模型训练方法和装置
CN115935067A (zh) * 2022-12-12 2023-04-07 合肥工业大学 面向社会化推荐的语义与结构视图融合的物品推荐方法
CN115982467A (zh) * 2023-01-03 2023-04-18 华南理工大学 一种去偏化用户多兴趣推荐方法、装置及存储介质
CN115982480A (zh) * 2023-02-13 2023-04-18 山东师范大学 基于协同注意力网络和对比学习的序列推荐方法及系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
DING ZOU 等: "Multi-level Cross-view Contrastive Learning for Knowledge-aware Recommender System", ARXIV:2204.08807V1, pages 1 - 11 *
HAO TANG 等: "Multi-Sample based Contrastive Loss for Top-k Recommendation", ARXIV:2109.00217V1, pages 1 - 12 *
YAXING FANG 等: "Quaternion-Based Graph Convolution Network for Recommendation", ARXIV:2111.10536V1, pages 1 - 13 *
吴玺煜 等: "基于知识图谱表示学习的协同过滤推荐算法", 计算机工程 *
杨佳莉 等: "一种自适应的混合协同过滤推荐算法", 《计算机工程》, vol. 45, no. 7, pages 222 - 228 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117131282A (zh) * 2023-10-26 2023-11-28 江西财经大学 融合层注意力机制的多视角图对比学习推荐方法与系统
CN117131282B (zh) * 2023-10-26 2024-01-05 江西财经大学 融合层注意力机制的多视角图对比学习推荐方法与系统

Also Published As

Publication number Publication date
CN116167828B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
US20220058489A1 (en) Two-headed attention fused autoencoder for context-aware recommendation
Kim et al. Deep hybrid recommender systems via exploiting document context and statistics of items
US8433670B2 (en) System and method for recommending items in multi-relational environments
CN113987200B (zh) 神经网络结合知识图谱的推荐方法、系统、终端、介质
CN112487278A (zh) 推荐模型的训练方法、预测选择概率的方法及装置
CN111242729A (zh) 一种基于长短期兴趣的序列化推荐方法
CN111340509A (zh) 一种虚假交易识别方法、装置及电子设备
CN113256367B (zh) 用户行为历史数据的商品推荐方法、系统、设备及介质
EP4120138B1 (en) System and method for molecular property prediction using hypergraph message passing neural network (hmpnn)
CN112308650B (zh) 推荐理由生成方法、装置、设备及存储介质
CN116167828B (zh) 一种基于图协同和对比学习的物品推荐方法
CN108921566A (zh) 一种基于图结构模型的虚假交易识别方法和装置
CN113168576A (zh) 逐边学习属性图表示
US20230037388A1 (en) System and method for molecular property prediction using hypergraph message passing neural network (hmpnn)
US20220215159A1 (en) Sentence paraphrase method and apparatus, and method and apparatus for training sentence paraphrase model
US20240135174A1 (en) Data processing method, and neural network model training method and apparatus
Bali et al. R: Unleash machine learning techniques
CN116401542A (zh) 一种多意图多行为解耦推荐方法及装置
CN117217284A (zh) 一种数据处理方法及其装置
CA3204121A1 (en) Recommendation with neighbor-aware hyperbolic embedding
Lee et al. Massively parallel motion planning algorithms under uncertainty using POMDP
CN112243509A (zh) 从异构源生成数据集用于机器学习的系统和方法
Zhang et al. Dense-CNN: Dense convolutional neural network for stereo matching using multiscale feature connection
Liu et al. Hands-On Deep Learning Architectures with Python: Create deep neural networks to solve computational problems using TensorFlow and Keras
CN113269603A (zh) 面向推荐系统的时空图卷积方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant