CN108874914B - 一种基于图卷积与神经协同过滤的信息推荐方法 - Google Patents

一种基于图卷积与神经协同过滤的信息推荐方法 Download PDF

Info

Publication number
CN108874914B
CN108874914B CN201810533975.9A CN201810533975A CN108874914B CN 108874914 B CN108874914 B CN 108874914B CN 201810533975 A CN201810533975 A CN 201810533975A CN 108874914 B CN108874914 B CN 108874914B
Authority
CN
China
Prior art keywords
user
matrix
article
item
scoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810533975.9A
Other languages
English (en)
Other versions
CN108874914A (zh
Inventor
杨博
陈贺昌
江原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201810533975.9A priority Critical patent/CN108874914B/zh
Publication of CN108874914A publication Critical patent/CN108874914A/zh
Application granted granted Critical
Publication of CN108874914B publication Critical patent/CN108874914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于图卷积与神经协同过滤的信息推荐方法,结合图卷积神经网络模型的优点,能够通过直观的方式对多种信息进行融合处理,不仅能够接收用户的特征信息,而且能够接收用户的属性信息,对稀疏的评分数据有较好的推荐性能;另外使用了多种技巧对模型的输入与参数进行优化建模,克服了可能遇到的细节问题。另外,由于引入非线性的基于神经网络的协同过滤方法作为模型的解码器部分,能够很好的利用图卷积编码器输出的用户和物品编码,通过end‑to‑end的模型,所有过程都是运行在同一框架下,不需分别训练。经过输入数据的处理和模型的训练与预测,可以得到完整的评分预测矩阵。

Description

一种基于图卷积与神经协同过滤的信息推荐方法
技术领域
本发明涉及信息推荐技术领域,尤其涉及一种基于图卷积与神经协同过滤的信息推荐方法。
背景技术
由于网络上许多在线服务可以给予用户丰富的选择,提供高精确度与个性化的推荐结果一直被普遍认为是互联网中许多重要应用的基石,例如在娱乐、购物、学术领域应用机器学习方法的推荐系统(RS,RecommenderSystem)。对于个体而言,使用推荐系统允许用户以更有效的方式获取和利用信息。除此之外,许多公司已经广泛地使用推荐系统的技术,通过主动地推荐产品或服务来定位目标用户。随着近年来各种机器学习技术与数据挖掘技术在大数据处理领域中不断取得进展,推荐系统中使用的智能方法也一直在进步。
推荐系统的主要目标是主动地根据用户的偏好提供有价值并且有针对性的信息。协同过滤(CF,Collaborative filtering)是推荐算法中比较成功的一种途径。然而,基于协同过滤的方法在性能上通常受到冷启动和数据稀疏性的限制。为了解决这些问题,使用辅助信息如文本内容信息或社交网络信息是一种非常有潜力的方向。近年来许多基于深度学习的方法尝试融合辅助信息进行推荐,相对传统方法取得了性能上的提高,但是很少有模型能够处理图结构信息。现有基于图卷积的协同过滤工作仍旧基于传统的矩阵分解方法,使用线性内积计算的方法组合编码向量,通过这种方式预测评分也会导致推荐性能的降低。而现有的非线性神经协同过滤(NCF,NEURAL COLLABORATIVE FILTERING),虽然使用非线性的神经网络进行协同过滤过程,但是模型的推荐过程中没有考虑辅助信息,因此不能很好地利用辅助信息与评分信息对未知评分进行预测。以上问题都对推荐系统模型的发展产生了制约。
发明内容
针对上述缺陷或不足,本发明的目的在于提供一种基于图卷积与神经协同过滤的信息推荐方法,在推荐算法中融合关于用户和物品不同种类的辅助信息,以加强评分预测性能。
为达到以上目的,本发明的技术方案为:
一种基于图卷积与神经协同过滤的信息推荐方法,包括以下步骤:
1)、获取用户与物品之间的评分信息以及用户与物品的特征,根据用户与物品之间的评分信息构建用户-物品的评分矩阵;
2)、对用户-物品的交互矩阵进行处理,得到用户-用户邻接矩阵以及物品-物品邻接矩阵;
3)、以用户-用户邻接矩阵与物品-物品邻接矩阵、以及用户与物品的特征为图卷积编码器的输入,通过图卷积编码器计算用户编码矩阵以及计算物品编码矩阵;
4)、将用户编码矩阵以及计算物品编码矩阵作为神经网络解码器的输入,经过多层神经网络后得到预测的评分矩阵;
5)、根据得到预测的评分矩阵评分的高低,向用户推送信息。
所述步骤2)具体为:
2.1、获取用户-物品评分矩阵R;
2.2、生成一个元素全为0的M×M矩阵Pr,生成一个元素全为0的N×N矩阵Qr
2.3、使用集合{j|用户j与用户i同时评价过相同物品且评分为r}中所有j填充第i行矩阵,令Pr,ij=1;
2.4、使用集合{j|物品j与物品i同时被相同用户评价过且评分为r}中所有j填充第i行矩阵,令Qr,ij=1
2.5、循环步骤2.3至2.4,直到填充结束,得到|rmax|个用户-用户邻接矩阵与|rmax|个物品-物品邻接矩阵,即|rmax|对用户-用户邻接图与物品-物品邻接图。
所述步骤3)具体为:
3.1、为每个评分级别分配转换规则,关于用户i′到用户i关于边i′→i的消息可以通过如下方式获得:
Figure GDA0001726171680000031
上式中cii′为归一化常量,值可为
Figure GDA0001726171680000032
或者
Figure GDA0001726171680000033
其中
Figure GDA0001726171680000034
表示节点i的邻居集合;
Figure GDA0001726171680000035
是一个关于r∈{1,...,rmax}的用户卷积权值参数矩阵,xi′是节点i′的特征矩阵;
3.2、关于物品j′到物品j关于边j′→j的消息:
Figure GDA0001726171680000036
上式中,cjj'为归一化常量,参数与用户-用户消息中的定义相同;
3.3、在消息传递的步骤之后,需要将每个用户或物品节点关于的r的所有邻居节点
Figure GDA0001726171680000037
Figure GDA0001726171680000038
输入的消息μ累加,具体操作为顺序地把所有消息累加为一个单一的特征表示:
对于用户i,有
Figure GDA0001726171680000039
对于物品j,有
Figure GDA00017261716800000310
其中accum(·)表示累加操作,可以是堆叠操作stack(·),即对多个进行连接操作变成一个向量或者沿着矩阵的第一维进行操作;或者sum(·),即对所有消息进行求和操作;σ(·)则代表一个逐元素的激活函数,为RELU(·)=max(0,·)或其他形式;
3.4、将模型中间输出hi,hj进行转化:
对用户编码,计算公式为ui=σ(Wuhi),
对物品编码,计算公式为vj=σ(Wvhj)。
3.5、得到用户编码矩阵U和物品编码矩阵V。
所述步骤4)具体为:
4.1使用神经网络替代内积对用户和-物品的交互进行建模,模型中MF层与MLP层使用编码相同的输入,但是处理数据的方式不同,分别为相乘和连接;
4.2、模型中GMF为传统矩阵分解层,输出计算函数为ui⊙vj,其中ui和vj分别为用户i经过编码的特征向量与物品j经过编码的特征向量,⊙为向量逐元素相乘操作,MLP层为多层感知机层,输出结果为
Figure GDA0001726171680000041
其中a、W与b为网络的权重向量;
4.3、将两种不同的神经网络编码层分开学习编码,把最后一个隐藏层连接,神经矩阵分解模型的数学形式如下所示:
Figure GDA0001726171680000042
Figure GDA0001726171680000043
Figure GDA0001726171680000044
其中,
Figure GDA0001726171680000045
Figure GDA0001726171680000046
分别为用户i与物品j经过GMF编码的部分,
Figure GDA0001726171680000047
Figure GDA0001726171680000048
分别为用户i与物品j经过MLP编码的部分;MLP层间使用RELU作为激活函数,输出使用Logistic或者Probit函数把最后一层的输出向量转化为0到1之间的预测评分
Figure GDA0001726171680000049
则损失函数如下所示:
Figure GDA0001726171680000051
其中,Y为用户-物品评分矩阵R中观测到的用户交互,Y-为全部或者采样的未观测数据。
与现有技术比较,本发明的有益效果为:
本发明提供了一种基于图卷积与神经协同过滤的信息推荐方法,结合图卷积神经网络模型的优点,能够通过直观的方式对多种信息进行融合处理,不仅能够接收用户的特征信息,而且能够接收用户的属性信息,对稀疏的评分数据有较好的推荐性能;另外使用了多种技巧对模型的输入与参数进行优化建模,克服了可能遇到的细节问题。另外,由于引入非线性的基于神经网络的协同过滤方法作为模型的解码器部分,能够很好的利用图卷积编码器输出的用户和物品编码,通过end-to-end的模型,所有过程都是运行在同一框架下,不需分别训练。经过输入数据的处理和模型的训练与预测,可以得到完整的评分预测矩阵。在实际环境中,服务提供商可以通过评分的高低并与其他因素共同考虑,决定是否向用户推送特定的信息,大大提高了消息的、推荐有效性,并且提高运算效率。进一步地,此模型不仅可以接收多种信息作为输入,充分挖掘不同信息源的特点,并且能用克服非线性矩阵分解方法的缺点,使用神经网络进行协同过滤以得到高效、快速收敛、准确率高的模型。
附图说明
图1是本发明基于图卷积与神经协同过滤的信息推荐方法流程图;
图2是本发明的基于图卷积模型的自动编码器评分矩阵链接预测图;
图3是本发明的神经网络矩阵分解模型。
具体实施方式
下面将结合附图对本发明做详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1所示,本申请提供了一种基于图卷积与神经协同过滤的信息推荐方法,包括以下步骤:
1)、获取用户与物品之间的评分信息以及用户与物品的特征,根据用户与物品之间的评分信息构建用户-物品的评分矩阵;
用户-物品评分矩阵R中的元素rij为观测到的评分(用户i对物品j的评分,值为在合法的离散评分值集合{1,...,rmax}中的某个值),或者表示这个评分未被观测记录(不可见评分,此时该元素值为0)。预测评分矩阵R中未评分元素的值的过程可以看作一项完成矩阵填充或者推荐的任务。
由于图卷积模型接收的输入之一是一个图结构数据,所以矩阵填充或者推荐的问题可以转化为在一个用户-物品交互的二部图中进行链接预测的问题。更进一步,交互数据可以表示为一个无向图G=(Ω,E,R),其中Ω=U∪V为节点集合,包含用户节点ui∈U(i∈{1,...,M})与物品集合vj∈V(j∈{1,...,N})。图中的边(ui,r,vj)∈E携带着表示原始评分级别的标签信息,此时这条边中的r值为rij∈{1,...,rmax},rmax是评分矩阵中最大的评分取值。
按照图卷积的思想,用户的特征应该由用户自身的特征与该用户的邻居用户的特征聚合而来,但是评分矩阵转化而来的二部图每条边连接的是用户与物品,无法直接作用户信息聚合操作,关于物品的情况也是如此。因此,本文需要对模型的输入评分矩阵进行处理,使之转化为用户-用户邻接矩阵P与物品-物品邻接矩阵Q两个连接同类型节点的矩阵,即同质网络。另外,由于评分矩阵的值是大于等于零的离散数值,转化为图的链接预测时,模型的输出数据应该是预测出的连接,此时矩阵中应该只有0(无边)或者1(有边)两种取值,所以在模型输入处理时,需要将评分矩阵转化为|rmax|个0-1矩阵
2)、对用户-物品的交互矩阵进行处理,得到用户-用户邻接矩阵以及物品-物品邻接矩阵;
具体为:
2.1、获取用户-物品评分矩阵R;
2.2、生成一个元素全为0的M×M矩阵Pr,生成一个元素全为0的N×N矩阵Qr
2.3、使用集合{j|用户j与用户i同时评价过相同物品且评分为r}中所有j填充第i行矩阵,令Pr,ij=1;
2.4、使用集合{j|物品j与物品i同时被相同用户评价过且评分为r}中所有j填充第i行矩阵,令Qr,ij=1
2.5、循环步骤2.3至2.4,直到填充结束,得到|rmax|个用户-用户邻接矩阵与|rmax|个物品-物品邻接矩阵,即|rmax|对用户-用户邻接图与物品-物品邻接图。
具体算法为:
输入矩阵的处理算法:
输入:用户-物品评分矩阵R;
输出:|rmax|个用户-用户邻接矩阵与|rmax|个物品-物品邻接矩阵;
1.BEGIN
2.FORr=1 TO|rmax|,进行以下循环
3.生成一个元素全为0的M×M矩阵Pr,生成一个元素全为0的N×N矩阵Qr
4.FORi=1TOM,对Pr矩阵第i行进行填充
5.使用集合{j|用户j与用户i同时评价过相同物品且评分为r}中所有j填充第i行矩阵,令Pr,ij=1
6.END FOR
7.FORi=1TON,对Qr矩阵第i行进行填充
8.使用集合{j|物品j与物品i同时被相同用户评价过且评分为r}中所有j填充第i行矩阵,令Qr,ij=1
9.ENDFOR
10.End FOR
11.输出所有处理完毕的邻接矩阵
得到|rmax|个用户-用户邻接矩阵与|rmax|个物品-物品邻接矩阵,即|rmax|对用户-用户邻接图与物品-物品邻接图。
3)、以用户-用户邻接矩阵与物品-物品邻接矩阵、以及用户与物品的特征为图卷积编码器的输入,通过图卷积编码器计算用户编码矩阵以及计算物品编码矩阵;
本发明用的图自动编码器由两个部分组成:1)一个图编码模型Z=f(X,A),接收一个NA×D的特征矩阵X和一个图邻接矩阵A,输出一个NA×K的节点编码矩阵
Figure GDA0001726171680000081
2)一个成对解码模型
Figure GDA0001726171680000082
该模型接收一对节点编码的(zi,zj)然后预测关于(i,j)在邻接矩阵中的连接
Figure GDA0001726171680000083
的值。其中NA为图中节点的个数,D是输入特征的维度,K是编码后的维度。
如图2所示,评分矩阵R中的元素代表用户与物品的交互(评分为1到5之间)或未观察到的评分(0)。评分矩阵可直接表示为一个无向评分连接图G=(Ω,E,R),每条边代表一个用户与物品的交互事件,边上的数字代表用户对特定物品给予的评分。评分矩阵填充的任务(即预测未观察到的用户-物品交互)可以转化为一个链接预测问题并且可以通过一个end-to-end的可训练图自动编码器建模。
对评分矩阵执步骤2)处理过程,可以得到图编码器的输入用户-用户与物品-物品邻接图,则编码器可以改写成:
Figure GDA0001726171680000084
其中
Figure GDA0001726171680000085
为关于一个特定评分值r∈{1,...,rmax}的用户-用户邻接矩阵,
Figure GDA0001726171680000091
为关于一个特定评分值r∈{1,...,rmax}的物品-物品邻接矩阵,
Figure GDA0001726171680000092
Figure GDA0001726171680000093
矩阵中值为1的位置对应着初始评分矩阵中值为r的位置,这些邻接矩阵可由表3.1中处理过程得到。U和V分别是一个形如N×K的用户特征编码矩阵与一个形如M×K的物品特征编码矩阵。对特定的用户i(物品j)来说,它的特征以实值向量Ui,:(Vj,:)表示。
具体为:
3.1、为每个评分级别分配转换规则,关于用户i′到用户i关于边i′→i的消息可以通过如下方式获得:
Figure GDA0001726171680000094
上式中cii′为归一化常量,值可为
Figure GDA0001726171680000095
或者
Figure GDA0001726171680000096
其中
Figure GDA0001726171680000097
表示节点i的邻居集合;
Figure GDA0001726171680000098
是一个关于r∈{1,...,rmax}的用户卷积权值参数矩阵,xi′是节点i′的特征矩阵;
3.2、关于物品j′到物品j关于边j′→j的消息:
Figure GDA0001726171680000099
上式中,cjj'为归一化常量,参数与用户-用户消息中的定义相同;
3.3、在消息传递的步骤之后,需要将每个用户或物品节点关于的r的所有邻居节点
Figure GDA00017261716800000910
Figure GDA00017261716800000911
输入的消息μ累加,具体操作为顺序地把所有消息累加为一个单一的特征表示:
对于用户i,有
Figure GDA00017261716800000912
对于物品j,有
Figure GDA00017261716800000913
其中accum(·)表示累加操作,可以是堆叠操作stack(·),即对多个进行连接操作变成一个向量或者沿着矩阵的第一维进行操作;或者sum(·),即对所有消息进行求和操作;σ(·)则代表一个逐元素的激活函数,为RELU(·)=max(0,·)或其他形式;
3.4、将模型中间输出hi,hj进行转化:
对用户编码,计算公式为ui=σ(Wuhi),
对物品编码,计算公式为vj=σ(Wvhj)。
3.5、得到用户编码矩阵U和物品编码矩阵V。
由以上过程可以发现,用户的编码过程与物品的编码过程类似,主要区别是输入的邻接矩阵节点类型不同,对于关于用户和关于物品的辅助信息使用不同的参数矩阵W计算用户编码ui和物品编码vi。hi与hj的计算过程在图卷积神经网络模型中对应一个图卷积层,而用户编码ui和物品编码vj的计算过程对应一个全连接层。需要注意的是,通过任意方式堆叠多个网络层可以构建一个更深的神经网络模型。
在实际环境中,可以使用高效的稀疏矩阵相乘操作进行编码计算,此时实现图卷积编码器的计算复杂度与网络中边的条数线性相关(即为Ο(E))。图卷积编码器在左归一化的设置下,可以转换成以下向量表示:
Figure GDA0001726171680000101
Figure GDA0001726171680000102
Figure GDA0001726171680000103
上式中计算Hu与Hv的过程也可以替换为连接操作。其中D表示关于节点度的对角矩阵,矩阵中非零元素
Figure GDA0001726171680000104
关于对称归一化的向量化计算过程也是可以通过类似的方式写出。需要注意的是,如果使用批量梯度下降的方法,只需要计算本批数据在
Figure GDA0001726171680000105
中观察到的元素,关于批量梯度下降的讨论留到3.4节详细展开。
另外应该讨论的是,输入网络中每个节点都含有特征信息,例如文本信息,这些信息可以直接在输入级别作为图自动编码器的输入(即以输入特征矩阵X的形式存在)。然而,当文本信息不能携带足够区分不同用户(或物品)和他们的兴趣的信息时,直接把文本信息输入图卷积中会导致信息流中严重的性能瓶颈。基于这种情况,可以通过分离的处理通道把以用户或物品特征向量
Figure GDA0001726171680000115
形式存在的辅助信息送入到全连接隐藏层之中:
Figure GDA0001726171680000111
Figure GDA0001726171680000112
其中W1 f
Figure GDA0001726171680000113
是可训练的权重矩阵,b是偏移量。用户和物品具有不同的权重矩阵和偏移量。在这种情况下,图卷积层的输入特征矩阵
Figure GDA0001726171680000114
中包含的节点属性应该设置为单位矩阵,即图中每个节点带有一个one-hot向量。对于本文中第4章中使用的数据集来说,用户(物品)的文本信息具有有限的维度大小,所以计算过程中可以选择根据以上公式来引入辅助信息。
需要注意的是,辅助信息并不一定需要以每个节点的特征向量的形式存在,而是能够以图结构、自然语言处理、图片数据的形式存在。在这种情形下,上式中的全连接层可以被其他合适的模块替换,如递归神经网络、卷积神经网络或者另一个图卷积网络。
4)、将用户编码矩阵以及计算物品编码矩阵作为神经网络解码器的输入,经过多层神经网络后得到预测的评分矩阵;
神经协同过滤NEURAL COLLABORATIVE FILTERING(NCF),通过利用深度神经网络来学习用户-物品交互以解决传统矩阵分解方法的缺陷。利用深度学习可以逼近任意连续函数的优点,可以使用神经网络替代内积对用户和-物品的交互进行建模,框架结构如图3所示,所述步骤4)具体为:
4.1使用神经网络替代内积对用户和-物品的交互进行建模,模型中MF层与MLP层使用编码相同的输入,但是处理数据的方式不同,分别为相乘和连接;这种方式可以视为使用两个数据通路通过两种方法提取数据,在最后一层合并时再提取一次有用信息,这是解码器部分与GC-MC等使用线性解码器进行协同过滤的模型除了非线性与深度之外的一个主要不同点
4.2、模型中GMF为传统矩阵分解层,输出计算函数为ui⊙vj,其中ui和vj分别为用户i经过编码的特征向量与物品j经过编码的特征向量,⊙为向量逐元素相乘操作,MLP层为多层感知机层,输出结果为
Figure GDA0001726171680000121
其中a、W与b为网络的权重向量;
4.3、将两种不同的神经网络编码层分开学习编码,把最后一个隐藏层连接,神经矩阵分解模型的数学形式如下所示:
Figure GDA0001726171680000122
Figure GDA0001726171680000123
Figure GDA0001726171680000124
其中,
Figure GDA0001726171680000125
Figure GDA0001726171680000126
分别为用户i与物品j经过GMF编码的部分,
Figure GDA0001726171680000127
Figure GDA0001726171680000128
分别为用户i与物品j经过MLP编码的部分;MLP层间使用RELU作为激活函数,输出使用Logistic或者Probit函数把最后一层的输出向量转化为0到1之间的预测评分
Figure GDA0001726171680000129
则损失函数如下所示:
Figure GDA00017261716800001210
其中,Y为用户-物品评分矩阵R中观测到的用户交互,Y-为全部或者采样的未观测数据。
5)、根据得到预测的评分矩阵评分的高低,向用户推送信息。
模型GCNCF计算过程为:
本文提出的GCNCF模型计算过程:
输入:M×N维的用户-物品评分矩阵R,用户与物品的特征X;
输出:M×N维的预测用户-物品评分矩阵
Figure GDA0001726171680000131
与损失函数值Loss;
1.BEGIN
2.按照表3.1中方法将输入评分矩阵R转换为用户-用户邻接矩阵与物品-物品邻接矩阵
Figure GDA0001726171680000132
与用户与物品的特征X共同作为图卷积编码器的输入
3.WHILE训练未到达终止条件
4.使用图卷积编码器计算用户编码矩阵U
5.使用图卷积编码器计算物品编码矩阵V
6.将编码矩阵U和V作为神经网络解码器的输入,经过多层神经网络后得到预测的评分矩阵
7.计算预测的评分矩阵
Figure GDA0001726171680000133
与真实评分矩阵R的误差损失
8.通过梯度下降更新网络参数
9.ENDWHILE
10.输出预测的评分矩阵
Figure GDA0001726171680000134
11.输出计算过程的损失值Loss变化情况
12.END
本文提出的算法框架能够通过图卷积自动编码器融合用户-物品评分矩阵与辅助信息进行编码,然后使用基于神经网络的矩阵分解方法实现非线性解码器计算预测的评分矩阵。
经过输入数据的处理和模型的训练与预测,可以得到完整的评分预测矩阵
Figure GDA0001726171680000135
在实际环境中,服务提供商可以通过评分的高低并与其他因素共同考虑,决定是否向用户推送特定的信息。
对于本领域技术人员而言,显然能了解到上述具体事实例只是本发明的优选方案,因此本领域的技术人员对本发明中的某些部分所可能作出的改进、变动,体现的仍是本发明的原理,实现的仍是本发明的目的,均属于本发明所保护的范围。

Claims (3)

1.一种基于图卷积与神经协同过滤的信息推荐方法,其特征在于,包括以下步骤:
1)、获取用户与物品之间的评分信息以及用户与物品的特征,根据用户与物品之间的评分信息构建用户-物品的评分矩阵;
2)、对用户-物品的交互矩阵进行处理,得到用户-用户邻接矩阵以及物品-物品邻接矩阵;
3)、以用户-用户邻接矩阵与物品-物品邻接矩阵、以及用户与物品的特征为图卷积编码器的输入,通过图卷积编码器计算用户编码矩阵以及计算物品编码矩阵;
所述步骤3)具体为:
3.1、为每个评分级别分配转换规则,关于用户i′到用户i关于边i′→i的消息可以通过如下方式获得:
Figure FDA0003118249120000011
上式中cii′为归一化常量,值可为
Figure FDA0003118249120000012
或者
Figure FDA0003118249120000013
其中
Figure FDA0003118249120000014
表示节点i的邻居集合;
Figure FDA0003118249120000015
是一个关于r∈{1,...,rmax}的用户卷积权值参数矩阵,xi′是节点i′的特征矩阵;
3.2、关于物品j′到物品j关于边j′→j的消息:
Figure FDA0003118249120000016
上式中,cjj'为归一化常量,参数与用户-用户消息中的定义相同;
3.3、在消息传递的步骤之后,需要将每个用户或物品节点关于的r的所有邻居节点
Figure FDA0003118249120000017
Figure FDA0003118249120000018
输入的消息μ累加,具体操作为顺序地把所有消息累加为一个单一的特征表示:
对于用户i,有
Figure FDA0003118249120000021
对于物品j,有
Figure FDA0003118249120000022
其中accum(·)表示累加操作,可以是堆叠操作stack(·),即对多个进行连接操作变成一个向量或者沿着矩阵的第一维进行操作;或者sum(·),即对所有消息进行求和操作;σ(·)则代表一个逐元素的激活函数,为RELU(·)=max(0,·);
3.4、将模型中间输出hi,hj进行转化:
对用户编码,计算公式为ui=σ(Wuhi),
对物品编码,计算公式为vj=σ(Wvhj);
3.5、得到用户编码矩阵U和物品编码矩阵V;
4)、将用户编码矩阵以及物品编码矩阵作为神经网络解码器的输入,经过多层神经网络后得到预测的评分矩阵;
5)、根据得到预测的评分矩阵评分的高低,向用户推送信息。
2.根据权利要求1所述的基于图卷积与神经协同过滤的信息推荐方法,其特征在于,所述步骤2)具体为:
2.1、获取用户-物品评分矩阵R;
2.2、生成一个元素全为0的M×M矩阵Pr,生成一个元素全为0的N×N矩阵Qr
2.3、使用集合{j|用户j与用户i同时评价过相同物品且评分为r}中所有j填充第i行矩阵,令Pr,ij=1;
2.4、使用集合{j|物品j与物品i同时被相同用户评价过且评分为r}中所有j填充第i行矩阵,令Qr,ij=1
2.5、循环步骤2.3至2.4,直到填充结束,得到|rmax|个用户-用户邻接矩阵与|rmax|个物品-物品邻接矩阵,即|rmax|对用户-用户邻接图与物品-物品邻接图。
3.根据权利要求1所述的基于图卷积与神经协同过滤的信息推荐方法,其特征在于,所述步骤4)具体为:
4.1使用神经网络替代内积对用户和物品的交互进行建模,模型中GMF层与MLP层使用编码相同的输入,但是处理数据的方式不同,分别为相乘和连接;
4.2、模型中GMF为传统矩阵分解层,输出计算函数为ui⊙vj,其中ui和vj分别为用户i经过编码的特征向量与物品j经过编码的特征向量,⊙为向量逐元素相乘操作,MLP层为多层感知机层,输出结果为
Figure FDA0003118249120000031
其中a、W与b为网络的权重向量;
4.3、将两种不同的神经网络编码层分开学习编码,把最后一个隐藏层连接,神经矩阵分解模型的数学形式如下所示:
Figure FDA0003118249120000032
Figure FDA0003118249120000033
Figure FDA0003118249120000034
其中,
Figure FDA0003118249120000035
Figure FDA0003118249120000036
分别为用户i与物品j经过GMF编码的部分,
Figure FDA0003118249120000037
Figure FDA0003118249120000038
分别为用户i与物品j经过MLP编码的部分;MLP层间使用RELU作为激活函数,输出使用Logistic或者Probit函数把最后一层的输出向量转化为0到1之间的预测评分
Figure FDA0003118249120000041
则损失函数如下所示:
Figure FDA0003118249120000042
其中,Y为用户-物品评分矩阵R中观测到的用户交互,Y-为全部或者采样的未观测数据。
CN201810533975.9A 2018-05-29 2018-05-29 一种基于图卷积与神经协同过滤的信息推荐方法 Active CN108874914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810533975.9A CN108874914B (zh) 2018-05-29 2018-05-29 一种基于图卷积与神经协同过滤的信息推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810533975.9A CN108874914B (zh) 2018-05-29 2018-05-29 一种基于图卷积与神经协同过滤的信息推荐方法

Publications (2)

Publication Number Publication Date
CN108874914A CN108874914A (zh) 2018-11-23
CN108874914B true CN108874914B (zh) 2021-11-02

Family

ID=64335477

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810533975.9A Active CN108874914B (zh) 2018-05-29 2018-05-29 一种基于图卷积与神经协同过滤的信息推荐方法

Country Status (1)

Country Link
CN (1) CN108874914B (zh)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111242273B (zh) * 2018-11-29 2024-04-12 华为终端有限公司 一种神经网络模型训练方法及电子设备
CN109743286A (zh) * 2018-11-29 2019-05-10 武汉极意网络科技有限公司 一种基于图卷积神经网络的ip类型标记方法及设备
CN109800853B (zh) * 2018-11-30 2022-11-08 华南师范大学 融合卷积神经网络和显式反馈的矩阵分解方法、装置及电子设备
CN109754067A (zh) * 2018-11-30 2019-05-14 华南师范大学 基于卷积注意力的矩阵分解方法、装置及电子设备
CN110009093B (zh) * 2018-12-07 2020-08-07 阿里巴巴集团控股有限公司 用于分析关系网络图的神经网络系统和方法
CN109740655B (zh) * 2018-12-26 2021-06-01 西安电子科技大学 基于矩阵分解及神经协同过滤的物品评分预测方法
CN109754316B (zh) * 2018-12-29 2022-07-29 深圳Tcl新技术有限公司 产品推荐方法、产品推荐系统及存储介质
CN109785062B (zh) * 2019-01-10 2021-09-24 电子科技大学 一种基于协同过滤模型的混合神经网络推荐系统
CN110083684B (zh) * 2019-04-24 2021-11-19 吉林大学 面向细粒度情感的可解释推荐模型
CN110210330B (zh) * 2019-05-13 2021-05-28 清华大学 基于内隐知识构建图卷积网络的电磁信号识别方法及装置
CN110222258A (zh) * 2019-05-20 2019-09-10 山东科技大学 基于属性映射和自动编码神经网络的特征矩阵初始化方法
CN112000819B (zh) * 2019-05-27 2023-07-11 北京达佳互联信息技术有限公司 多媒体资源推荐方法、装置、电子设备及存储介质
CN110188283B (zh) * 2019-06-05 2021-11-23 中国人民解放军国防科技大学 一种基于联合神经网络协同过滤的信息推荐方法及其系统
CN110309360B (zh) * 2019-06-13 2021-09-28 山东大学 短视频标签标注方法及系统
CN110337016B (zh) * 2019-06-13 2020-08-14 山东大学 基于多模态图卷积网络的短视频个性化推荐方法、系统、可读存储介质以及计算机设备
CN110516146B (zh) * 2019-07-15 2022-08-19 中国科学院计算机网络信息中心 一种基于异质图卷积神经网络嵌入的作者名字消歧方法
CN110580314A (zh) * 2019-07-16 2019-12-17 华南师范大学 基于图卷积神经网络和动态权重的课程推荐方法和系统
CN110674407B (zh) * 2019-09-30 2021-10-15 杭州电子科技大学 基于图卷积神经网络的混合推荐方法
CN110765353B (zh) * 2019-10-16 2022-03-08 腾讯科技(深圳)有限公司 项目推荐模型的处理方法、装置、计算机设备和存储介质
CN110837578B (zh) * 2019-11-06 2021-05-04 合肥工业大学 一种基于图卷积网络的视频片段推荐方法
CN110837598B (zh) * 2019-11-11 2021-03-19 腾讯科技(深圳)有限公司 信息推荐方法、装置、设备及存储介质
CN110826700B (zh) * 2019-11-13 2021-04-23 中国科学技术大学 建模邻居交互的双线性图神经网络模型的实现及分类方法
CN110837565B (zh) * 2019-11-14 2022-08-12 中山大学 实现药品推荐的模型训练装置及计算机设备
CN111144976B (zh) * 2019-12-10 2022-08-09 支付宝(杭州)信息技术有限公司 推荐模型的训练方法及装置
CN111143702B (zh) * 2019-12-16 2021-04-23 中国科学技术大学 基于图卷积神经网络的信息推荐方法、系统、设备和介质
CN111127142B (zh) * 2019-12-16 2023-09-08 东北大学秦皇岛分校 一种基于广义神经注意力的物品推荐方法
CN111127146B (zh) * 2019-12-19 2023-05-26 江西财经大学 基于卷积神经网络与降噪自编码器的信息推荐方法及系统
CN111143705B (zh) * 2019-12-26 2021-05-28 北京工业大学 一种基于图卷积网络的推荐方法
CN111209475B (zh) * 2019-12-27 2022-03-15 武汉大学 一种基于时空序列和社会嵌入排名的兴趣点推荐方法及装置
CN111291270B (zh) * 2020-03-02 2021-07-27 合肥工业大学 一种基于自适应图卷积网络的属性推理和产品推荐方法
CN111611472B (zh) * 2020-03-31 2024-02-27 清华大学 一种基于图卷积神经网络的捆绑推荐方法及系统
CN112395328A (zh) * 2020-05-22 2021-02-23 南京大学 一种基于注意力机制的关键属性挖掘方法
CN111737569B (zh) * 2020-06-04 2022-05-03 山东省人工智能研究院 基于属性感知注意图卷积神经网络的个性化推荐方法
CN111666772A (zh) * 2020-06-18 2020-09-15 南昌大学 一种基于深度图神经网络的关键词抽取方法
CN111859166B (zh) * 2020-07-28 2022-11-25 重庆邮电大学 一种基于改进的图卷积神经网络的物品评分预测方法
CN112000689B (zh) * 2020-08-17 2022-10-18 吉林大学 一种基于文本分析的多知识图谱融合方法
CN112199532B (zh) * 2020-09-01 2022-10-14 中国科学院信息工程研究所 一种基于哈希编码和图注意力机制的零样本图像检索方法及装置
CN112085293B (zh) * 2020-09-18 2022-09-09 支付宝(杭州)信息技术有限公司 训练交互预测模型、预测交互对象的方法及装置
CN111931076B (zh) * 2020-09-22 2021-02-09 平安国际智慧城市科技股份有限公司 基于有权有向图进行关系推荐的方法、装置和计算机设备
CN112364242B (zh) * 2020-11-10 2024-04-02 中国科学技术大学 针对上下文感知型的图卷积推荐系统
CN112801268B (zh) * 2020-12-30 2022-09-13 上海大学 基于图卷积和多层感知机混合网络的定位方法
CN113254789B (zh) * 2021-06-30 2021-09-17 中国气象局公共气象服务中心(国家预警信息发布中心) 一种推送气象服务内容的方法及装置
CN113505536A (zh) * 2021-07-09 2021-10-15 兰州理工大学 一种优化的基于时空图卷积网络的交通流预测模型
CN113807422A (zh) * 2021-09-07 2021-12-17 南京邮电大学 融合多特征信息的加权图卷积神经网络评分预测模型
CN116402554B (zh) * 2023-06-07 2023-08-11 江西时刻互动科技股份有限公司 一种广告点击率预测方法、系统、计算机及可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302873A (zh) * 2015-10-08 2016-02-03 北京航空航天大学 一种基于条件受限波尔兹曼机的协同过滤优化方法
CN107273438A (zh) * 2017-05-24 2017-10-20 深圳大学 一种推荐方法、装置、设备及存储介质
CN107944035A (zh) * 2017-12-13 2018-04-20 合肥工业大学 一种融合视觉特征和用户评分的图像推荐方法
CN107977704A (zh) * 2017-11-10 2018-05-01 中国科学院计算技术研究所 权重数据存储方法和基于该方法的神经网络处理器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8180804B1 (en) * 2010-04-19 2012-05-15 Facebook, Inc. Dynamically generating recommendations based on social graph information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105302873A (zh) * 2015-10-08 2016-02-03 北京航空航天大学 一种基于条件受限波尔兹曼机的协同过滤优化方法
CN107273438A (zh) * 2017-05-24 2017-10-20 深圳大学 一种推荐方法、装置、设备及存储介质
CN107977704A (zh) * 2017-11-10 2018-05-01 中国科学院计算技术研究所 权重数据存储方法和基于该方法的神经网络处理器
CN107944035A (zh) * 2017-12-13 2018-04-20 合肥工业大学 一种融合视觉特征和用户评分的图像推荐方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于栈式降噪自编码器的协同过滤算法;周洋等;《计算机应用研究》;20170831;第34卷(第8期);第2336-2339页 *

Also Published As

Publication number Publication date
CN108874914A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN108874914B (zh) 一种基于图卷积与神经协同过滤的信息推荐方法
CN111460331B (zh) 一种基于时空图的会话推荐方法
CN111222054B (zh) 一种基于上下文邻居关系建模的会话社交推荐方法
CN111611472B (zh) 一种基于图卷积神经网络的捆绑推荐方法及系统
CN111523051A (zh) 基于图卷积矩阵分解的社交兴趣推荐方法及系统
CN112115377B (zh) 一种基于社交关系的图神经网络链路预测推荐方法
CN111143705B (zh) 一种基于图卷积网络的推荐方法
CN109785062A (zh) 一种基于协同过滤模型的混合神经网络推荐系统
CN114817663B (zh) 一种基于类别感知图神经网络的服务建模与推荐方法
CN110688585B (zh) 一种基于神经网络和协同过滤的个性化电影推荐方法
CN110516165B (zh) 一种基于文本ugc的混合神经网络跨领域推荐方法
CN110727855A (zh) 一种基于改进因子分解机的个性化推荐方法
CN112381179A (zh) 一种基于双层注意力机制的异质图分类方法
CN110781401A (zh) 一种基于协同自回归流实现的Top-n项目推荐方法
CN111949885A (zh) 一种面向旅游景点的个性化推荐方法
CN112800344A (zh) 一种基于深度神经网络的电影推荐方法
CN113420212A (zh) 基于深度特征学习的推荐方法、装置、设备及存储介质
CN110443574B (zh) 多项目卷积神经网络评审专家推荐方法
CN112559904A (zh) 一种基于门机制和多模态图网络的会话社交推荐方法
CN114842247B (zh) 基于特征累加的图卷积网络半监督节点分类方法
CN112734519B (zh) 一种基于卷积自编码器网络的商品推荐方法
CN114840775A (zh) 一种融合多空间特征的网络对齐模型及其应用
CN115391555A (zh) 一种用户感知的知识图谱推荐系统及方法
CN113449193A (zh) 基于多分类图像的信息推荐方法及装置
CN114519600A (zh) 一种融合相邻节点方差的图神经网络ctr预估算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant