CN111931052B - 基于特征交互图神经网络的上下文感知推荐方法及系统 - Google Patents
基于特征交互图神经网络的上下文感知推荐方法及系统 Download PDFInfo
- Publication number
- CN111931052B CN111931052B CN202010793376.8A CN202010793376A CN111931052B CN 111931052 B CN111931052 B CN 111931052B CN 202010793376 A CN202010793376 A CN 202010793376A CN 111931052 B CN111931052 B CN 111931052B
- Authority
- CN
- China
- Prior art keywords
- context
- node
- user
- interaction
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 147
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 35
- 238000010586 diagram Methods 0.000 claims abstract description 21
- 239000013598 vector Substances 0.000 claims description 69
- 230000006870 function Effects 0.000 claims description 32
- 239000011159 matrix material Substances 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 14
- 230000007246 mechanism Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 230000007613 environmental effect Effects 0.000 claims description 6
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 230000009850 completed effect Effects 0.000 claims description 4
- 230000002457 bidirectional effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 125000004122 cyclic group Chemical group 0.000 claims description 3
- 238000007418 data mining Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 7
- 235000003642 hunger Nutrition 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 4
- 241001522296 Erithacus rubecula Species 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 102100028162 ATP-binding cassette sub-family C member 3 Human genes 0.000 description 1
- 102100028187 ATP-binding cassette sub-family C member 6 Human genes 0.000 description 1
- 101000986633 Homo sapiens ATP-binding cassette sub-family C member 3 Proteins 0.000 description 1
- 101000986621 Homo sapiens ATP-binding cassette sub-family C member 6 Proteins 0.000 description 1
- 101001014572 Homo sapiens MARCKS-related protein Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2458—Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
- G06F16/2465—Query processing support for facilitating data mining operations in structured databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Fuzzy Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种基于特征交互图神经网络的上下文感知推荐方法及系统,属于数据挖掘技术领域,本发明要解决的技术问题为如何提高推荐系统预测的准确性和可解释性,技术方案为:该方法具体如下:S1、从数据集中获取用户、项目及上下文的特征数据;S2、根据历史记录将数据集划分为上下文‑用户数据集和上下文‑项目数据集;S3、分别对上下文‑用户数据集和上下文‑项目数据集进行one‑hot编码和embedding嵌入;S4、构造上下文‑用户和上下文‑项目特征图;S5、分别对上下文‑用户特征图和上下文‑项目特征图中的节点进行初始化表示;S6、分别对上下文‑用户特征图和上下文‑项目特征图中的节点进行特征交互建模;S7、构建图神经网络输出层,得到预测结果。
Description
技术领域
本发明涉及数据挖掘技术领域,具体地说是一种基于特征交互图神经网络的上下文感知推荐方法及系统。
背景技术
由于上下文信息对用户行为的影响,上下文感知推荐系统近年来引起了人们的广泛关注。在推荐系统中,建立模型来捕获用户的兴趣和与项目的交互是很重要的。然而,传统的推荐系统不考虑时间、地点和疲劳状态等上下文环境特征信息与用户/项目交互所产生的影响,而事实上,附加的上下文信息对所有类型的推荐系统都具有很强的支持性。例如,用户平时喜欢听一些电子类的激情歌曲,但当该用户晚上在家陪老婆并且身体比较放松的时候会听温暖的爱情歌曲,当该用户白天在公司陪客户并且比较紧张的时候会听一些舒缓的古典钢琴音乐。这个例子表明,在该用户选择音乐的时候会受到特定上下文环境特征(上述例子中上下文环境特征包括:时间、地点、陪伴的人和不同程度身体疲劳状态)的影响,因此在推荐系统中考虑上下文环境是必要的。特别注意,这里的压力比较大、身体比较放松和比较紧张表示身体不同的疲劳程度。
上下文环境的重要性在该领域已得到广泛承认。早期的研究大都是低阶特征交互建模方法,他们仅仅能获取特征间线性的关系,通过扩展潜在因素模型来整合上下文信息,通常将上下文视为些类似于用户和项目的附加维度,并捕获上下文和用户/项目之间的相关性。这类方法存在的问题是难以解释上下文对与用户/项目之间的复杂关系。为了解决这个问题,有人提出了一种新的基于用户和项目上下文感知表示的潜在因素模型,通过为给定上下文的用户/项目添加额外的潜在空间层来进行学习。也有人提出了上下文操作张量(COT)模型,该模型将上下文表示为一个潜在向量,上下文表示为一个张量。然而,上述方法都依赖于线性操作(即矩阵分解)对观测数据建立模型,只能获得特征间简单的低阶特征交互关系,实际上这种交互关系可能要更加复杂得多。
还有人提出通过设计不同的对象(用户、项目和上下文)和交互(上下文-用户交互、上下文-项目交互和用户-项目交互)来重新规划CARS任务,这使得不同类型的交互之间有了明显的区别。然后,受最近交互网络(IN)的发展启发,他们提出了一种新的神经模型,称为关注交互网络(AIN),AIN探索了使用深度神经网络来模拟上下文对用户和项表示的交互影响。然而,AIN仅仅是将原始的多特征字段映射到共享的隐藏空间中,然后简单地将其连接到DNN中,以学习用户/项目和上下文环境间的高阶特征交互,因此功能字段的简单非结构化组合将不可避免地限制以足够灵活和显式的方式建模不同字段之间复杂交互的能力,因此这种高阶的特征交互关系也是不够准确。
综上所述,如何提高推荐系统预测的准确性和可解释性是目前亟待解决的技术问题。
发明内容
本发明的技术任务是提供一种基于特征交互图神经网络的上下文感知推荐方法及系统,来解决如何提高推荐系统预测的准确性和可解释性的问题。
本发明的技术任务是按以下方式实现的,一种基于特征交互图神经网络的上下文感知推荐方法,该方法是通过构建上下文感知图神经网络模型(CA-GNN)建立上下文环境与用户以及上下文环境与项目的交互关系,提高推荐系统预测的准确性和可解释性;具体如下:
S1、从数据集中获取用户、项目及上下文的特征数据;
S2、根据历史记录将数据集划分为上下文-用户数据集和上下文-项目数据集;
S3、分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入;
S4、构造上下文-用户和上下文-项目特征图;
S5、分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示;
S6、分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模;
S7、构建图神经网络输出层,得到预测结果。
作为优选,所述步骤S1中从数据集中获取用户、项目及上下文的特征数据具体如下:
根据用户已完成活动的历史记录建立数据集,从数据集中选取用户、项目和不同的上下文环境信息,进而获取特征数据;其中,数据集表示如下:
X∈{u,v,c1,c2,...,ck};
其中,u表示用户特征字段;v表示项目特征字段;c表示上下文环境字段;ck表示第k个上下文环境特征;k∈{0,1,2,...,K},表示最多有K个上下文环境特征;xi表示X中任一个特征字段,i∈{0,1,2,...,m},m=K+2;
所述步骤S2中上下文-用户数据集和上下文-项目数据集分别表示为Xu∈{u,c1,c2,...,ck}和Xv∈{v,c1,c2,...,ck}。
作为优选,所述步骤S3中分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入具体如下:
S301、将每个字段表示为一个one-hot编码向量;
S302、将one-hot编码向量输入到embedding层得到上下文-用户特征嵌入向量Eu,c和上下文-项目特征嵌入向量Ev,c,公式如下:
其中,eu、ev和eck分别表示字段u、v、ck(包括多种上下文特征字段)的嵌入向量,eu∈RD,ev∈RD,eck∈RD;D表示字段嵌入向量的维数。
作为优选,所述步骤S4中构造上下文-用户和上下文-项目特征图具体如下:
S401、将各节点之间的关系表示为图结构:根据数据集构造一个上下文-用户及上下文-项目交互图G=(N,ε);交互图中每个节点ni∈N(表示一个特征字段i),使得|N|=|X|,X表示输入数据量;ε表示两个节点ni-1和ni的边;
S402、交互图是一个加权完全连通图,即每两个节点是双向互动,边的权值反映不同特征域之间的交互影响,根据训练集计算不同特征字段之间有向边的权值,公式如下:
其中,w(ni,nj)表示从节点ni到节点nj的权重值;表示节点特征xi和节点特征xj的共现频率;/>表示节点特征xi的出现频率。
作为优选,所述步骤S5中分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示具体如下:
S501、初始节点状态为输入特征图的节点状态,即字段嵌入向量;
S502、利用字段的嵌入向量作为对应节点的初始状态向量,形式化和/>公式所如下:
其中,H表示图的隐藏状态向量,图是由多个节点构成,H∈R(m-1)×D;/>表示上下文-用户交互图中各节点的初始状态向量;表示上下文-项目交互图各节点的初始状态向量;e表示节点嵌入向量;h表示节点隐藏状态向量,h∈RD。
作为优选,所述步骤S6中特征交互建模是指节点与邻居交互并以循环的方式更新各自的状态,在每个交互步骤中,每个节点将先聚合来自邻居的已转换状态信息,再通过GRU和剩余连接根据聚合的信息和历史更新各自的状态;具体如下:
S601、每个节点都与一个隐藏的状态向量相关联,公式如下:
其中,表示上下文-用户交互图中各节点状态集合;/>表示上下文-项目交互图各节点状态集合:t表示相互作用的步骤;
S602、边ni→nj从节点ni到节点nj的变换函数公式如下:
其中,Wout表示输出矩阵;Win表示输入矩阵;表示CA-GNN中的每个节点ni与不同节点间的双向交互影响;
S603、节点接收到的邻居状态公式如下:
其中,bp表示所有边上共享线性变换的权值和偏差;A[vj,ni]表示邻接矩阵;
S604、接收到状态信息后,节点ni的状态将更新如下,更新过程如以下公式所示:
其中,Wz、Wr、Wh、bz、br、bh为更新函数的权值和偏差,与门控递归单元(GRU)相似;和ri t分别是更新门矢量和重置门矢量;
S605、通过剩余连接进行状态更新:门控递归单元输出的节点隐藏状态公式如下:
更优地,所述步骤S7中构建图神经网络输出层,得到预测结果具体如下:
S701、经过T步骤的传播得到经上下文-用户交互和上下文-项目交互所产生的节点隐状态,公式如下:
其中,T与t的含义相同,均表示相互作用的步骤;
S702、将新的上下文-用户交互和上下文-项目交互所产生的节点隐状态进行合并得到混合节点隐状态值,公式如下:
其中,w表示混合节点矩阵权重值;H∈R2(m-1)×D;m表示特征域数量,D表示字段嵌入向量的维数;
S703、节点与节点的T序列邻居交互,对T序列特性交互进行建模并构建一个图形级的输出层来预测评分值;
S704、每个字段节点都与自身外的其他特征进行交互,并最终捕获了全局状态信息,再分别通过每个字段的最终状态进行评分,并使用一个注意力机制来衡量每个字段对整体预测的影响;具体如下:
S70401、每个节点ni及其注意节点权重的预测得分可以通过多层感知器层和注意力机制层分别得到,公式如下:
其中,MLP1用于对全局感知的每个字段的预测分数进行建模;MLP2用于对每个字段的权重进行建模(即场对整体预测影响的重要性);
S70402、输出的评分预测函数,公式如下:
其中,wo和bo分别表示输出函数的权重值和偏差值,是实际训练数据集中的评分次数;σ(·)表示sigmoid函数;
S70403、损失函数公式如下:
当损失函数取得最小值时,得到最优的训练参数。
一种基于特征交互图神经网络的上下文感知推荐系统,该系统包括,
获取模块,用于从数据集中获取用户、项目及上下文的特征数据;
划分模块,用于根据历史记录将数据集划分为上下文-用户数据集和上下文-项目数据集;
编码及嵌入模块,用于分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入;
构造模块,用于构造上下文-用户和上下文-项目特征图;
初始化模考,用于分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示;
交互建模模块,用于分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模;
输出模块,用于构建图神经网络输出层,得到预测结果。
一种电子设备,包括:存储器和至少一个处理器;
其中,所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上述的基于特征交互图神经网络的上下文感知推荐方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行时,实现如上述的基于特征交互图神经网络的上下文感知推荐方法。
本发明的基于特征交互图神经网络的上下文感知推荐方法及系统具有以下优点:
(一)本发明创新性地利用图神经网络方法建立了上下文感知图神经网络模型(CA-GNN),以更灵活和明确的方式在图结构特征上对上下文-用户和上下文-项目的交互进行建模,在很大程度上提升了推荐系统的预测准确率;
(二)本发明中所建立的上下文感知图神经网络模型的输出层利用注意力机制得到了每个混合节点的权重值,增加了推荐系统的可解释性;
(三)本发明所建立的模型和使用的方法在Food数据集和Yelp数据集这两个真实的数据集上都有不错的表现,Food数据集属于用户点餐数据,Yelp是用户商店购物数据,这也说明本发明在两个场景中能为用户提供很好的推荐帮助。
附图说明
下面结合附图对本发明进一步说明。
附图1为基于特征交互图神经网络的上下文感知推荐方法的流程框图;
附图2为特征交互示意图;
附图3为节点间的边缘转换示意图。
具体实施方式
参照说明书附图和具体实施例对本发明的基于特征交互图神经网络的上下文感知推荐方法及系统作以下详细地说明。
实施例1:
如附图1所示,本发明的基于特征交互图神经网络的上下文感知推荐方法,该方法是通过构建上下文感知图神经网络模型(CA-GNN)建立上下文环境与用户以及上下文环境与项目的交互关系,提高推荐系统预测的准确性和可解释性;具体如下:
S1、从数据集中获取用户、项目及上下文的特征数据;具体如下:
根据用户已完成活动的历史记录建立数据集,从数据集中选取用户、项目和不同的上下文环境信息,进而获取特征数据;其中,数据集表示如下:
X∈{u,v,c1,c2,...,ck};
其中,u表示用户特征字段;v表示项目特征字段;c表示上下文环境字段;ck表示第k个上下文环境特征;k∈{0,1,2,...,K},表示最多有K个上下文环境特征;xi表示X中任一个特征字段,i∈{0,1,2,...,m},m=K+2;
S2、根据历史记录将数据集划分为上下文-用户数据集和上下文-项目数据集;上下文-用户数据集和上下文-项目数据集分别表示为Xu∈{u,c1,c2,...,ck}和Xv∈{v,c1,c2,...,ck}。
S3、分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入;具体如下:
S301、将每个字段表示为一个one-hot编码向量;
S302、将one-hot编码向量输入到embedding层得到上下文-用户特征嵌入向量Eu,c和上下文-项目特征嵌入向量Ev,c,公式如下:
其中,eu、ev和eck分别表示字段u、v、ck(包括多种上下文特征字段)的嵌入向量,eu∈RD,ev∈RD,D表示字段嵌入向量的维数。
S4、构造上下文-用户和上下文-项目特征图;具体如下:
S401、将各节点之间的关系表示为图结构:根据数据集构造一个上下文-用户及上下文-项目交互图G=(N,ε);交互图中每个节点ni∈N(表示一个特征字段i),使得|N|=|X|,X表示输入数据量;ε表示两个节点ni-1和ni的边;
S402、交互图是一个加权完全连通图,即每两个节点是双向互动,边的权值反映不同特征域之间的交互影响,用户往往都会在固定的上下文环境下选择某个项目,构成了用户、上下文环境和特定项目的固定搭配;因此特征字段的出现数量以及不同特征字段的共现频率直接决定了两个节点间的边缘权重,根据训练集计算不同特征字段之间有向边的权值,公式如下:
其中,w(ni,nj)表示从节点ni到节点nj的权重值;表示节点特征xi和节点特征xj的共现频率;/>表示节点特征xi的出现频率。
S5、分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示;具体如下:
S501、初始节点状态为输入特征图的节点状态,即字段嵌入向量;
S502、利用字段的嵌入向量作为对应节点的初始状态向量,形式化和/>公式所如下:
其中,H表示图的隐藏状态向量,图是由多个节点构成,H∈R(m-1)×D;/>表示上下文-用户交互图中各节点的初始状态向量;表示上下文-项目交互图各节点的初始状态向量;e表示节点嵌入向量;h表示节点隐藏状态向量,h∈RD。
S6、分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模;其中,特征交互建模是指节点与邻居交互并以循环的方式更新各自的状态,如附图2所示,展示了建模上下文-用户特征交互的方式,上下文-项目特征交互建模方式与附图2的结构一致。如附图2所示,节点以循环的方式交互并更新它们的状态,在每个交互步骤中,每个节点将先聚合来自邻居的已转换状态信息,再通过GRU和剩余连接根据聚合的信息和历史更新各自的状态;具体如下:
S601、每个节点都与一个隐藏的状态向量相关联,公式如下:
其中,表示上下文-用户交互图中各节点状态集合;/>表示上下文-项目交互图各节点状态集合:t表示相互作用的步骤;
S602、在传统的门控图神经网络(GGNN)中,在传播步骤t,节点接收到的邻居状态之和为如以下公式所示:
其中,Wp和bp是所有边上共享线性变换的权值和偏差,A[nj,ni]为邻接矩阵,如以下公式所示:
如果两个特征字段间存在相互影响关系,那么两个对应节点之间一定会存在正向边和反向边,因为两个方向上的交互应该是不同的。传统的GGNN中使用相同的Wp和bp来建模不同节点之间的交互影响,GGNN只考虑了两个节点间的单向传播性,但在实际的图形中,两点之间的交互是相互影响,所以我们必须考虑两节点间双向交互作用。因此,本发明添加一个输出矩阵Wout和一个输入矩阵Win来表示CA-GNN中的每个节点ni与不同节点间的双向交互影响,如附图2中所示的节点间边缘转换。边ni→nj从节点ni到节点nj的变换函数公式如下:
其中,Wout表示输出矩阵;Win表示输入矩阵;表示CA-GNN中的每个节点ni与不同节点间的双向交互影响;
S603、节点接收到的邻居状态公式如下:
其中,bp表示所有边上共享线性变换的权值和偏差;A[vj,ni]表示邻接矩阵;
S604、接收到状态信息后,节点ni的状态将更新如下,更新过程如以下公式所示:
其中,Wz、Wr、Wh、bz、br、bh为更新函数的权值和偏差,与门控递归单元(GRU)相似;和ri t分别是更新门矢量和重置门矢量;
S605、通过剩余连接进行状态更新:门控递归单元输出的节点隐藏状态公式如下:
S7、构建图神经网络输出层,得到预测结果;具体如下:
S701、经过T步骤的传播得到经上下文-用户交互和上下文-项目交互所产生的节点隐状态,公式如下:
其中,T与t的含义相同,均表示相互作用的步骤;
S702、将新的上下文-用户交互和上下文-项目交互所产生的节点隐状态进行合并得到混合节点隐状态值,公式如下:
其中,w表示混合节点矩阵权重值;H∈R2(m-1)×D;m表示特征域数量,D表示字段嵌入向量的维数;
S703、节点与节点的T序列邻居交互,对T序列特性交互进行建模并构建一个图形级的输出层来预测评分值;
S704、每个字段节点都与自身外的其他特征进行交互,并最终捕获了全局状态信息,再分别通过每个字段的最终状态进行评分,并使用一个注意力机制来衡量每个字段对整体预测的影响;具体如下:
S70401、每个节点ni及其注意节点权重的预测得分可以通过多层感知器层和注意力机制层分别得到,公式如下:
其中,MLP1用于对全局感知的每个字段的预测分数进行建模;MLP2用于对每个字段的权重进行建模(即场对整体预测影响的重要性);
S70402、输出的评分预测函数,公式如下:
其中,wo和bo分别表示输出函数的权重值和偏差值,是实际训练数据集中的评分次数;σ(·)表示sigmoid函数;
S70403、损失函数公式如下:
当损失函数取得最小值时,得到最优的训练参数。
实施例2:
本发明采用Food数据集和Yelp数据集这两个数据集评估提出的CA-GNN模型,这两个数据集的数据特征,如下表所示:
Dataset | Users | Items | Contexts | Interactions | Scale |
Food | 212 | 20 | 2 | 6360 | 1-5 |
Yelp | 96143 | 49482 | 4 | 2283913 | 1-5 |
(1)Food数据集:使用的Food数据集,它包含了212名用户对20个菜单项的6360个5级评分,每个评分与2个上下文因素相关:一个因素描述了用户率是虚拟的还是真实的(2个值:真实的和虚拟的);第二个因素描述了用户有饥饿感(3个值:饥饿、正常和饱);数据集用于测试评级任务。
(2)Yelp数据集:为了验证CA-GNN模型的可扩展性,由于缺少大规模的上下文数据集,在实验中使用了Yelp数据集;原始数据非常大,但非常稀疏,选取了一个包含96,143个用户、49,482个项目和2,283,913个交互的数据子集;Yelp数据集中,选取的上下文特征包括:年、月、星期(一周中的某一天)和城市。
本发明的实施主要包括以下步骤:
(1)、根据Food数据集和Yelp数据集中用户已完成活动的历史记录,选取用户、项目和不同的上下文环境信息。在Food数据集中,选取用户、项目和上下文环境信息,其中,Food数据集中的上下文有两个,分别是虚拟性(2个值:真实和虚拟)和饥饿感(3个值:饥饿、正常和饱);在Yelp数据集中,选取用户、项目和上下文环境信息,其中,Yelp数据集中的上下文有四个,分别是年、月、一周中的某一天和城市。
针对这一步的公式化表示为:
Food数据集由XF∈{u,v,c1,c2};其中,u是用户特征字段,v是项目特征字段,c1是上下文环境中虚拟性字段,c2是上下文环境中饥饿感字段;
Yelp数据集由XY∈{u,v,c1,c2,c3,c4};u是用户特征字段,v是项目特征字段,c1是上下文环境中年字段,c2是上下文环境中月字段,c3是上下文环境中一周中的某一天字段,c4是上下文环境中月城市字段。
(2)、根据Food和Yelp中历史记录,将数据集划分为上下文-用户数据集和上下文-项目数据集:具体如下:
在Food数据集中,为了研究上下文环境与用户之间复杂的交互影响以及上下文环境与项目之间复杂的交互影响,将输入训练数据集划分为上下文-用户数据集XFu∈{u,c1,c2},表示(用户,虚拟性,饥饿感)的三元组;以及上下文-项目数据集XFv∈{v,c1,c2},表示(项目,虚拟性,饥饿感)的三元组。
在Yelp数据集中,为了研究上下文环境与用户之间复杂的交互影响以及上下文环境与项目之间复杂的交互影响,将输入训练数据集划分为上下文-用户数据集XYu∈{u,c1,c2,c3,c4}表示(用户,年,月,一种中的某一天,城市)的五元组以及上下文-项目数据集XYv∈{v,c1,c2,c3,c4},表示(项目,年,月,一种中的某一天,城市)的五元组。
(3)、对原始的用户、项目和上下文特征进行one-hot编码和embedding嵌入,具体如下:
将Food数据集和Yelp数据集中上下文-用户数据集和上下文-项目中的每个字段表示为一个one-hot编码向量。为了得到低维数据,将one-hot编码向量输入到embedding层,可以得到Food的上下文-用户特征嵌入向量EFu,c和上下文-项目特征嵌入向量EFv,c以及Yelp数据集的上下文-用户特征嵌入向量EYu,c和上下文-项目特征嵌入向量EYv,c,如以下公式所示(只列出了针对Food数据集的嵌入向量表示):
其中,eu∈RD,ev∈RD,分别表示字段u,v,ck(包括多种上下文特征字段)的嵌入向量,D表示字段嵌入向量的维数。
(4)、构造Food和Yelp中上下文-用户和上下文-项目特征图:将各特征字段(节点)之间的关系表示为图结构,再将其输入设计的模型中学习学特征交互关系;根据数据集分别构造了属于Food数据集和Yelp数据集的上下文-用户/项目交互图GF=(N,ε)和GY=(N,ε)。图中每个节点ni∈N(表示一个特征字段i),使得|N|=|X|,其中ε是两个节点ni-1和ni的边,因为每两个节点应该是双向互动的,因此这是一个加权完全连通图,边的权值反映了不同特征域之间的交互影响。
在Food数据集和Yelp数据集中,用户往往都会在固定的上下文环境下选择某个项目,构成了用户、上下文环境和特定项目的固定搭配。因此特征字段的出现数量以及不同特征字段的共现频率直接决定了两个节点间的边缘权重。那么可以根据训练数据集,计算不同特征字段之间有向边的权值,如以下公式所示:
其中,w(ni,nj)表示从节点ni到节点nj的权重值,表示节点特征xi和节点特征xj的共现频率。/>表示节点特征xi的出现频率。
(5)、在Food数据集和Yelp数据集中分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示,具体如下:
初始节点状态为输入特征图的节点状态,即,字段嵌入向量。其中,利用字段的嵌入向量作为对应节点的初始状态向量,因此,在Food数据集和Yelp数据集中可以形式化和/>如以下公式所示(只列出了针对Food数据集的形式化表示):
(6)、在Food数据集和Yelp数据集中分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模,具体如下:
节点与邻居交互并以循环的方式更新它们的状态。如附图2所示,只展示了建模上下文-用户特征交互的方式,上下文-项目特征交互建模方式与附图2中的结构一致。在每个交互步骤中,每个节点将首先聚合来自邻居的已转换状态信息,然后通过GRU和剩余连接根据聚合的信息和历史更新其状态。该方法参考了Fi-GNN的模型框架,但这里是针对特定的上下文感知推荐系统领域的一个具体实现方法,并且在应用领域和实现细节方面存在着明显的不同。每个节点都与一个隐藏的状态向量相关联,上下文-用户交互图中各节点状态集合和上下文-项目交互图各节点状态集合/>如以下公式所示(只列出了针对Food数据集的中的状态集合):
其中,t表示相互作用的步骤。如附图2所示,节点以循环的方式交互并更新它们的状态。在每个交互步骤中,节点与邻居聚合转换后的状态信息,然后通过GRU和剩余连接根据聚合的信息和历史更新节点状态。
在传统的门控图神经网络(GGNN)中,在传播步骤t,节点接收到的邻居状态之和为如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
其中,Wp和bp是所有边上共享线性变换的权值和偏差,A[nj,ni]为邻接矩阵,如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
如果两个特征字段间存在相互影响关系,那么两个对应节点之间一定会存在正向边和反向边,因为两个方向上的交互应该是不同的。传统的GGNN中使用相同的Wp和bp来建模不同节点之间的交互影响,GGNN只考虑了两个节点间的单向传播性,但在实际的图形中,两点之间的交互是相互影响,所以我们必须考虑两节点间双向交互作用。因此,我们添加一个输出矩阵Wout和一个输入矩阵Win来表示CA-GNN中的每个节点ni与不同节点间的双向交互影响,图2中是节点间边缘转换。边ni→nj从节点ni到节点nj的变换函数如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
因此,节点接收到的邻居状态可以改写,如以下公式所示(该公式在Food和Yelp中通用):
接收到状态信息后,节点ni的状态将更新如下,更新过程如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
其中,Wz、Wr、Wh、bz、br、bh为更新函数的权值和偏差,与门控递归单元(GRU)相似。和ri t分别是更新门矢量和重置门矢量。
通过剩余连接进行状态更新。因此,门控递归单元输出的节点隐藏状态可改写,如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
(7)、构建图神经网络输出层,得到预测结果:经过T步骤的传播,我们可以得到经上下文-用户交互和上下文-项目交互所产生的节点隐状态,如下以下公式所示(只列出了针对Food数据集的节点隐状态):
然后,将新的上下文-用户交互和上下文-项目交互所产生的节点隐状态进行合并,得到混合节点隐状态值,如以下公式所示(只列出了针对Food数据集的混合节点隐状态值):
因此,w为混合节点矩阵权重值,因此,H∈R2(m-1)×D。
由于节点与它们的T序列邻居交互,因此对T序列特性交互进行建模,需要一个图形级的输出来预测评分值。
每个字段节点都与自身外的其他特征进行了交互,并最终捕获了全局状态信息。在这里,分别通过每个字段的最终状态进行评分,并使用一个注意力机制来衡量它们对整体预测的影响。具体地,每个节点ni及其注意节点权重的预测得分可以通过多层感知器层和注意力机制层分别得到,如以下公式所示(该公式在Food和Yelp中通用):
注意,它实际上与GGNN模型工作相同。直观地,MLP1被用来对全局感知的每个字段的预测分数进行建模。信息和MLP2用于对每个字段的权重进行建模(即,场对整体预测影响的重要性)。
最终输出的评分预测函数如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
其中,wo和bo分别是输出函数的权重值和偏差值,是实际训练数据集中的评分次数;σ(·)是sigmoid函数。
损失函数定义如以下公式所示(该公式在Food数据集和Yelp数据集中通用):
当损失函数取得最小值时,我们便会得到最优的训练参数。
实验环境设置:所有实验均在以下环境中完成:Python2.7、tensorflow1.5.0。在模型参数中,learning_rate=0.001和batch size=128。
模型评价方式如下:
在评价本文所提出的CA-GNN评分预测模型时,使用了两个指标:均方根误差(RMSE)和平均绝对误差(MAE),这是量化评级预测误差的常规指标。RMSE和MAE越小,性能越好。评价指标公式如下所示:
其中,n表示数据集中的评分次数,RMSE和MAE越小说明预测准确度越高。
最终,在Food和Yelp数据集上CA-GNN和基线的性能比较,实验结果如下表所示:
表中是不同方法的性能总结,从中可以得到以下观察结果:
(1)、AFM比FM具有更好的性能,证明了注意力在不同交互作用下的有效性;
(2)、高阶交互建模的方法大多优于二阶交互建模的方法。这表明二阶特征交互是不充分的、
(3)、观察到CA-GNN在两个数据集上都优于COT,因为COT只建模线性的高阶特征交互,而CA-GNN能够建模非线性的高阶特征交互,这表明非线性方式更能够体现特征间复杂的影响关系;
(4)、本发明提出的CA-GNN算法在Yelp数据集上的性能优于其他的方法,并且CA-GNN在Food数据上的性能表现也相当的不错,但比AIN的效果要差,这可能跟Food数据集的数量太小有关,导致CA-GNN出现了过拟合问题。但整体上可以看出本发明的CA-GNN模型由于图结构的强大代表性和GNN在节点交互建模方面的有效性而显示出了比这些最新技术的巨大优势。
实施例3:
本发明的基于特征交互图神经网络的上下文感知推荐系统,该系统包括,获取模块,用于从数据集中获取用户、项目及上下文的特征数据;
划分模块,用于根据历史记录将数据集划分为上下文-用户数据集和上下文-项目数据集;
编码及嵌入模块,用于分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入;
构造模块,用于构造上下文-用户和上下文-项目特征图;
初始化模考,用于分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示;
交互建模模块,用于分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模;
输出模块,用于构建图神经网络输出层,得到预测结果。
实施例4:
本发明实施例还提供了一种电子设备,包括:存储器和一个处理器;
其中,所述存储器存储计算机执行指令;
一个处理器执行所述存储器存储的计算机执行指令,使得一个处理器执行如任一实施例中的基于特征交互图神经网络的上下文感知推荐方法。
实施例5:
本发明实施例还提供了一种计算机可读存储介质,其中存储有多条指令,指令由处理器加载,使处理器执行本发明任一实施例中的基于特征交互图神经网络的上下文感知推荐方法。具体地,可以提供配有存储介质的系统或者装置,在该存储介质上存储着实现上述实施例中任一实施例的功能的软件程序代码,且使该系统或者装置的计算机(或CPU或MPU)读出并执行存储在存储介质中的程序代码。
在这种情况下,从存储介质读取的程序代码本身可实现上述实施例中任何一项实施例的功能,因此程序代码和存储程序代码的存储介质构成了本发明的一部分。
用于提供程序代码的存储介质实施例包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-R基于特征交互图神经网络的上下文感知推荐方法及系统M、DVD-RW、DVD+RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机上下载程序代码。
此外,应该清楚的是,不仅可以通过执行计算机所读出的程序代码,而且可以通过基于程序代码的指令使计算机上操作的操作系统等来完成部分或者全部的实际操作,从而实现上述实施例中任意一项实施例的功能。
此外,可以理解的是,将由存储介质读出的程序代码写到插入计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器中,随后基于程序代码的指令使安装在扩展板或者扩展单元上的CPU等来执行部分和全部实际操作,从而实现上述实施例中任一实施例的功能。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (4)
1.一种基于特征交互图神经网络的上下文感知推荐方法,其特征在于,该方法是通过构建上下文感知图神经网络模型建立上下文环境与用户以及上下文环境与项目的交互关系,提高推荐系统预测的准确性和可解释性;具体如下:
S1、从数据集中获取用户、项目及上下文的特征数据;具体如下:
根据用户已完成活动的历史记录建立数据集,从数据集中选取用户、项目和不同的上下文环境信息,进而获取特征数据;其中,数据集表示如下:
X∈{u,v,c1,c2,...,ck};
其中,u表示用户特征字段;v表示项目特征字段;c表示上下文环境字段;ck表示第k个上下文环境特征;k∈{0,1,2,...,K},表示最多有K个上下文环境特征;xi表示X中任一个特征字段,i∈{0,1,2,...,m},m=K+2;
S2、根据历史记录将数据集划分为上下文-用户数据集和上下文-项目数据集;其中,上下文-用户数据集和上下文-项目数据集分别表示为Xu∈{u,c1,c2,...,ck}和Xv∈{v,c1,c2,...,ck};
S3、分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入;具体如下:
S301、将每个字段表示为一个one-hot编码向量;
S302、将one-hot编码向量输入到embedding层得到上下文-用户特征嵌入向量Eu,c和上下文-项目特征嵌入向量Ev,c,公式如下:
Eu,c=[eu,ec1,ec2,...,eck];
Ev,c=[ev,ec1,ec2,...,eck];
其中,eu、ev和eck分别表示字段u、v、ck的嵌入向量,eu∈RD,ev∈RD,eck∈RD;D表示字段嵌入向量的维数;
S4、构造上下文-用户和上下文-项目特征图;具体如下:
S401、将各节点之间的关系表示为图结构:根据数据集构造一个上下文-用户及上下文-项目交互图G=(N,ε);交互图中每个节点,使得|N|=|X|,X表示输入数据量;ε表示两个节点ni-1和ni的边;
S402、交互图是一个加权完全连通图,即每两个节点是双向互动,边的权值反映不同特征域之间的交互影响,根据训练集计算不同特征字段之间有向边的权值,公式如下:
其中,w(ni,nj)表示从节点ni到节点nj的权重值;表示节点特征xi和节点特征xj的共现频率;/>表示节点特征xi的出现频率;
S5、分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示;具体如下:
S501、初始节点状态为输入特征图的节点状态,即字段嵌入向量;
S502、利用字段的嵌入向量作为对应节点的初始状态向量,形式化和/>公式所如下:
其中,H表示图的隐藏状态向量,图是由多个节点构成,H∈R(m-1)×D;/>表示上下文-用户交互图中各节点的初始状态向量;/>表示上下文-项目交互图各节点的初始状态向量;e表示节点嵌入向量;h表示节点隐藏状态向量,h∈RD;
S6、分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模;其中,特征交互建模是指节点与邻居交互并以循环的方式更新各自的状态,在每个交互步骤中,每个节点将先聚合来自邻居的已转换状态信息,再通过GRU和剩余连接根据聚合的信息和历史更新各自的状态;具体如下:
S601、每个节点都与一个隐藏的状态向量相关联,公式如下:
其中,表示上下文-用户交互图中各节点状态集合;/>表示上下文-项目交互图各节点状态集合:t表示相互作用的步骤;
S602、边ni→nj从节点ni到节点nj的变换函数公式如下:
其中,Wout表示输出矩阵;Win表示输入矩阵;表示CA-GNN中的每个节点ni与不同节点间的双向交互影响;
S603、节点接收到的邻居状态公式如下:
其中,bp表示所有边上共享线性变换的权值和偏差;A[vj,ni]表示邻接矩阵;
S604、接收到状态信息后,节点ni的状态将更新如下,更新过程如以下公式所示:
其中,Wz、Wr、Wh、bz、br、bh为更新函数的权值和偏差,与门控递归单元(GRU)相似;和/>分别是更新门矢量和重置门矢量;
S605、通过剩余连接进行状态更新:门控递归单元输出的节点隐藏状态hi t,公式如下:
S7、构建图神经网络输出层,得到预测结果;具体如下:
S701、经过T步骤的传播得到经上下文-用户交互和上下文-项目交互所产生的节点隐状态,公式如下:
其中,T与t的含义相同,均表示相互作用的步骤;
S702、将新的上下文-用户交互和上下文-项目交互所产生的节点隐状态进行合并得到混合节点隐状态值,公式如下:
其中,w表示混合节点矩阵权重值;H∈R2(m-1)×D;m表示特征域数量,D表示字段嵌入向量的维数;
S703、节点与节点的T序列邻居交互,对T序列特性交互进行建模并构建一个图形级的输出层来预测评分值;
S704、每个字段节点都与自身外的其他特征进行交互,并最终捕获了全局状态信息,再分别通过每个字段的最终状态进行评分,并使用一个注意力机制来衡量每个字段对整体预测的影响;具体如下:
S70401、每个节点ni及其注意节点权重的预测得分通过多层感知器层和注意力机制层分别得到,公式如下:
其中,MLP1用于对全局感知的每个字段的预测分数进行建模;MLP2用于对每个字段的权重进行建模;
S70402、输出的评分预测函数,公式如下:
其中,wo和bo分别表示输出函数的权重值和偏差值,是实际训练数据集中的评分次数;σ(·)表示sigmoid函数;
S70403、损失函数公式如下:
当损失函数取得最小值时,得到最优的训练参数。
2.一种基于特征交互图神经网络的上下文感知推荐系统,其特征在于,该系统用于实现权利要求1中所述的基于特征交互图神经网络的上下文感知推荐方法,该系统包括,
获取模块,用于从数据集中获取用户、项目及上下文的特征数据;
划分模块,用于根据历史记录将数据集划分为上下文-用户数据集和上下文-项目数据集;
编码及嵌入模块,用于分别对上下文-用户数据集和上下文-项目数据集进行one-hot编码和embedding嵌入;
构造模块,用于构造上下文-用户和上下文-项目特征图;
初始化模考,用于分别对上下文-用户特征图和上下文-项目特征图中的节点进行初始化表示;
交互建模模块,用于分别对上下文-用户特征图和上下文-项目特征图中的节点进行特征交互建模;
输出模块,用于构建图神经网络输出层,得到预测结果。
3.一种电子设备,其特征在于,包括:存储器和至少一个处理器;
其中,所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1所述的基于特征交互图神经网络的上下文感知推荐方法。
4.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行时,实现如权利要求1所述的基于特征交互图神经网络的上下文感知推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010793376.8A CN111931052B (zh) | 2020-08-10 | 2020-08-10 | 基于特征交互图神经网络的上下文感知推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010793376.8A CN111931052B (zh) | 2020-08-10 | 2020-08-10 | 基于特征交互图神经网络的上下文感知推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111931052A CN111931052A (zh) | 2020-11-13 |
CN111931052B true CN111931052B (zh) | 2023-09-15 |
Family
ID=73306446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010793376.8A Active CN111931052B (zh) | 2020-08-10 | 2020-08-10 | 基于特征交互图神经网络的上下文感知推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111931052B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112465226B (zh) * | 2020-11-27 | 2023-01-20 | 上海交通大学 | 一种基于特征交互和图神经网络的用户行为预测方法 |
CN112559864B (zh) * | 2020-12-14 | 2023-03-31 | 西安电子科技大学 | 一种基于知识图谱增强的双线性图网络推荐方法和系统 |
CN112650945B (zh) * | 2020-12-29 | 2022-09-06 | 齐鲁工业大学 | 一种基于gcn和ain的上下文感知推荐方法 |
CN113377422B (zh) * | 2021-06-09 | 2024-04-05 | 大连海事大学 | 一种基于深度学习识别自我承认技术债务方法 |
CN113673620A (zh) * | 2021-08-27 | 2021-11-19 | 工银科技有限公司 | 模型生成的方法、系统、设备、介质和程序产品 |
CN114070751B (zh) * | 2021-10-25 | 2023-06-30 | 汕头大学 | 基于双子图的服务质量预测方法、系统、设备及介质 |
US20240184835A1 (en) * | 2022-07-11 | 2024-06-06 | City University Of Hong Kong | Recommender system and its operation |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108093126A (zh) * | 2016-11-22 | 2018-05-29 | 苹果公司 | 用于拒绝来电的智能数字助理 |
KR101877161B1 (ko) * | 2017-01-09 | 2018-07-10 | 포항공과대학교 산학협력단 | 문서 문맥정보를 고려하는 상황기반 추천 방법 및 장치 |
CN111259235A (zh) * | 2020-01-09 | 2020-06-09 | 齐鲁工业大学 | 基于上下文感知及特征交互建模的个性化推荐方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8935303B2 (en) * | 2012-12-28 | 2015-01-13 | Telefonica, S.A. | Method and system of optimizing a ranked list of recommended items |
-
2020
- 2020-08-10 CN CN202010793376.8A patent/CN111931052B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108093126A (zh) * | 2016-11-22 | 2018-05-29 | 苹果公司 | 用于拒绝来电的智能数字助理 |
KR101877161B1 (ko) * | 2017-01-09 | 2018-07-10 | 포항공과대학교 산학협력단 | 문서 문맥정보를 고려하는 상황기반 추천 방법 및 장치 |
CN111259235A (zh) * | 2020-01-09 | 2020-06-09 | 齐鲁工业大学 | 基于上下文感知及特征交互建模的个性化推荐方法及系统 |
Non-Patent Citations (1)
Title |
---|
基于深度学习的情境感知推荐系统研究进展;李其娜;李廷会;;计算机系统应用(第02期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111931052A (zh) | 2020-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931052B (zh) | 基于特征交互图神经网络的上下文感知推荐方法及系统 | |
Ji et al. | A survey on knowledge graphs: Representation, acquisition, and applications | |
Zhu et al. | Aligraph: A comprehensive graph neural network platform | |
Chang et al. | Bundle recommendation with graph convolutional networks | |
Wang et al. | Top-N personalized recommendation with graph neural networks in MOOCs | |
CN110737778A (zh) | 基于知识图谱和Transformer的专利推荐方法 | |
CN113918833B (zh) | 通过社交网络关系的图卷积协同过滤实现的产品推荐方法 | |
CN113918834B (zh) | 融合社交关系的图卷积协同过滤推荐方法 | |
CN115221413B (zh) | 一种基于交互式图注意力网络的序列推荐方法及系统 | |
Liu et al. | GNNRec: Gated graph neural network for session-based social recommendation model | |
Kovalchuk et al. | A conceptual approach to complex model management with generalized modelling patterns and evolutionary identification | |
Liang et al. | A broad learning approach for context-aware mobile application recommendation | |
CN113918832A (zh) | 基于社交关系的图卷积协同过滤推荐系统 | |
Hazrati et al. | Entity representation for pairwise collaborative ranking using restricted Boltzmann machine | |
Huang et al. | Multi-scale interest dynamic hierarchical transformer for sequential recommendation | |
Chang et al. | KGTN: Knowledge Graph Transformer Network for explainable multi-category item recommendation | |
CN116821519A (zh) | 一种基于图结构的系统过滤和降噪的智能推荐方法 | |
Stavinova et al. | Synthetic data-based simulators for recommender systems: A survey | |
Zhu et al. | A hybrid model for nonlinear regression with missing data using quasilinear kernel | |
Chew et al. | A hybrid recommender system based on data enrichment on the ontology modelling | |
Ma et al. | Heterogeneous graph neural network for multi-behavior feature-interaction recommendation | |
Abu-Rasheed et al. | Pedagogically-informed implementation of reinforcement learning on knowledge graphs for context-aware learning recommendations | |
Ning et al. | Nonlinear structural fusion for multiplex network | |
Vajjala et al. | Vietoris-rips complex: A new direction for cross-domain cold-start recommendation | |
Salamat | Heterogeneous Graph-Based Neural Network for Social Recommendations with Balanced Random Walk Initialization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |