CN115510335A - 一种融合相关性信息的图神经网络会话推荐方法 - Google Patents
一种融合相关性信息的图神经网络会话推荐方法 Download PDFInfo
- Publication number
- CN115510335A CN115510335A CN202211210004.3A CN202211210004A CN115510335A CN 115510335 A CN115510335 A CN 115510335A CN 202211210004 A CN202211210004 A CN 202211210004A CN 115510335 A CN115510335 A CN 115510335A
- Authority
- CN
- China
- Prior art keywords
- sequence
- information
- item
- representation
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 20
- 230000003993 interaction Effects 0.000 claims abstract description 29
- 238000012546 transfer Methods 0.000 claims abstract description 21
- 230000002452 interceptive effect Effects 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 32
- 239000013598 vector Substances 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 12
- 238000012549 training Methods 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims 1
- 230000007547 defect Effects 0.000 abstract description 6
- 230000000694 effects Effects 0.000 abstract description 4
- 238000007796 conventional method Methods 0.000 abstract description 2
- 230000006399 behavior Effects 0.000 description 9
- 230000007774 longterm Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 101100041681 Takifugu rubripes sand gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种融合相关性信息的图神经网络会话推荐方法,属于会话推荐技术领域。本发明将所有序列中的所有物品转换成无向图再导入到相关信息嵌入模块中,对相关性信息进行建模;同时将每条序列都转换为一张有向图,基于转移关系来捕获物品和物品之间的转移信息,并使用转移信息嵌入模块来对转移信息进行建模。合并相关性信息和转移信息后传递到会话表示模块,获取当前用户交互序列最终的表示。使用编码器处理交互时间戳序列,使用解码器处理交互物品序列,从而融合每次交互行为的具体时序信息以捕获更为细粒度的用户行为模式。本发明克服了现有方法没有考虑物品与物品的相关性的缺陷,减弱了序列中的噪声带来的影响,提高了推荐效果。
Description
技术领域
本发明属于会话推荐技术领域,具体涉及一种融合相关性信息的图神经网络会话推荐方法。
背景技术
现有的会话推荐方法主要通过常见的序列建模算法(例如马尔科夫链,循环神经网络,图神经网络模型)对用户(可能匿名)历史交互行为序列建模,捕获有效的用户行为模式,从而预测用户未来可能交互的物品,但现有的会话推荐模型的算法仍存在不足之处:现有会话推荐方法仅对了序列中物品和物品之间转移信息进行建模,而忽略了物品之间的相关性信息,这种相关性信息对用户交互序列的建模同样极其重要,仅使用转移信息使得序列建模不仅容易受到序列中噪声的影响,而且对于复杂的用户行为模式也难以得到深入有效的建模。
发明内容
本发明提供了一种融合相关性信息的图神经网络会话推荐方法,可用于提高对物品的推荐效果。
本发明采用的技术方案为:
一种融合相关性信息的图神经网络会话推荐方法,所述方法包括:
步骤1,构建并训练推荐模型;
所述推荐模型包括相关性信息模块、转移性信息模块和用户表示模块;
其中,推荐模型的输入为用户-物品的交互序列[s1,s2,…,sl…,sL],sl表示第l条交互序列,其中l=1,2,…,L,L表示交互序列的数量;
将所有交互序列中的所有物品构建成一张物品无向图,在物品无向图中,若两个物品在序列中相邻则相连,并定义A表示物品无向图的邻接矩阵,
定义一个可学习的物品嵌入矩阵E,任意物品i的嵌入信息用ei表示;
相关性信息模块采用多层图卷积神经网络获取物品的相关性信息嵌入表示,相关性信息模块(第一层图卷积神经网络)的输入包括:矩阵和初始化的物品嵌入矩阵E,每层图卷积神经网络根据前一层输出的相关性信息嵌入表示更新物品嵌入矩阵E,具体更新公式为:其中,表示物品无向图的度矩阵,分别表示经过第k层、第k+1层图卷积神经网络更新后的相关性信息嵌入表示;
将每条用户-物品的交互序列的所有物品转换成一张有向图,在有向图中,若两个物品在当前序列中相邻则相连;
将每条用户-物品的交互序列的有向图和相关性信息模块输出的Er作为转移性信息模块的输入,转移性信息模块基于注意力机制,根据计算当前用户-物品的交互序列的任意两个相邻的物品i和j之间的注意系数θij,其中,Att()代表注意力函数,表示表物品i和j之间的转移关系的权重参数,ei,ej表示物品i和j的嵌入信息,基于相关性信息模块输出的Er确定;
用户表示模块对当前序列中的每个物品i,将转移性信息模块输出的转移性信息嵌入表示与相关性信息模块输出的相关性嵌入表示eri相加得到每个物品的嵌入表示并通过平均池化操作得到当前序列的全局嵌入表示sg:其中,n表示当前序列的物品数;
用户表示模块基于位置嵌入获取前序列的局部嵌入表示sl:
对于每条交互序列s,有一个相对应的位置嵌入矩阵P=[p1,p2,…,pi…,pt],其中,pi表示第i个物品的位置嵌入向量,根据计算交互序列s的物品i的特征向量并根据得到物品i的用户短期兴趣表示,再根据得到局部嵌入表示sl,其中,W1、W2、W3表示对应的权重,可学习参数,b表示特征向量的偏置项,c表示用户短期兴趣表示的偏置项,均为可学习参数;
用户表示模块拼接全局嵌入表示与局部嵌入表示得到当前序列的嵌入表示S=[sl||sg];
基于设置的训练数据集对相关性信息模块、转移性信息模块和用户表示模块中的可学习参数进行深度学习训练,当满足预置的训练结束条件(损失收敛或者达到最大的训练次数)时停止,得到训练好的推荐模型;
步骤2,基于训练好的推荐模型获取推荐列表:
使用训练好的推荐模型在待处理数据集进行预测,对于待处理数据集中每一条用户-物品的交互序列,通过推荐模型计算出它对每个物品的偏好分数,将前K(K大于等于1)个最大偏好分数的物品作为推荐列表进行推荐,向当前交互序列所对应的用户进行推送。进一步的,使用了LeakyRelu作为激活函数获取αij:
其中,⊙代表的是向量中对应元素相乘。
本发明提供的技术方案至少带来如下有益效果:
本发明提出了一种基于图神经网络的模型,同时学习物品之间的两种信息:使用注意力机制在序列构成的有向图中学习物品在序列中的转移性信息,从而更好的捕获用户的长期和短期兴趣;同时本发明使用了图卷积神经网络,在物品构成的无向图中学习物品之间的相关性信息,克服了现有方法没有考虑物品与物品的相关性的缺陷,减弱了序列中的噪声带来的影响,提高了推荐效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中采用的推荐模型的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
针对现有方法忽略了物品和物品之间相关性信息的缺点,本发明提出了一种独特的基于图神经网络的模型,充分利用了两种类型的信息,即物品之间的相关性信息和物品之间的转移信息。更具体地说,一方面,为了获取项目到项目的相关性信息,本发明将所有序列中的所有物品转换成一张大的无向图,若两个物品在某条序列中相邻则将它们相连,相连的边的权重值为这两个物品出现相邻的次数。然后将图导入到本发明提出的相关信息嵌入模块中,对相关性信息进行建模。另一方面,将每条序列都转换为一张有向图,基于预定义的转移关系(例如在同一条序列中,仅有物品i转移到物品j,仅有物品j转移到物品i,以及物品i和物品j之间互有转移,为三种不同的转移关系),来捕获物品和物品之间的转移信息,然后使用转移信息嵌入模块来对转移信息进行建模。此外,为了学习用户的长期和短期兴趣,将得到的相关性信息和转移信息合并后,传递到一个会话表示模块,分别获取用户交互序列的全局表示(代表长期兴趣)与局部表示(代表短期兴趣)。最后,全局表示与局部表示融合即可得到当前用户交互序列最终的表示。
针对无法利用时序信息对用户历史交互行为进行建模的缺点,本发明提出了一种独特的编码器-解码器结构的方法,使用编码器处理交互时间戳序列,使用解码器处理交互物品序列,从而融合每次交互行为的具体时序信息以捕获更为细粒度的用户行为模式。同时针对时序信息具有连续性的特点,本发明使用了一种基于窗函数的编码方法,可以更好地将时间戳转换成嵌入编码。再结合自注意力机制,剔除时序信息和物品信息中的冗余部分,利用其中的关键信息,对用户近期交互行为做出了更精确的预测,克服了现有方法没有考虑具体时序信息的缺陷,提高了推荐效果。
如图1所示,本发明采用的会话推荐模型包括:捕捉物品相关性信息模块,捕捉物品转移性信息模块,以及用户表示模块。各模块具体实现如下:
(1)相关性信息模块的构建。
整个模型的输入为用户-物品的交互序列[s1,s2,…,sL],而相关性信息模块的输入共有两部分:首先将所有序列中的所有物品构建成一张大的无向图,两个物品如果在序列中相邻则相连,然后将所有物品的无向图的邻接矩阵A∈RN×N作为相关性信息模块的第一部分输入,其中,N表示物品数量。对于物品序列,定义了一个可学习的物品嵌入矩阵E∈RN ×d,d表示物品嵌入信息的维度,其中每个物品i的嵌入信息用ei表示,该物品嵌入矩阵为相关性信息模块的第二部分输入。在该模块中,首先会在邻接矩阵中加上单位矩阵IN,加强其自交互信息:
在模块中使用了多层图卷积神经网络,在每层图卷积神经网络中,都会根据前一层的结果更新所有物品的相关性信息嵌入表示,具体更新公式如下:
其中,Ni代表物品i在无向图中邻居节点的个数,Nj表示表物品j在无向图中邻居节点的个数,表示第k次更新物品i的相关性信息,每次更新相当于对物品i周围的邻居节点做了一次聚合操作。最终,所有物品的相关性嵌入表示为在每一层图卷积网络中得到的嵌入表示的加权和,即:
其中,βk即为每一层的权重值,是可学习的超参数,E(0)为一开始输入的物品嵌入矩阵,可随机初始化。
(2)转移性信息模块的构建。
如图1所示,转移性信息模块的输入同样由两部分构成,首先将每条序列转换成一张有向图,并将所有的有向图作为该模块的第一部分输入,第二部分则与相关性信息模块的输入相同,为物品的嵌入矩阵E∈RN×d。由于每个有向图中不同物品之间的转移关系不同,利用注意力机制来区分不同转移关系对转移性信息嵌入构建的重要性。在第一阶段,对于物品的嵌入向量ei和ej,其对应的物品i和j在同一会话中相邻,计算注意系数θij,表示项目j对于i的重要性:
其中,Att代表注意力函数,rij则代表物品i和j之间的转移关系,因此代表当前转移关系的权重参数。为了比较不同的邻居物品对于当前物品的重要性,本发明引入了softmax方法,将权重参数转换为概率形式:
其中,代表物品i在当前序列s构成的有向图中的邻居节点。对于Att,即注意力激活函数的选择是多样的。在本发明的会话推荐模型中,为了更好的结合当前节点和邻居节点之间的信息,使用了嵌入向量中对应元素相乘的方法来结合物品间的转移信息,并使用了LeakyRelu作为激活函数:
其中,⊙代表的是向量中对应元素相乘。最终,转移性信息模块最后输出的物品i在当前序列s中的转移性信息嵌入表示为其自身的嵌入表示与其邻居节点的嵌入表示的加权和:
(3)用户表示模块的构建。
由图1所示,当计算出了每个物品在当前序列的转移性信息嵌入与每个物品的相关性信息嵌入后,需要结合两种信息,进一步得到整条序列的嵌入表示。首先对于当前序列s中的每个物品i,其最终的嵌入表示为两种信息的元素和:
之后,为了分别捕捉到用户的长期兴趣和短期兴趣,分别构建了序列全局嵌入表示用户的长期兴趣,以及序列的局部嵌入来表示用户的短期兴趣。对于全局嵌入表示,使用了平均池化策略来结合当前序列中所有物品的信息:
其中,n表示当前序列的物品数。
而对于用户的局部嵌入表示,本发明认为在用户交互序列中点击越晚的物品越能表示用户的短期兴趣,因此引入了位置嵌入的概念。对于每条序列s,有一个相对应的位置嵌入矩阵P=[p1,p2,…,pi…,pt],其中pi∈Rd是一个可学习的嵌入向量,为了体现越晚点击的物品越能表示用户的短期兴趣,将物品嵌入向量与位置嵌入向量倒序后相拼接:
其中,tanh为激活函数,而W1和b都为可学习的参数。之后,使用软注意力机制来获取每个序列中的每个物品对于用户短期兴趣的权重,最后加权求和得到最终的用户短期兴趣表示。
其中,W2和W3表示对应的权重,c表示软注意力机制的偏置项,均为可学习的参数。
最终,当前序列的嵌入表示为该序列的全局嵌入表示与局部嵌入表示的拼接:
S=[sl||sg]
最后,通过使用当前序列的嵌入表示和每个物品的嵌入表示求内积来计算该序列对每个物品的偏好分数:
其中,最终的计算结果yi即代表当前序列下一个可能交互的物品为vi的偏好分数,将前K(K大于等于1)个最大偏好分数的物品作为推荐列表进行推荐,向当前交互序列所对应的用户进行推送。
为了进一步验证本发明的会话推荐性能,本发明实施例在三个来自显示场景的公开数据集评估了本发明实施例提出的模型,这些数据集有着不同的稀疏度,大小,时间跨度。
Diginetica数据集来源于CIKM Cup,其中包含典型的交易数据;Nowplaying数据集由用户的音乐收听行为组成;Tmall数据集来自IJCAI竞赛,由天猫网购平台上的用户-物品交互组成。
表1数据集特征(预处理后)
数据集 | 总交互数目 | 训练序列数目 | 测试序列数目 | 物品总数目 | 序列平均长度 |
Diginetica | 982,961 | 719,470 | 60,858 | 43,097 | 5.12 |
Nowplaying | 1,367,963 | 825,304 | 89,824 | 60,417 | 7.42 |
Tmall | 818,479 | 351,268 | 25,898 | 40,728 | 6.69 |
本发明使用下述两种种在业界被广泛使用的评价指标:
1.准确率(Hit Ratio,HR),HR主要是衡量推荐的准确性。
3.平均倒数排名(Mean Reciprocal Rank,MRR),MRR是通过衡量正确推荐的物品在推荐列表中的位置衡量模型的推荐效果。
本实施例中,与本发明方法进行对比的方法如下:
Pop:最简单的baseline,根据物品流行度推荐物品。
Item-KNN:根据余弦相似性推荐与当前序列中的物品相似的物品
FMPC:一种结合马尔可夫链和矩阵分解的混合模型,用于捕获用户的偏好和序列信息。
GRU4Rec:一使用RNN来建模用户历史交互行为的模型,提出一种“会话并行”的方式加速。
NARM:该模型将RNN与注意力机制相结合,以捕捉用户的顺序行为特征和主要目的。
STAMP:采用自我注意力机制,不仅通过捕捉一般兴趣来模拟用户的长期行为,还基于用户在会话中的最后一次点击来关注增强用户短期兴趣的影响。
SR-GNN:使用图形神经网络进行基于会话的推荐。它通过将序列转换为有向图来捕获物品之间的信息。并且和STAMP相同,它使用自我注意机制来学习序列最终的表示。
FGNN:通过设计一个加权注意力图层来学习物品的嵌入切入,从而考虑序列的潜在顺序。
GCE-GNN:建立了两个不同的序列图,以获得全局信息和局部信息。
本发明与上述现有方法的推荐结果的对比结果如表2所示:
表2
从表2可知,本发明提出的RA-GNN在三个数据集上的各个指标上都获得了最好的结果,如表二所示,黑体为当前指标下最好结果。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (2)
1.一种融合相关性信息的图神经网络会话推荐方法,其特征在于,包括下列步骤:
步骤1,构建并训练推荐模型;
所述推荐模型包括相关性信息模块、转移性信息模块和用户表示模块;
其中,推荐模型的输入为用户-物品的交互序列[s1,s2,…,sl…,sL],sl表示第l条交互序列,其中l=1,2,…,L,L表示交互序列的数量;
将所有交互序列中的所有物品构建成一张物品无向图,在物品无向图中,若两个物品在序列中相邻则相连,并定义A表示物品无向图的邻接矩阵,
定义一个可学习的物品嵌入矩阵E,任意物品i的嵌入信息用ei表示;
相关性信息模块采用多层图卷积神经网络获取物品的相关性信息嵌入表示,相关性信息模块的输入包括:矩阵和初始化的物品嵌入矩阵E,每层图卷积神经网络根据前一层输出的相关性信息嵌入表示更新物品嵌入矩阵E,具体更新公式为:其中,表示物品无向图的度矩阵,分别表示经过第k层、第k+1层图卷积神经网络更新后的相关性信息嵌入表示;
将每条用户-物品的交互序列的所有物品转换成一张有向图,在有向图中,若两个物品在当前序列中相邻则相连;
将每条用户-物品的交互序列的有向图和相关性信息模块输出的Er作为转移性信息模块的输入,转移性信息模块基于注意力机制,根据计算当前用户-物品的交互序列的任意两个相邻的物品i和j之间的注意系数θij,其中,Att()代表注意力函数,表示表物品i和j之间的转移关系的权重参数,为可学习参数,ei,ej表示物品i和j的嵌入信息,基于相关性信息模块输出的Er确定;
用户表示模块对当前序列中的每个物品i,将转移性信息模块输出的转移性信息嵌入表示与相关性信息模块输出的相关性嵌入表示eri相加得到每个物品的嵌入表示并通过平均池化操作得到当前序列的全局嵌入表示sg:其中,n表示当前序列的物品数;
用户表示模块基于位置嵌入获取前序列的局部嵌入表示sl:
对于每条交互序列s,有一个相对应的位置嵌入矩阵P=[p1,p2,…,pi…,pt],其中,pi表示第i个物品的位置嵌入向量,根据计算交互序列s的物品i的特征向量fi s,并根据得到物品i的用户短期兴趣表示,再根据得到局部嵌入表示sl,其中,W1、W2、W3表示对应的权重,为可学习参数,b表示特征向量的偏置项,c表示用户短期兴趣表示的偏置项,b、c均为可学习参数;
用户表示模块拼接全局嵌入表示与局部嵌入表示得到当前序列的嵌入表示S=[sl||sg];
基于设置的训练数据集对相关性信息模块、转移性信息模块和用户表示模块中的可学习参数进行深度学习训练,当满足预置的训练结束条件时停止,得到训练好的推荐模型;
步骤2,基于训练好的推荐模型获取推荐列表:
使用训练好的推荐模型在待处理数据集进行预测,对于待处理数据集中的每一条用户-物品的交互序列,通过推荐模型计算出它对每个物品的偏好分数,再将前K个最大偏好分数的物品作为推荐列表,并向当前交互序列所对应的用户进行推送,其中,K大于等于1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211210004.3A CN115510335A (zh) | 2022-09-30 | 2022-09-30 | 一种融合相关性信息的图神经网络会话推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211210004.3A CN115510335A (zh) | 2022-09-30 | 2022-09-30 | 一种融合相关性信息的图神经网络会话推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115510335A true CN115510335A (zh) | 2022-12-23 |
Family
ID=84508719
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211210004.3A Pending CN115510335A (zh) | 2022-09-30 | 2022-09-30 | 一种融合相关性信息的图神经网络会话推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115510335A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542720A (zh) * | 2023-07-05 | 2023-08-04 | 湖北工业大学 | 一种基于图卷积网络的时间增强信息序列推荐方法及系统 |
-
2022
- 2022-09-30 CN CN202211210004.3A patent/CN115510335A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116542720A (zh) * | 2023-07-05 | 2023-08-04 | 湖北工业大学 | 一种基于图卷积网络的时间增强信息序列推荐方法及系统 |
CN116542720B (zh) * | 2023-07-05 | 2023-09-19 | 湖北工业大学 | 一种基于图卷积网络的时间增强信息序列推荐方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111581520B (zh) | 基于会话中物品重要性的物品推荐方法和系统 | |
CN109754317B (zh) | 融合评论的可解释性服装推荐方法、系统、设备及介质 | |
CN111881342A (zh) | 一种基于图孪生网络的推荐方法 | |
CN111222332A (zh) | 一种结合注意力网络和用户情感的商品推荐方法 | |
CN114065048A (zh) | 基于多异构图图神经网络的物品推荐方法 | |
CN110196928B (zh) | 完全并行化具有领域扩展性的端到端多轮对话系统及方法 | |
CN111861046B (zh) | 基于大数据和深度学习的专利价值智能评估系统 | |
CN110619540A (zh) | 一种神经网络的点击流预估方法 | |
CN112115371A (zh) | 一种基于因子分解机的神经注意力机制手机应用推荐模型 | |
CN115510335A (zh) | 一种融合相关性信息的图神经网络会话推荐方法 | |
CN114020999A (zh) | 一种电影社交网络的社区结构检测方法及系统 | |
CN111506821A (zh) | 推荐模型、方法、装置、设备及存储介质 | |
CN116541607A (zh) | 基于商品检索数据分析的智能推荐方法 | |
CN113919440A (zh) | 一种融合双重注意力机制和图卷积社交网络谣言检测系统 | |
CN116204729A (zh) | 一种基于超图神经网络的跨领域群组智能推荐方法 | |
CN114154080B (zh) | 一种基于图神经网络的动态社会化推荐方法 | |
CN113868537B (zh) | 一种基于多行为会话图融合的推荐方法 | |
CN114925270A (zh) | 一种会话推荐方法和模型 | |
CN114492451A (zh) | 文本匹配方法、装置、电子设备及计算机可读存储介质 | |
CN113010774A (zh) | 一种基于动态深度注意力模型的点击率预测方法 | |
CN110570226B (zh) | 一种联合主题模型和异质信息网络的评分预测方法 | |
CN117094859A (zh) | 结合图神经网络和多层感知机的学习路径推荐方法及系统 | |
CN117194765A (zh) | 一种兴趣感知的双通道图对比学习会话推荐方法 | |
CN113888238A (zh) | 一种广告点击率预测方法、装置及计算机设备 | |
CN115905859A (zh) | 一种基于显著分数的联邦学习客户端贡献评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |