CN113326425A - 一种基于结构和语义注意力堆叠的会话推荐方法及系统 - Google Patents
一种基于结构和语义注意力堆叠的会话推荐方法及系统 Download PDFInfo
- Publication number
- CN113326425A CN113326425A CN202110425642.6A CN202110425642A CN113326425A CN 113326425 A CN113326425 A CN 113326425A CN 202110425642 A CN202110425642 A CN 202110425642A CN 113326425 A CN113326425 A CN 113326425A
- Authority
- CN
- China
- Prior art keywords
- user
- item
- sequence
- interest
- global
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于结构和语义注意力堆叠的会话推荐方法及系统,属于会话推荐技术领域。本发明所述方法是基于用户物品点击序列,首先通过建立基于语义、时序结构、空间结构的注意力机制模型,从不同角度出发强化有关物品对用户全局兴趣表征的重要程度、弱化无关物品对用户全局兴趣表征的干扰,建立三种角度下的用户全局兴趣;然后,建立三种用户全局兴趣融合模型,形成多角度下的用户全局兴趣表征;最后,结合基于GRU循环神经网络生成的用户局部兴趣表征,建立用户兴趣表征,实现对用户下一刻点击物品的预测。
Description
技术领域
本发明涉及会话推荐技术领域,具体涉及一种基于结构和语义注意力堆叠的会话推荐方法及系统。
背景技术
推荐系统在信息过载背景下实现了对用户的无效内容过滤和有用内容推荐,该功能已应用于多个线上平台并在促进用户消费、增加销售额等方面发挥着重要作用,如淘宝、京东等。传统的推荐方法大多基于用户信息及其长期历史行为来实现,然而在实际应用场景中无法得到有效的满足,如用户未注册登录导致缺乏用户信息。为此,学术界提出了会话推荐任务,即通过挖掘匿名用户的行为信息,提取用户兴趣,推荐下一刻用户感兴趣的物品。
进一步地,现有会话推荐方法多用局部兴趣和全局兴趣来共同表征用户兴趣以实现下一刻用户点击物品的预测。然而,该方法在建模用户全局兴趣时,只突出强调了最后一个物品相较于物品序列的语义关联信息,而未考虑时序结构、空间结构等信息对用户全局兴趣表示的重要性,影响了用户兴趣表征精确性与合理性。为此,本专利提出了一种基于结构和语义堆叠的会话推荐方法及系统,解决用户兴趣表征不精准问题。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于结构和语义注意力堆叠的会话推荐方法及系统,从语义、时序结构、空间结构出发,利用注意力机制,提出了一种新颖的会话推荐模型结构,可有效地抽取用户兴趣特征,实现下一刻用户点击物品的预测,解决了上述背景技术中提到的问题。
为实现上述目的,本发明提供如下技术方案:一种基于结构和语义注意力堆叠的会话推荐方法,所述会话推荐方法具体步骤如下:
步骤S10:根据用户物品点击序列,构建物品字典、物品集合、无向有权物品点击转移图;
步骤S20:构造由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣;
步骤S30:提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣;
步骤S40:提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣;
步骤S50:建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,并结合用户局部兴趣形成用户兴趣表征,实现用户下一刻点击物品的预测。
优选的,所述步骤S10的具体步骤如下:
步骤S101,用户物品点击序列为|Is|为用户点击的物品数量,用户物品点击序列的物品集合为V,物品集合为物品字典的子集,物品集合中物品个数为|V|,|Is|≥|V|,无向有权物品点击转移图为graph=G(V,E),其中E=<vi,vj,wij>代表用户在用户物品点击序列中先点击物品vi后再点击vj、或者先点击物品vj后再点击vi的边,边权重为两种点击方式的总次数wij,vi∈V,vj∈V,i≠j。
优选的,所述步骤S20的具体步骤如下:
步骤S201,采用随机初始化方式对物品字典进行初始化,得到基于语义的物品字典高维空间表示DICsem,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于语义上的高维空间表示,1≤k≤|V|,为d×|V|维矩阵,d为物品高维空间表示的维度,同时形成基于语义的用户物品点击序列高维空间表示
步骤S202,建立由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣,公式如下:
Msem=GRU(sequencesem)
其中,GRU用于提炼用户物品点击序列中基于时序信息的循环神经网络函数,1≤p≤|Is|为更新后的基于语义的用户点击物品序列的高维空间表示,为综合了sequencesem中前p个基于语义的物品表示。此外,由于用户物品点击序列中最后一个物品最为体现用户下一时刻的兴趣偏好,故令为用户局部兴趣表征local。
优选的,所述步骤S30的具体步骤如下:
步骤S301,采用随机初始化方式对物品字典进行初始化,得到基于时序结构的物品字典高维空间表示DICseqstru,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于时序结构上的高维空间表示,同时形成基于时序结构的用户物品点击序列高维空间表示
步骤302,提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣,计算公式如下:
wseqstru=softmax(wseqstru)
其中,globalseqstru为基于时序结构的用户全局兴趣表征,wseqstru为用户物品点击序列中每个物品相较于最后一个物品间的时序结构相关性。
优选的,所述步骤S40的具体步骤如下:
步骤S401,采用随机初始化方式对物品字典进行初始化,得到基于空间结构的物品字典高维空间表示DICspacestru,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于空间结构上的高维空间表示,同时形成用户物品点击序列在该高维空间表示
步骤402,提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣,计算公式如下:
wspacestru=softmax(wspacestru)
其中,globalspacestru为基于空间结构的用户全局兴趣表征,是利用dijkstra函数在无向有权物品点击转移图中求取从vp到的最短路径节点序列,并基于此计算出该条路径上的节点间转移权重值总和进而形成序列中每个物品与最后一个物品间的转移权重
优选的,所述步骤S50的具体步骤如下:
步骤S501,建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,建立用户全局兴趣global;
global=[globalsem||globalseqstru||globalspacestru]
步骤S502,结合用户局部兴趣形成用户兴趣表征,同时构建基于前馈神经网络的预测模型,实现对用户兴趣的预测和推荐,计算公式如下:
pred=softmax(|global||local|*W3)
本发明的有益效果是:以用户点击物品序列为研究对象,通过建立基于语义、时序结构、空间结构的注意力机制模型,构造用户全局兴趣融合模型,形成多角度下的用户全局兴趣表征,实现了从不同角度出发强化有关物品对用户全局兴趣表征的重要程度、弱化无关物品对用户全局兴趣表征的干扰;并在此基础上结合基于GRU循环神经网络生成的用户局部兴趣表征,建立较为精准和全面的用户兴趣表征,实现用户下一刻点击物品的预测。
附图说明
图1为本发明方法步骤流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,本发明提供一种技术方案:
本发明提供如下技术方案:一种基于结构和语义注意力堆叠的会话推荐方法,所述会话推荐方法具体步骤如下:
步骤1:根据用户物品点击序列,构建物品字典、物品集合、无向有权物品点击转移图;
步骤1-1,用户物品点击序列为Is=[v1,v2,v3,…,v|Is|],|Is|为用户点击的物品数量,用户物品点击序列的物品集合为V,物品集合为物品字典的子集,物品集合中物品个数为|V|,|Is|≥|V|,无向有权物品点击转移图为graph=G(V,E),其中E=<vi,vj,wij>代表用户在用户物品点击序列中先点击物品Vi后再点击Vj、或者先点击物品Vj后再点击Vi的边,边权重为两种点击方式的总次数为wij,vi∈V,υj∈V,i≠j。
步骤2:构造由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣;
步骤2-1,采用随机初始化方式对物品字典进行初始化,得到基于语义的物品字典高维空间表示DICsem,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于语义上的高维空间表示,1≤k≤|V|,为d×|V|维矩阵,d为物品高维空间表示的维度,同时形成基于语义的用户物品点击序列高维空间表示
步骤2-2,建立由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣,公式如下:
Msem=GRU(sequencesem)
其中,GRU用于提炼用户物品点击序列中基于时序信息的循环神经网络函数,1≤p≤|Is|为更新后的基于语义的用户点击物品序列的高维空间表示,为综合了sequencesem中前p个基于语义的物品表示。此外,由于用户物品点击序列中最后一个物品最为体现用户下一时刻的兴趣偏好,故令为用户局部兴趣表征local。
步骤3:提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣;
步骤3-1,采用随机初始化方式对物品字典进行初始化,得到基于时序结构的物品字典高维空间表示DICseqstru,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于时序结构上的高维空间表示,同时形成基于时序结构的用户物品点击序列高维空间表示
步骤3-2,提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣。计算公式如下:
wseqstru=softmax(wseqstru)
其中,globalseqstru为基于时序结构的用户全局兴趣表征,wseqstru为用户物品点击序列中每个物品相较于最后一个物品间的时序结构相关性。
步骤4:提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣;
步骤4-1,采用随机初始化方式对物品字典进行初始化,得到基于空间结构的物品字典高维空间表示DICspacestru,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于空间结构上的高维空间表示,同时形成用户物品点击序列在该高维空间表示
步骤4-1,提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣,计算公式如下:
wspacestru=softmax(wspacestru)
其中,globalsapcestru为基于空间结构的用户全局兴趣表征,是利用dijkstra(迪杰斯特拉函数)在无向有权物品点击转移图中求取从vp到的最短路径节点序列,并基于此计算出该条路径上的节点间转移权重值总和进而形成序列中每个物品与最后一个物品间的转移权重
步骤5:建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,并结合用户局部兴趣形成用户兴趣表征,实现用户下一刻点击物品的预测;
步骤5-1,建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,建立用户全局兴趣global;
global=[globalsem||globalseqstru||globalspacestru]
步骤5-2,结合用户局部兴趣形成用户兴趣表征,同时构建基于前馈神经网络的预测模型,实现对用户兴趣的预测和推荐,计算公式如下:
pred=softmax([global||loca]*W3)
一种基于结构和语义注意力堆叠的会话推荐系统,包含了一个基于语义的用户全局兴趣和用户局部兴趣模块、一个基于时序结构的用户全局兴趣模块、一个基于空间结构的用户全局兴趣模块、一个用户全局兴趣融合模块、一个用户兴趣预测模块,具体为:
构造由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣;
提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣;
提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣;
建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,并结合用户局部兴趣形成用户兴趣表征,实现用户下一刻点击物品的预测;
本发明的方法及系统,以用户点击物品序列为研究对象,通过建立基于语义、时序结构、空间结构的注意力机制模型,建立了多角度下的用户全局兴趣融合模型,从不同角度出发强化有关物品对用户全局兴趣表征的重要程度、弱化无关物品对用户全局兴趣表征的干扰;并在此基础上结合基于GRU循环神经网络生成的用户局部兴趣,建立较为精准和全面的用户兴趣表征,实现用户下一刻点击物品的预测。
尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于结构和语义注意力堆叠的会话推荐方法,其特征在于,所述会话推荐方法具体步骤如下:
步骤S10:根据用户物品点击序列,构建物品字典、物品集合、无向有权物品点击转移图;
步骤S20:构造由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣;
步骤S30:提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣;
步骤S40:提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣;
步骤S50:建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,并结合用户局部兴趣形成用户兴趣表征,实现用户下一刻点击物品的预测。
3.根据权利要求1所述的基于结构和语义注意力堆叠的会话推荐方法,其特征在于:所述步骤S20的具体步骤如下:
步骤S201,采用随机初始化方式对物品字典进行初始化,得到基于语义的物品字典高维空间表示DICsem,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于语义上的高维空间表示,1≤k≤|V|,为d×|V|维矩阵,d为物品高维空间表示的维度,同时形成基于语义的用户物品点击序列高维空间表示
步骤S202,建立由GRU循环神经网络和基于语义的注意力机制堆叠而成的用户兴趣表征模型,建立基于语义的用户全局兴趣和用户局部兴趣,公式如下:
Msem=GRU(sequencesem)
其中,GRU用于提炼用户物品点击序列中基于时序信息的循环神经网络函数,为更新后的基于语义的用户点击物品序列的高维空间表示,为综合了sequencesem中前p个基于语义的物品表示。此外,由于用户物品点击序列中最后一个物品最为体现用户下一时刻的兴趣偏好,故令为用户局部兴趣表征local。
4.根据权利要求1所述的基于结构和语义注意力堆叠的会话推荐方法,其特征在于:所述步骤S30的具体步骤如下:
步骤S301,采用随机初始化方式对物品字典进行初始化,得到基于时序结构的物品字典高维空间表示DICseqstru,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于时序结构上的高维空间表示,同时形成基于时序结构的用户物品点击序列高维空间表示
步骤302,提取用户物品点击序列中每个物品与该序列中最后一个物品间的点击物品相对时间差,构造基于时序结构的注意力机制,建立基于时序结构的用户全局兴趣,计算公式如下:
wseqstru=softmax(wseqstru)
其中,globalseqstru为基于时序结构的用户全局兴趣表征,wseqstru为用户物品点击序列中每个物品相较于最后一个物品间的时序结构相关性。
5.根据权利要求1所述的基于结构和语义注意力堆叠的会话推荐方法,其特征在于:所述步骤S40的具体步骤如下:
步骤S401,采用随机初始化方式对物品字典进行初始化,得到基于空间结构的物品字典高维空间表示DICspacestru,提取物品集合在该高维空间表示 为物品集合中第k个物品在基于空间结构上的高维空间表示,同时形成用户物品点击序列在该高维空间表示
步骤402,提取无向有权物品点击转移图中用户物品点击序列每个物品与该序列最后一个物品间最短路径下节点间转移权重值的总和,构造基于空间结构的注意力机制,建立基于空间结构的用户全局兴趣,计算公式如下:
wspacestru=softmax(wspacestru)
6.根据权利要求1所述的基于结构和语义注意力堆叠的会话推荐方法,其特征在于:所述步骤S50的具体步骤如下:
步骤S501,建立基于语义、时序结构、空间结构的用户全局兴趣融合机制,建立用户全局兴趣global;
global=[globalsem||globalseqstru||globalspacestru]
步骤S502,结合用户局部兴趣形成用户兴趣表征,同时构建基于前馈神经网络的预测模型,实现对用户兴趣的预测和推荐,计算公式如下:
pred=softmax([global||local]*W3)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110425642.6A CN113326425B (zh) | 2021-04-20 | 2021-04-20 | 一种基于结构和语义注意力堆叠的会话推荐方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110425642.6A CN113326425B (zh) | 2021-04-20 | 2021-04-20 | 一种基于结构和语义注意力堆叠的会话推荐方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113326425A true CN113326425A (zh) | 2021-08-31 |
CN113326425B CN113326425B (zh) | 2022-09-20 |
Family
ID=77414902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110425642.6A Active CN113326425B (zh) | 2021-04-20 | 2021-04-20 | 一种基于结构和语义注意力堆叠的会话推荐方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326425B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113704441A (zh) * | 2021-09-06 | 2021-11-26 | 中国计量大学 | 一种考虑物品和物品属性特征级别重要性的会话推荐方法 |
CN113961816A (zh) * | 2021-11-26 | 2022-01-21 | 重庆理工大学 | 一种基于结构增强的图卷积神经网络会话推荐方法 |
CN115357785A (zh) * | 2022-08-05 | 2022-11-18 | 山东省计算中心(国家超级计算济南中心) | 一种基于语义交互和局部激活的企业资讯推荐方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816101A (zh) * | 2019-01-31 | 2019-05-28 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种基于图卷积神经网络的会话序列推荐方法及系统 |
CN110008408A (zh) * | 2019-04-12 | 2019-07-12 | 山东大学 | 一种会话推荐方法、系统、设备及介质 |
CN110096711A (zh) * | 2019-05-09 | 2019-08-06 | 中国科学技术大学 | 序列全局关注和局部动态关注的自然语言语义匹配方法 |
CN110334245A (zh) * | 2019-05-20 | 2019-10-15 | 山东大学 | 一种基于时序属性的图神经网络的短视频推荐方法及装置 |
CN111080400A (zh) * | 2019-11-25 | 2020-04-28 | 中山大学 | 一种基于门控图卷积网络的商品推荐方法及系统、存储介质 |
CN111222039A (zh) * | 2019-11-14 | 2020-06-02 | 电子科技大学 | 一种基于长短期兴趣组合的会话推荐方法及系统 |
US20200341976A1 (en) * | 2019-04-25 | 2020-10-29 | Adobe Inc. | Interactive search experience using machine learning |
CN112241626A (zh) * | 2020-10-14 | 2021-01-19 | 网易(杭州)网络有限公司 | 一种语义匹配、语义相似度模型训练方法及装置 |
CN112380435A (zh) * | 2020-11-16 | 2021-02-19 | 北京大学 | 基于异构图神经网络的文献推荐方法及推荐系统 |
CN112528161A (zh) * | 2021-02-07 | 2021-03-19 | 电子科技大学 | 一种基于物品点击序列优化的会话推荐方法 |
-
2021
- 2021-04-20 CN CN202110425642.6A patent/CN113326425B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816101A (zh) * | 2019-01-31 | 2019-05-28 | 中科人工智能创新技术研究院(青岛)有限公司 | 一种基于图卷积神经网络的会话序列推荐方法及系统 |
CN110008408A (zh) * | 2019-04-12 | 2019-07-12 | 山东大学 | 一种会话推荐方法、系统、设备及介质 |
US20200341976A1 (en) * | 2019-04-25 | 2020-10-29 | Adobe Inc. | Interactive search experience using machine learning |
CN110096711A (zh) * | 2019-05-09 | 2019-08-06 | 中国科学技术大学 | 序列全局关注和局部动态关注的自然语言语义匹配方法 |
CN110334245A (zh) * | 2019-05-20 | 2019-10-15 | 山东大学 | 一种基于时序属性的图神经网络的短视频推荐方法及装置 |
CN111222039A (zh) * | 2019-11-14 | 2020-06-02 | 电子科技大学 | 一种基于长短期兴趣组合的会话推荐方法及系统 |
CN111080400A (zh) * | 2019-11-25 | 2020-04-28 | 中山大学 | 一种基于门控图卷积网络的商品推荐方法及系统、存储介质 |
CN112241626A (zh) * | 2020-10-14 | 2021-01-19 | 网易(杭州)网络有限公司 | 一种语义匹配、语义相似度模型训练方法及装置 |
CN112380435A (zh) * | 2020-11-16 | 2021-02-19 | 北京大学 | 基于异构图神经网络的文献推荐方法及推荐系统 |
CN112528161A (zh) * | 2021-02-07 | 2021-03-19 | 电子科技大学 | 一种基于物品点击序列优化的会话推荐方法 |
Non-Patent Citations (1)
Title |
---|
曾义夫等: ""基于图表示学习的会话感知推荐模型"", 《计算机研究与发展》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113704441A (zh) * | 2021-09-06 | 2021-11-26 | 中国计量大学 | 一种考虑物品和物品属性特征级别重要性的会话推荐方法 |
CN113961816A (zh) * | 2021-11-26 | 2022-01-21 | 重庆理工大学 | 一种基于结构增强的图卷积神经网络会话推荐方法 |
CN113961816B (zh) * | 2021-11-26 | 2022-07-01 | 重庆理工大学 | 一种基于结构增强的图卷积神经网络会话推荐方法 |
CN115357785A (zh) * | 2022-08-05 | 2022-11-18 | 山东省计算中心(国家超级计算济南中心) | 一种基于语义交互和局部激活的企业资讯推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113326425B (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113326425B (zh) | 一种基于结构和语义注意力堆叠的会话推荐方法及系统 | |
Wu et al. | Modeling the evolution of users’ preferences and social links in social networking services | |
CN107590243B (zh) | 基于随机游走和多样性图排序的个性化服务推荐方法 | |
Jiang et al. | Social recommendation with cross-domain transferable knowledge | |
Zhang et al. | Temporal QoS-aware web service recommendation via non-negative tensor factorization | |
Wang et al. | Diversified and scalable service recommendation with accuracy guarantee | |
CN102117325A (zh) | 动态社会网络用户行为的预测方法 | |
Xu et al. | R a P are: A generic strategy for cold-start rating prediction problem | |
CN112559878B (zh) | 一种基于图神经网络的序列推荐系统及推荐方法 | |
CN106372101A (zh) | 一种视频推荐方法和装置 | |
TW200923807A (en) | Method and system for searching knowledge owner in network community | |
Ding et al. | Session-based recommendation with hypergraph convolutional networks and sequential information embeddings | |
CN114154080B (zh) | 一种基于图神经网络的动态社会化推荐方法 | |
CN114282077A (zh) | 一种基于会话数据的会话推荐方法及系统 | |
CN114595383A (zh) | 一种基于会话序列的海洋环境数据推荐方法及系统 | |
Sachdeva et al. | Selecting appropriate cloud solution for managing big data projects using hybrid AHP-entropy based assessment | |
You et al. | QoS evaluation for web service recommendation | |
Guo et al. | IIDQN: an incentive improved DQN algorithm in EBSN recommender system | |
CN114417124A (zh) | 一种多任务强化学习推荐方法 | |
Li et al. | Session Recommendation Model Based on Context‐Aware and Gated Graph Neural Networks | |
Schall et al. | Dynamic context-sensitive pagerank for expertise mining | |
CN116485501B (zh) | 一种基于图嵌入与注意力机制的图神经网络会话推荐方法 | |
CN113688306A (zh) | 一种基于强化学习的推荐策略生成方法及装置 | |
Ali et al. | NEDRL-CIM: Network embedding meets deep reinforcement learning to tackle competitive influence maximization on evolving social networks | |
Schall et al. | Mining and composition of emergent collectives in mixed service-oriented systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |