CN114693397B - 一种基于注意力神经网络的多视角多模态商品推荐方法 - Google Patents
一种基于注意力神经网络的多视角多模态商品推荐方法 Download PDFInfo
- Publication number
- CN114693397B CN114693397B CN202210260316.9A CN202210260316A CN114693397B CN 114693397 B CN114693397 B CN 114693397B CN 202210260316 A CN202210260316 A CN 202210260316A CN 114693397 B CN114693397 B CN 114693397B
- Authority
- CN
- China
- Prior art keywords
- user
- node
- representing
- characterization
- preference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013528 artificial neural network Methods 0.000 title claims description 13
- 230000007246 mechanism Effects 0.000 claims abstract description 37
- 238000012512 characterization method Methods 0.000 claims abstract description 36
- 206010063659 Aversion Diseases 0.000 claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 45
- 230000009466 transformation Effects 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 11
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 5
- 238000000638 solvent extraction Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000003993 interaction Effects 0.000 abstract description 4
- 238000007781 pre-processing Methods 0.000 abstract description 2
- 238000001914 filtration Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Development Economics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
该发明公开了一种基于注意力机制的多视角多模态的商品推荐方法,属于推荐算法领域。本发明将物品所在场景的多模态信息融入推荐算法中;对数据进行预处理构建了物品相关关系图和物品的描述文本信息;将这些信息输入模型中进行训练,使得模型既使用了用户‑物品的历史交互,又捕捉了物品的描述性文本信息和物品间的相似性信息。不同于其他推荐方法单纯对用户的偏好进行建模,本发明同时对用户的偏好和厌恶进行建模;对用户的历史序列通过用户平均分进行划分,得到用户的偏好序列和厌恶序列,模型对用户的偏好的厌恶分别进行建模。提升了对用户的表征能力。
Description
技术领域
本发明属于推荐算法领域,特别是一种基于注意力机制的多视角多模态推荐方法。
背景技术
注意力机制:注意力机制(Attention Mechanism)是人们在机器学习模型中嵌入的一种特殊结构,用来自动学习和计算输入数据对输出数据的贡献大小。目前,注意力机制已经成为深度学习领域,是应用最广泛的“组件”之一。
神经网络:是一种模仿生物神经网络的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统。
图注意力网络:图注意力网络(GAT)是一种基于空间的图卷积网络,它的注意机制是在聚合特征信息时,将注意机制用于确定节点邻域的权重。
推荐系统是一种信息过滤系统,用于预测用户对物品的"评分"或"偏好"。推荐系统近年来非常流行,应用于各行各业。推荐的对象包括:电影、音乐、新闻、书籍、学术论文、搜索查询、分众分类、以及其他产品。
推荐系统产生推荐列表的方式通常有两种:协同过滤以及基于内容推荐,或者基于个性化推荐。协同过滤方法根据用户历史行为(例如其购买的、选择的、评价过的物品等)结合其他用户的相似决策建立模型。这种模型可用于预测用户对哪些物品可能感兴趣(或用户对物品的感兴趣程度)。基于内容推荐利用一些列有关物品的离散特征,推荐出具有类似性质的相似物品。传统的推荐算法比如基于物品的协同过滤、因子分解机等都取得了显著的效果。
利用神经网络可通过学习一种深层次非线性网络结构,表征用户和物品相关的海量数据,具有强大的从样本中学习数据集本质特征的能力,能够获取用户和物品的深层次特征表示。同时可以通过从多源异构数据中进行自动特征学习,从而将不同数据映射到一个相同的隐空间,能够获得数据的统一表征。这非常适合推荐任务,因此,近年来,越来越多的推荐算法使用神经网络结构,比如NCF、DeepFM、NGCF和MKGAT等等。神经网络的普遍应用推动推荐算法的研究进入了新阶段。
现有技术的缺点:
随着时代的发展,推荐场景也不断在变化,当今的推荐场景中,往往含有多种模态的数据。比如:物品的描述性信息、物品构成图反映的社群信息等等。而已有的基于神经网络的推荐算法往往忽略了场景中丰富的多模态信息,而单纯使用用户和物品的交互历史来进行推荐。这样一来相当于放弃了物品侧丰富的描述性信息,不能对物品进行全面的建模,会大大降低推荐的效果。
发明内容
本发明针对现有技术的不足,提供了一种基于注意力机制的多视角多模态的推荐方法。本发明尝试利用推荐场景中的多模态信息进行推荐,并尝试对用户进行多视角表征。首先从推荐场景信息数据库中提取物品的结构信息和语义信息用于物品的表征,然后根据用户与物品的交互历史,利用注意力融合机制生成用户表征。本发明从偏好和厌恶两个视角对每个用户进行多视角的表征。最后,将偏好用户表征和厌恶用户表征分别与候选物品表征进行点积,然后将两个点积结果加权求和得到最终的预测结果。
本发明公开一种基于注意力机制的多视角多模态的商品推荐方法,该方法具体包括下列步骤:
步骤1:数据获取;
从数据库中获取用户对物品的历史打分记录和物品的相关信息,其中物品的相关信息包括物品的描述信息和相关属性信息;
步骤2:对物品的描述信息和相关属性信息进行编码,并进行语义提取;
首先把物品的描述信息和相关属性信息的分句符号去除,让其从一段话转化为一个句子,表示为{w1,w2,w3,..wl.,wL},L代表句子长度,wl表示一个字,然后采用BERT的编码器把这个句子编码为{t1,t2,t3,...,tL+1},在这其中t1=[CLS],是BERT编码器分类任务中特殊的编码,之后,被编码后的句子作为输入再传进BERT编码器中,输出为形如L×d的隐向量h,其中d代表嵌入的维度;
h={h1,h2....hL+1}
把t1=[CLS]对应的词嵌入h1,此时h1已经浓缩了整句的语义信息,把h1当做这个句子的代表,把h1输入一个全连接层进行维度变换得到最终维度为dh的句子,采用下式计算提取到语义信息向量s;
步骤3:利用物品的相关属性信息构建物品的相关关系图,并计算结点表征;
步骤3.1:构建一个单部图G,物品是G的结点,如果物品i和j有K个相同的属性,则在i和j对应的结点间连一条边,由此方法构建出的图G即为物品的相关关系图对构建出的物品间的相似性关系;
步骤3.2:对单部图G,随机初始化每个结点的向量P={p1,p2,...,pM},使用两层多头注意力机制来得到最终的结点嵌入,使用的注意力机制的权重α为:
其中a是一层前馈神经网络的权重,用来实现注意力机制;pi是目标结点,pj是第i个节点的某个邻居结点,Ni是第i个节点的邻接结点集,pk是节点集中的第k个节点,αij为第j个节点对第i个节点的重要程度,exp()表示以e为底的指数函数,LeakyReLU()是激活函数,Wpi表示对i节点进行线性变换的参数矩阵,Wpj,Wpk分别代表j节点和k节点对应的线性变换矩阵;
其中σ是一个非线性变换激活函数,||代表拼接操作,K是多头注意力机制的头数,Wk是头k对应的线性变换矩阵,表示第k个头中结点j对结点i的重要程度,再对进行一次基于求平均策略的多头注意力机制,得到最终的结点表征向量
步骤4:生成物品低维向量;将步骤2和步骤3中得到的向量进行拼接,作为物品的表征向量:
r=p**||s
其中,p**代表步骤3中得到的结点表征向量,s代表步骤2中得到的语义信息向量。
步骤5:评分正则化和用户偏好厌恶划分;
将数据集中的评分数据根据每个用户的平均打分正则化为0和1,用户评分低于平均分的物品作为用户的厌恶序列,高于平均分的物品作为用户的偏好序列;
步骤6:数据集划分;
将数据集中的偏好序列和厌恶序列分别随机按照一定比例划分为训练集、验证集和测试集;
步骤7:训练网络模型;该网络模型方法为:
步骤7.1:得到用户u的历史物品集εu:
其中,代表与用户u交互过且用户u感兴趣的物品集,代表与用户u交互过但用户不喜欢的物品集,u表示用户,v表示物品,V表示物品集,yuv表示用户u对物品v的评分,vdislike表示和用户有过交互且用户不喜欢的物品;
针对偏好表征,物品的自注意力权值β为:
其中,exp()表示以自然数e为底的指数函数,Attention()表示与Transformer编码器相同的自注意力机制,r表示步骤4中得到的物品嵌入向量,re表示物品e对应的嵌入向量,A表示集的大小;
最终用户的偏好表征upos为:
步骤7.3:预测点击概率;
设候选物品Y的物品嵌入向量为y,使用用户u的偏好表征和厌恶表征分别与y做点积后加权求和得到最终的点击概率click:
click=w1×yTupos+w2×yTuneg
其中,w1,w2为加权系数;
步骤8:采用步骤7训练好的模型进行预测,预测结果为该样本被当前用户点击的概率。
和现有的技术相比,本发明有益效果为:
1、本发明将物品所在场景的多模态信息融入推荐算法中。在步骤3中对数据进行预处理构建了物品相关关系图和物品的描述文本信息。在步骤8中将这些信息输入模型中进行训练,使得模型既使用了用户-物品的历史交互,又捕捉了物品的描述性文本信息和物品间的相似性信息。
2、不同于其他推荐方法单纯对用户的偏好进行建模,本发明同时对用户的偏好和厌恶进行建模。在步骤5中对用户的历史序列通过用户平均分进行划分,得到用户的偏好序列和厌恶序列,步骤7中的模型对用户的偏好的厌恶分别进行建模。提升了对用户的表征能力。
附图说明
图1为本发明提出的多视角多模态推荐方法流程图。
图2为Bert文本表征算法结构示意图。
图3为GAT算法结构示意图。
图4为本发明提出的物品编码器结构示意图。
图5为多模态多视角推荐算法网络结构示意图。
图6为在真实数据集MovieLens-1M和Book-Crossing上对本发明进行了对比实验结果图。
具体实施方案
为了使本发明的目的更加清楚,以下结合附图对本发明进一步详细介绍。
图1可视化地表示出了本发明提出的推荐方法的步骤。具体而言包括数据处理、偏好厌恶序列划分、数据集划分、网络模型训练以及最后的预测。
图2展示了对物品的描述性文本信息进行编码方法,该方法不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的遮掩语言模型,以致能生成深度的双向语言表征。一层transformer编码器如下图所示,BERT由多个transformer编码器堆叠而成。
每层中最重要的部分是进行自注意力计算;BERT使用的注意力机制属于放缩点积注意力机制,计算公式如下:
其中Q,K,V分别是query矩阵、key矩阵和value矩阵,dk是key矩阵的向量维度。
Bert的输入相较其它模型,采用了三个嵌入向量相加的方式,通过加入字符嵌入向量,段嵌入向量,P位置嵌入向量三个向量,以此达到预训练和预测下一句的目的。
在本发明的应用中,对于输入的一段文本内容,首先把它的分句符号去除,让其从一段话转化为一个句子,表示为{w1,w2,w3,...,wL},L代表句子长度。然后使用和BERT相同的编码器把这个句子编码为{t1,t2,t3,...,tL+1},在这其中t1=[CLS],是BERT分类任务中特殊的编码。之后,被编码后的句子作为输入传进BERT中。BERT输出的是形如L×d的隐向量h。其中d代表嵌入的维度。
h={h1,h2....hL+1}
把t1=[CLS]对应的词嵌入h1,此时h1已经浓缩了整句的语义信息,把h1当做这个句子的代表,把h1输入一个全连接层进行维度变换得到最终维度为dh的句子,s作为提取到的语义信息。
图3直观的展示了本发明将物品相似性关系图中的结点嵌入进向量的方法;对构建出的物品间的相似性关系单部图G=(N,E),首先随机初始化每个结点的向量P={p1,p2,...,pM},其中dk是嵌入向量的维度。之后使用两层多头注意力机制来得到最终的结点嵌入;使用的注意力机制的权重α表示为:
其中a是一层前馈神经网络的权重,用来实现注意力机制,W是为了提升表达能力而使用的线性变换矩阵。pi是目标结点,pj是i的某个邻居结点,Ni是结点i的邻接结点集。αij为结点j对结点i的重要程度。
图4直观展示了物品编码器的结构,具体而言物品编码器的运算过程如下。物品编码器使用上文中提到的BERT来对文本进行向量化,用图注意力神经网络对图结点进行向量化嵌入,然后将两个向量进行拼接得到物品表征r,具体可以表示为:
r=BERT({t1....tL+1})||{itemi|GAT(G(N,E))}
图5展示了本发明提出的推荐方法的网络架构,原理如下。每个用户由两个视角的向量来表征,一个向量代表该用户的偏好,另一个向量代表该用户的厌恶,这样可以更全面的表征用户。用户u的历史物品集εu表示为:
其中代表与用户u交互过且用户u感兴趣的物品集,代表与用户u交互过但用户不喜欢的物品集,u表示用户,v表示物品,V表示物品集,yuv表示用户u对物品v的评分,vdislike表示和用户有过交互且用户不喜欢的物品;接下来,利用多头自注意力机制对和中物品的嵌入分别进行加权求和得到用户的偏好表征和厌恶表征;以偏好表征为例,物品的自注意力权值β为:
最终用户的偏好表征upos为:
点击预测部分用来预测用户对候选物品的点击概率;采用点积的方法计算用户点击概率。假设候选物品Y的物品嵌入向量为y,使用用户u的偏好表征和厌恶表征分别与y做点积后加权求和得到最终的点击概率click:
click=w1×yTupos+w2×yTuneg
本发明在推荐算法常用的两个真实数据集MovieLens-1M和Book-Crossing上对本发明进行了对比实验,结果如图6所示。结果显示,本发明预测准确率(AUC)明显高于其余方法,归一化折损累计增益(nDCG)也明显高于其余方法;所以本发明的效果优于所有对比算法。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形都应视为本发明的保护范围。
Claims (1)
1.一种基于注意力机制的多视角多模态的商品推荐方法,该方法具体包括下列步骤:
步骤1:数据获取;
从数据库中获取用户对物品的历史打分记录和物品的相关信息,其中物品的相关信息包括物品的描述信息和相关属性信息;
步骤2:对物品的描述信息和相关属性信息进行编码,并进行语义提取;
首先把物品的描述信息和相关属性信息的分句符号去除,让其从一段话转化为一个句子,表示为{w1,w2,w3,..wl.,wL},L代表句子长度,wl表示一个字,然后采用BERT的编码器把这个句子编码为{t1,t2,t3,...,tL+1},在这其中t1=[CLS],是BERT编码器分类任务中特殊的编码,之后,被编码后的句子作为输入再传进BERT编码器中,输出为形如L×d的隐向量h,其中d代表嵌入的维度;
h={h1,h2....hL+1}
把t1=[CLS]对应的词嵌入h1,此时h1已经浓缩了整句的语义信息,把h1当做这个句子的代表,把h1输入一个全连接层进行维度变换得到最终维度为dh的句子,采用下式计算提取到语义信息向量s;
步骤3:利用物品的相关属性信息构建物品的相关关系图,并计算结点表征;
步骤3.1:构建一个单部图G,物品是G的结点,如果物品i和j有K个相同的属性,则在i和j对应的结点间连一条边,由此方法构建出的图G即为物品的相关关系图对构建出的物品间的相似性关系;
步骤3.2:对单部图G,随机初始化每个结点的向量P={p1,p2,...,pM},使用两层多头注意力机制来得到最终的结点嵌入,使用的注意力机制的权重α为:
其中a是一层前馈神经网络的权重,用来实现注意力机制;pi是目标结点,pj是第i个节点的某个邻居结点,Ni是第i个节点的邻接结点集,pk是节点集中的第k个节点,αij为第j个节点对第i个节点的重要程度,exp()表示以e为底的指数函数,LeakyReLU()是激活函数,表示对i节点进行线性变换的参数矩阵,分别代表j节点和k节点对应的线性变换矩阵;
其中σ是一个非线性变换激活函数,||代表拼接操作,K是多头注意力机制的头数,Wk是头k对应的线性变换矩阵,表示第k个头中结点j对结点i的重要程度,再对进行一次基于求平均策略的多头注意力机制,得到最终的结点表征向量
步骤4:生成物品低维向量;将步骤2和步骤3中得到的向量进行拼接,作为物品的表征向量:
r=p**||s
其中,p**代表步骤3中得到的结点表征向量,s代表步骤2中得到的语义信息向量;
步骤5:评分正则化和用户偏好厌恶划分;
将数据集中的评分数据根据每个用户的平均打分正则化为0和1,用户评分低于平均分的物品作为用户的厌恶序列,高于平均分的物品作为用户的偏好序列;
步骤6:数据集划分;
将数据集中的偏好序列和厌恶序列分别随机按照一定比例划分为训练集、验证集和测试集;
步骤7:训练网络模型;该网络模型方法为:
步骤7.1:得到用户u的历史物品集εu:
其中,代表与用户u交互过且用户u感兴趣的物品集,代表与用户u交互过但用户不喜欢的物品集,u表示用户,v表示物品,V表示物品集,yuv表示用户u对物品v的评分,vdislike表示和用户有过交互且用户不喜欢的物品;
针对偏好表征,物品的自注意力权值β为:
其中,exp()表示以自然数e为底的指数函数,Attention()表示与Transformer编码器相同的自注意力机制,r表示步骤4中得到的物品嵌入向量,re表示物品e对应的嵌入向量,A表示集的大小;
最终用户的偏好表征upos为:
步骤7.3:预测点击概率;
设候选物品Y的物品嵌入向量为y,使用用户u的偏好表征和厌恶表征分别与y做点积后加权求和得到最终的点击概率click:
click=w1×yTupos+w2×yTuneg
其中,w1,w2为加权系数;
步骤8:采用步骤7训练好的模型进行预测,预测结果为样本被当前用户点击的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210260316.9A CN114693397B (zh) | 2022-03-16 | 2022-03-16 | 一种基于注意力神经网络的多视角多模态商品推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210260316.9A CN114693397B (zh) | 2022-03-16 | 2022-03-16 | 一种基于注意力神经网络的多视角多模态商品推荐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114693397A CN114693397A (zh) | 2022-07-01 |
CN114693397B true CN114693397B (zh) | 2023-04-28 |
Family
ID=82138569
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210260316.9A Active CN114693397B (zh) | 2022-03-16 | 2022-03-16 | 一种基于注意力神经网络的多视角多模态商品推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693397B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114154054A (zh) * | 2021-10-21 | 2022-03-08 | 北京邮电大学 | 基于多头自注意神经机制的多模态新闻推荐方法及装置 |
CN115953215B (zh) * | 2022-12-01 | 2023-09-05 | 上海交通大学 | 一种基于时间和图结构的搜索式推荐方法 |
CN116109381B (zh) * | 2023-01-10 | 2023-09-29 | 深圳峰涛科技有限公司 | 电商平台数据处理方法及系统 |
CN116611896B (zh) * | 2023-07-19 | 2023-10-24 | 山东省人工智能研究院 | 基于属性驱动解耦表征学习的多模态推荐方法 |
CN116645174B (zh) * | 2023-07-27 | 2023-10-17 | 山东省人工智能研究院 | 基于解耦多行为表征学习的个性化推荐方法 |
CN117611245B (zh) * | 2023-12-14 | 2024-05-31 | 浙江博观瑞思科技有限公司 | 用于电商运营活动策划的数据分析管理系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910218A (zh) * | 2019-11-21 | 2020-03-24 | 南京邮电大学 | 一种基于深度学习的多行为迁移推荐方法 |
CN111127165A (zh) * | 2019-12-26 | 2020-05-08 | 纪信智达(广州)信息技术有限公司 | 基于自注意力自编码器的序列推荐方法 |
CN113139850A (zh) * | 2021-04-26 | 2021-07-20 | 西安电子科技大学 | 一种缓解数据稀疏性和商品冷启动的商品推荐模型 |
WO2021179640A1 (zh) * | 2020-03-10 | 2021-09-16 | 深圳大学 | 一种基于图模型的短视频推荐方法、和智能终端和存储介质 |
CN114168845A (zh) * | 2021-11-24 | 2022-03-11 | 电子科技大学 | 一种基于多任务学习的序列化推荐方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220058489A1 (en) * | 2020-08-19 | 2022-02-24 | The Toronto-Dominion Bank | Two-headed attention fused autoencoder for context-aware recommendation |
-
2022
- 2022-03-16 CN CN202210260316.9A patent/CN114693397B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910218A (zh) * | 2019-11-21 | 2020-03-24 | 南京邮电大学 | 一种基于深度学习的多行为迁移推荐方法 |
CN111127165A (zh) * | 2019-12-26 | 2020-05-08 | 纪信智达(广州)信息技术有限公司 | 基于自注意力自编码器的序列推荐方法 |
WO2021179640A1 (zh) * | 2020-03-10 | 2021-09-16 | 深圳大学 | 一种基于图模型的短视频推荐方法、和智能终端和存储介质 |
CN113139850A (zh) * | 2021-04-26 | 2021-07-20 | 西安电子科技大学 | 一种缓解数据稀疏性和商品冷启动的商品推荐模型 |
CN114168845A (zh) * | 2021-11-24 | 2022-03-11 | 电子科技大学 | 一种基于多任务学习的序列化推荐方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114693397A (zh) | 2022-07-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114693397B (zh) | 一种基于注意力神经网络的多视角多模态商品推荐方法 | |
CN112214685B (zh) | 一种基于知识图谱的个性化推荐方法 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN109903117B (zh) | 一种用于商品推荐的知识图谱处理方法及装置 | |
CN111222332B (zh) | 一种结合注意力网络和用户情感的商品推荐方法 | |
CN111581510A (zh) | 分享内容处理方法、装置、计算机设备和存储介质 | |
CN110083770B (zh) | 一种基于特征层面更深的自注意力网络的序列推荐方法 | |
CN111127146B (zh) | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 | |
CN112328900A (zh) | 一种融合评分矩阵和评论文本的深度学习推荐方法 | |
CN116662582B (zh) | 基于自然语言的特定领域业务知识检索方法及检索装置 | |
CN113177141B (zh) | 基于语义嵌入软相似性的多标签视频哈希检索方法及设备 | |
CN113343125B (zh) | 一种面向学术精准推荐的异质科研信息集成方法及系统 | |
CN112364976A (zh) | 基于会话推荐系统的用户偏好预测方法 | |
CN112800344B (zh) | 一种基于深度神经网络的电影推荐方法 | |
CN113806554B (zh) | 面向海量会议文本的知识图谱构建方法 | |
CN111581392B (zh) | 一种基于语句通顺度的自动作文评分计算方法 | |
CN113326384A (zh) | 一种基于知识图谱的可解释推荐模型的构建方法 | |
CN114168819B (zh) | 一种基于图神经网络的岗位匹配方法及装置 | |
CN115408603A (zh) | 一种基于多头自注意力机制的在线问答社区专家推荐方法 | |
CN115687760A (zh) | 一种基于图神经网络的用户学习兴趣标签预测方法 | |
CN116228368A (zh) | 一种基于深度多行为网络的广告点击率预测方法 | |
CN116976505A (zh) | 基于信息共享的解耦注意网络的点击率预测方法 | |
CN117807232A (zh) | 商品分类方法、商品分类模型构建方法及装置 | |
CN113505307B (zh) | 一种基于弱监督增强的社交网络用户地域识别方法 | |
CN113792594B (zh) | 一种基于对比学习的视频中语言片段定位方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |