CN112115371A - 一种基于因子分解机的神经注意力机制手机应用推荐模型 - Google Patents
一种基于因子分解机的神经注意力机制手机应用推荐模型 Download PDFInfo
- Publication number
- CN112115371A CN112115371A CN202011054513.2A CN202011054513A CN112115371A CN 112115371 A CN112115371 A CN 112115371A CN 202011054513 A CN202011054513 A CN 202011054513A CN 112115371 A CN112115371 A CN 112115371A
- Authority
- CN
- China
- Prior art keywords
- mobile phone
- phone application
- model
- data
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007246 mechanism Effects 0.000 title claims abstract description 23
- 230000001537 neural effect Effects 0.000 title claims description 6
- 230000003993 interaction Effects 0.000 claims abstract description 55
- 239000013598 vector Substances 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000011176 pooling Methods 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012795 verification Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 abstract description 7
- 238000013461 design Methods 0.000 abstract description 5
- 238000010801 machine learning Methods 0.000 abstract description 2
- 235000020303 café frappé Nutrition 0.000 description 12
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000000605 extraction Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000000547 structure data Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明属于电子商务技术领域,涉及一种融合注意力机制的神经网络手机应用推荐模型。当前互联网应用程序的许多预测性任务需要建模分类变量,比如为用户进行手机应用的推荐。为了应用标准的机器学习技术,这些预测模型总是通过独热编码方法转换成一组二进制特征,使得合成的特征向量高度稀疏。要从这些稀疏的数据中学习有效信息,对特征之间的相互作用进行提取是至关重要的。本发明的目的是提供一种新的手机应用推荐模型,该模型基于神经网络和注意力机制,提高和深化了因子分解机模型,设计新型模型结构,解决了因子分解机模型只能捕获二阶特征交互以及对所有的特征交互采用相同权重的问题,本发明也适用于一般的推荐系统。
Description
技术领域
本发明属于电子商务技术领域,涉及一种融合注意力机制的神经网络手机应用推荐模型。
背景技术
互联网应用程序的许多预测性任务需要建模分类变量,比如为用户进行手机应用的推荐。为了应用标准的机器学习技术,这些预测模型总是通过独热编码方法转换成一组二进制特征,使得合成的特征向量高度稀疏。要从这些稀疏的数据中学习有效信息,对特征之间的相互作用进行提取是至关重要的。研究发现,人们通常在吃饭的时间段下载送餐的应用,这可以看出,应用的类别和时间戳的二阶交互可以看作手机应用推荐的信号。而因子分解机是一个较为流行的提取特征交互的方式,以线性的方式提取特征间的交互,但是由于其复杂度,通常只考虑到二阶的特征交互,无法捕获高阶的特征交互,此外,因子分解机对所有的特征交互都采用相同的权重,即对于不同的预测结果特征的重要程度都相同,这很有可能引入噪声,并对推荐性能造成不利影响。近几年,深度神经网络在工业领域应用十分广泛,用于非线性特征交互的学习,取得了不错的成果,但是模型结构复杂,优化较为困难。本发明对上述弊端进行改进,从而提高手机应用的推荐效果。
发明内容
本发明的目的是提供一种新的手机应用推荐模型,该模型基于神经网络和注意力机制,提高和深化了因子分解机模型,解决了因子分解机模型只能捕获二阶特征交互以及对所有的特征交互采用相同权重的问题,本发明也适用于一般的推荐系统。
本发明所采用的技术方案是:
首先是数据的获取。我们采用Frappe手机网站中用户使用手机应用的数据集,该数据集包括了96203个用户在不同上下文下的应用使用日志,每个日志包括用户id、应用id以及 8个上下文特征(例如天气、地点等),我们将每个日志进行独热编码最终得到5382个特征向量,如果用户使用了系统推荐的应用,则标记为1。
其次是对于推荐模型的设计。所设计的推荐模型包括三部分:特征提取部分、注意力部分以及预测部分。特征提取部分包括一个输入层、嵌入层以及特征提取层;注意力部分包括注意力网络;预测部分包括池化操作、全连接层以及预测层。
特征提取部分的输入是稀疏向量。对于我们设计的手机应用推荐来讲,系统获得的数据是较为稀疏的,我们对每个日志进行独热编码,得到了5382个非零特征向量,然后,将每个非零特征传输到嵌入层中形成稠密向量,并在特征交互层执行特征交互操作。注意力部分包含一个注意力层,该层考虑了预测中不同特征交互的重要性。直到注意力层,该模型只能捕获一阶和二阶特征的交互。捕获的低阶特征交互将通过预测层的池化操作作为最终结果的一部分。现如今,人们已经被大量丰富的信息所淹没,数据形式多种多样,商家希望综合考虑多方面的信息从而为用户做出精准的手机应用推荐。因此,高阶特征的交互同样十分重要。为了能够学习复杂的高阶特征交互作用,我们在注意力层之上堆叠了一个全连接层,使用非线性激活函数以允许模型执行非线性建模。该模型可以同时捕获低阶和高阶特征交互。本专利设计的推荐模型可以表示为:
如果xi=0,代表第i个特征在实例中不存在,上式中w0表示整体的偏置,wi表示特征xi的权重,式子中的前两项类似于因子分解机的线性部分。第三项f(x)是模型的主要部分,其中 x=[xfiled1,xfiled2,...,xfiledm],xfiledm则代表x的第m个字段。本发明的创新主要在于f(x),其包含了基于注意力机制的二阶特征交互部分以及全连接层网络提取的高阶特征交互部分。接下来对模型的每一部分进行阐述。
A.特征抽取部分
特征抽取部分主要包括输入层、嵌入层、特征交互层。
嵌入层“嵌入”一词最初起源和应用于自然语言处理领域,经典的word2vec是对于词向量的嵌入。嵌入层是一个以one-hot(独热编码)为输入、中间层节点为字向量维数的全连接层,而这个全连接层的参数,就是一个“字向量表”。该推荐模型的嵌入层是一个全连接层,该层的输入是Frappe数据中获得的特征的独热编码,将高维稀疏特征转换为低维稠密的特征向量以降低计算维度。特征间的交互关系使用嵌入层学到的参数来表示,例如第i个手机应用特征的嵌入向量为vi,输入特征向量x的嵌入向量即Vx={x1v1,...,xnvn},在此只考虑非零特征的嵌入向量Vx={xivi},xi≠0。该层输入数据的维度可能不同,但是经过嵌入层输出后维度相同,且为稠密向量。该层得到的低维稠密的嵌入向量作为下一层特征交互层的输入。
特征交互层该层进行特征间的交互,它将Frappe数据集经过嵌入层得到的向量两两交互形成相互作用的向量,并用向量的元素乘积来编码其相互作用。嵌入层的输出Vx={xivi}, (xi≠0)为该层的输入,特征交互层的输出表示为一组向量:
⊙表示两个向量的元素相乘。公式(2)由于需要计算所有成对的交互作用,其直接计算复杂度是o(kn2),因此我们通过简化公式(2)将复杂性降低为线性复杂度,简化过程如下:
此外,在对特征交互建模时,特征交互层不会引入额外的参数或成本。
B.注意力部分
为了区分不同特征对于预测目标的重要程度,我们提出使用注意力机制进行特征交互重要性的判断。在其他的应用推荐的过程中,系统可能只考虑到了单个特征对预测的影响,并对全部特征进行线性的加权,但是我们提出并不是所有的特征对用户的应用推荐有用,我们调查发现,青少年喜欢玩射击类的游戏,因此,在进行游戏应用推荐时,年龄和游戏的类别对于预测结果应分配较大的比重,而天气等因素应占据较小的比重。因此本发明通过一个注意力网络来计算不同特征对预测目标的注意力权重,然后对特征进行加权求和,权值越大,表明该特征对预测目标贡献越大。该方式不仅能够降低计算成本,而且削弱了噪声和冗余特征交互的影响。aij表示特征xi和xj交互的注意力分数,即特征交互对预测的重要程度。aij的计算可以分为两部分,如公式(4)所示:
其中wa、ba以及h为模型参数,wa∈Rt×k,ba∈Rt,h∈Rt,t为注意力网络隐藏层的大小, k为嵌入层大小。为了使得我们的发明有更强的表达能力和泛化水平,我们决定引入非线性函数作为激励函数,通过大量的实验证明,本发明使用relu的效果最佳,模型的性能更好。
C.预测部分
预测部分主要由池化操作、全连接层网络以及预测层组成。
池化操作将注意力部分得出的Frappe应用数据的注意力权重与数据的特征交互向量相乘进行求和池化操作,表示为公式(5):
池化操作的输出是一个k维的向量。该部分捕获了低阶的特征交互,并作为最终预测结果的一部分。
全连接层网络模型在经过特征交互层以及注意力层部分之后,已经提取到Frappe数据中一阶特征和二阶特征的交互,可以根据用户的相关信息进行基础的应用推荐。但是当输入数据内容多样时,只考虑低阶特征交互会影响预测结果,为了提高预测精度,需要提取高阶的特征交互。因此在注意力组件之上堆叠一个全连接层,将注意力网络求和池化后的结果作为输入传递到该层,全连接层表示如下:
其中,L代表隐藏层的数量Wi、bi以及σi,分别代表第i层的权重矩阵、偏置向量、激活函数。本文采用ReLU激活函数,让模型用非线性方式来学习高阶特征交互。
预测层该层将池化部分结果与全连接层网络的输出结果进行连接,转化为最终的预测分数,从而为用户进行手机应用的推荐:
向量g表示预测层神经元权重,b为本发明的加入的偏置项,为了更好的拟合数据,提高应用推荐的精度。
综上所述,整体模型可以表示为:
最后,为了提高神经网络模型的表达能力,我们使用ReLU作为激活函数。
本发明是一个通用的推荐系统,可以应用在多个推荐领域,为了证明本发明的有效性,我们在具体的数据上进行实验,都取得了不错的成果,相较于已有的一些推荐系统,推荐精度有所提高。
本发明的有益效果
1.本专利设计了一个针对多样性数据以及稀疏数据的手机应用推荐系统,同时采用神经网络和注意力机制,提高和改善了因子分解机,提取手机应用数据中的低阶和高阶特征交互,提高了手机应用推荐的多样新和精度。
2.本发明加入注意力机制能够区分手机应用数据中不同特征交互对不同用户的重要性,解决了传统推荐系统中提取全部特征进行预测的弊端,以及对所有特征交互赋予相同权重的问题。并且对于手机应用数据中特征交互的重要性是从数据中直接获得的,不需要任何领域知识或人工特征工程,节省了大量的时间。
3.本发明设计全连接网络,以非线性方式捕捉手机应用数据的高阶特征,使推荐系统对复杂结构数据具有更好的表达和泛化能力。与现有模型相比,只有一个隐含层的全连通层可以显著提高模型的性能,且模型结构简单,易于训练和优化,更有利于应用到实际中。
附图说明
图1是整体模型结构图;
图2是发明模型在MovieLens数据集的均方根误差图。
图3是发明模型在Frappe数据集的均方根误差图。
图4是在MovieLens数据集上全连接层对模型的影响图。
图5是在Frappe数据集上全连接层对模型的影响图。
图6是在MovieLens数据集上dropout和batch normalization对模型的影响图。
图7是在Frappe数据集上dropout和batch normalization对模型的影响图。
具体实施方式
本发明提供一种新的融合注意力机制的深度推荐模型,可以应用到一般的推荐系统中,我们着重以手机应用推荐进行实际的操作。因为推荐数据形式的多样性以及稀疏性,如果只考虑推荐物品的低阶特征信息推荐效果不佳,还应学习更加稠密的高层语义,挖掘潜在信息。此外,用户对于物品的关注点不同,如果在对物品特征交互建模时采用相同的权重,预测偏差较大。因此本发明设计的推荐模型能够很好地提取物品的低阶和高阶的特征,还能够从原始数据中学习到不同特征交互的重要程度,提高推荐的精度。
下面结合附图和实施例对本发明进行进一步详细说明:
参考图1,是本发明的整体结构图,步骤包含如下:
A.为了验证发明的有效性和通用性,我们在实际的数据上进行部署,不仅包括手机应用数据,还采用电影推荐数据进行说明和验证。实验采用数据集Frappe和MovieLens。Frappe 数据集包括了96203个用户在不同上下文下的应用使用日志,每个日志包括用户id、应用id 以及8个上下文特征(例如天气、地点),我们将每个日志进行独热编码最终得到5382个特征向量,如果用户使用了系统推荐的应用,则标记为1。MovieLens数据集是用户对所观看不同类型电影的评分。我们将每一个实例转换为一个特征向量,最终得到90445个特征,如果用户为电影打标签则标记为1。
B.我们将数据按7:2:1的比例将数据划分为数据集、验证集和测试集。图2和图3分别展示了本发明在MovieLens数据集以及Frappe数据集上的实验效果。实验首先进行特征的处理,使用独热编码方式对数据集进行处理,本发明采用隐式反馈的方式,通过浏览和点击项目来间接反映用户的偏好。与评分、评论等显式反馈相比,隐式反馈更容易获得,且隐式反馈的数量远高于显式反馈。此外,隐式反馈方式表达出的用户行为比显式反馈更能准确、全面地反映用户的偏好。为了保证模型的泛化能力,我们对每个数据集的数据采用正实例与负实例1:2的比例来进行配对。也即,对于每个正实例,我们随机选择两个负实例来与之匹配,并给负实例分配目标值-1。
B.将两个数据中处理好的稀疏特征向量传入嵌入层,输出为稠密的向量,再经过特征交互层来捕获低阶的特征交互。
C.为了区分不同特征对于预测结果的重要性,设计注意力层,使用注意力机制来确定其影响,注意力权重通过公式(4)来获得,权重值越大,说明该特征对于预测结果的贡献越大。
D.为了捕获高阶特征的交互,本发明设计一个全连接层,使用非线性的方式提取高阶的特征交互,使模型有更好的表达能力和泛化能力。图4和图5分别验证了在MovieLens以及Frappe数据集上全连接层对模型的有效性。
E.本发明重点关注回归任务,使用平方和损失作为目标函数,如公式(9)所示。
通过优化目标函数对本发明进行训练,从而使模型达到最佳的效果。此外,为了防止过拟合现象的发生,本发明还提出同时采用Dropout和Batch Normalization的方式。Dropout简单来讲就是神经网络在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征。Batchnornalization在实践中也有很好地效果。图6和图7分别展示了在两个数据集上使用这两种方法防止过拟合的有效性 (图例中“1”代表添加此机制,“0”代表不加入此方法)。为了评估模型性能,评价指标采用均方根误差(RMSE),均方根误差取值越低,表示模型预测性能越好。表1给出了不同嵌入层维度下本发明的RMSE结果。
表1不同嵌入层维度下发明模型的结果
Claims (8)
1.一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:构建一个新型的手机应用推荐模型,然后把不同场景下的手机应用日志数据输入该推荐模型,将其作为训练数据训练该模型,待训练的模型损失最低时,投入新的用户数据,则该模型便能推荐给不同用户喜欢的不同手机应用,实现个性化的推荐,从而提高用户的满意度。
2.如权利要求1所述的一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:对构建的新型手机应用推荐模型进行训练。
3.如权利要求1所述的一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:经过训练好的手机应用推荐模型输出的数据则为给用户推荐的个性化手机应用。
4.一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:具体包括以下步骤:
(1)获取手机应用日志的训练数据、测试数据,并将训练数据划分出一部分的验证集,训练集、验证集和测试集的比例为7:2:1;
(2)构建基于因子分解机的神经注意力机制手机应用推荐模型,利用其训练数据进行模型的训练;
(3)利用手机应用日志验证集数据进行模型的调参,使得损失函数最小,模型最优;
(4)将手机应用日志测试数据输入至所构建的推荐模型中,得到其网络的输出,则为用户的个性化手机应用推荐。
5.如权利要求4所述的一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:所述步骤(1)中,手机应用日志数据的训练集、验证集和测试集为随机分类。
6.如权利要求4所述的一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:所述步骤(2)中,构建模型的具体过程包括:
(2-1)首先对每个手机应用日志进行独热编码,得到5382 个非零特征向量,然后,将每个非零特征传输到嵌入层中形成稠密向量,并在特征交互层执行特征交互操作;
(2-2)设计注意力网络来计算不同特征对预测目标的注意力权重,然后对特征进行加权求和,权值越大, 表明该特征对预测目标贡献越大;
(2-3)预测部分主要由池化操作、全连接层网络以及预测层组成;池化操作将注意力部分得出的手机应用数据的注意力权重与数据的特征交互向量相乘进行求和池化操作;在注意力组件之上堆叠一个全连接层,将注意力网络求和池化后的结果作为输入传递到全连接层,从而提取高阶的特征交互;预测层将池化部分结果与全连接层网络的输出结果进行连接,转化为最终的预测分数,从而为用户进行手机应用的推荐。
7.如权利要求4所述的一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:所述步骤(3)中,训练的具体过程包括:
(3-1)随机地初始化权重矩阵;
(3-2)将手机应用推荐数据输入至推荐模型,使用平方和损失作为目标函数;
(3-3)根据误差项更新每一个权重值,从而优化目标函数;
(3-4)重复步骤(3-2)-(3-3),直至损失最小,训练完毕。
8.如权利要求4所述的一种基于因子分解机的神经注意力机制手机应用推荐方法,其特征是:所述步骤(4)中,将手机应用测试数据输入至构建的个性化推荐模型中,输出则为给用户推荐的应用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011054513.2A CN112115371A (zh) | 2020-09-30 | 2020-09-30 | 一种基于因子分解机的神经注意力机制手机应用推荐模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011054513.2A CN112115371A (zh) | 2020-09-30 | 2020-09-30 | 一种基于因子分解机的神经注意力机制手机应用推荐模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112115371A true CN112115371A (zh) | 2020-12-22 |
Family
ID=73797931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011054513.2A Pending CN112115371A (zh) | 2020-09-30 | 2020-09-30 | 一种基于因子分解机的神经注意力机制手机应用推荐模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112115371A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561599A (zh) * | 2020-12-24 | 2021-03-26 | 天津理工大学 | 一种融合域特征交互的基于注意力网络学习的点击率预测方法 |
CN113010774A (zh) * | 2021-02-24 | 2021-06-22 | 四川省人工智能研究院(宜宾) | 一种基于动态深度注意力模型的点击率预测方法 |
CN113793187A (zh) * | 2021-09-24 | 2021-12-14 | 福州大学 | 基于实例权重平衡和双重注意力的点击率预测方法及系统 |
CN114282687A (zh) * | 2021-12-31 | 2022-04-05 | 复旦大学 | 一种基于因子分解机的多任务时序推荐方法 |
CN116525121A (zh) * | 2023-07-05 | 2023-08-01 | 昆明同心医联科技有限公司 | 栓塞动脉瘤的首发弹簧圈推荐模型建立方法及其应用 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902849A (zh) * | 2018-06-20 | 2019-06-18 | 华为技术有限公司 | 用户行为预测方法及装置、行为预测模型训练方法及装置 |
CN110008397A (zh) * | 2019-01-04 | 2019-07-12 | 华为技术有限公司 | 一种推荐模型训练方法及装置 |
CN110648163A (zh) * | 2019-08-08 | 2020-01-03 | 中山大学 | 一种基于用户评论的推荐算法 |
CN111177579A (zh) * | 2019-12-17 | 2020-05-19 | 浙江大学 | 一种集成多样性增强的极深因子分解机模型及其构建方法和应用 |
-
2020
- 2020-09-30 CN CN202011054513.2A patent/CN112115371A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902849A (zh) * | 2018-06-20 | 2019-06-18 | 华为技术有限公司 | 用户行为预测方法及装置、行为预测模型训练方法及装置 |
CN110008397A (zh) * | 2019-01-04 | 2019-07-12 | 华为技术有限公司 | 一种推荐模型训练方法及装置 |
CN110648163A (zh) * | 2019-08-08 | 2020-01-03 | 中山大学 | 一种基于用户评论的推荐算法 |
CN111177579A (zh) * | 2019-12-17 | 2020-05-19 | 浙江大学 | 一种集成多样性增强的极深因子分解机模型及其构建方法和应用 |
Non-Patent Citations (1)
Title |
---|
黄德柒等: ""融合注意力机制与场感知因子分解机的电影推荐"", 《软件导刊》, vol. 19, no. 6, pages 19 - 22 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112561599A (zh) * | 2020-12-24 | 2021-03-26 | 天津理工大学 | 一种融合域特征交互的基于注意力网络学习的点击率预测方法 |
CN113010774A (zh) * | 2021-02-24 | 2021-06-22 | 四川省人工智能研究院(宜宾) | 一种基于动态深度注意力模型的点击率预测方法 |
CN113010774B (zh) * | 2021-02-24 | 2023-04-07 | 四川省人工智能研究院(宜宾) | 一种基于动态深度注意力模型的点击率预测方法 |
CN113793187A (zh) * | 2021-09-24 | 2021-12-14 | 福州大学 | 基于实例权重平衡和双重注意力的点击率预测方法及系统 |
CN114282687A (zh) * | 2021-12-31 | 2022-04-05 | 复旦大学 | 一种基于因子分解机的多任务时序推荐方法 |
CN114282687B (zh) * | 2021-12-31 | 2023-03-07 | 复旦大学 | 一种基于因子分解机的多任务时序推荐方法 |
CN116525121A (zh) * | 2023-07-05 | 2023-08-01 | 昆明同心医联科技有限公司 | 栓塞动脉瘤的首发弹簧圈推荐模型建立方法及其应用 |
CN116525121B (zh) * | 2023-07-05 | 2023-09-26 | 昆明同心医联科技有限公司 | 栓塞动脉瘤的首发弹簧圈推荐模型建立方法及其应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112115371A (zh) | 一种基于因子分解机的神经注意力机制手机应用推荐模型 | |
CN110196946B (zh) | 一种基于深度学习的个性化推荐方法 | |
Fu et al. | A novel deep learning-based collaborative filtering model for recommendation system | |
CN111797321B (zh) | 一种面向不同场景的个性化知识推荐方法及系统 | |
CN111222332B (zh) | 一种结合注意力网络和用户情感的商品推荐方法 | |
CN109785062B (zh) | 一种基于协同过滤模型的混合神经网络推荐系统 | |
CN111708950A (zh) | 内容推荐方法、装置及电子设备 | |
CN110874439B (zh) | 一种基于评论信息的推荐方法 | |
CN111127146A (zh) | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 | |
CN110162709B (zh) | 一种结合对偶对抗生成网络的鲁棒的个性化排名方法 | |
CN112138403B (zh) | 交互行为的识别方法和装置、存储介质及电子设备 | |
CN111737578A (zh) | 一种推荐方法及系统 | |
CN111680147A (zh) | 一种数据处理方法、装置、设备以及可读存储介质 | |
CN114780831A (zh) | 基于Transformer的序列推荐方法及系统 | |
CN113628059A (zh) | 一种基于多层图注意力网络的关联用户识别方法及装置 | |
CN109598586A (zh) | 一种基于注意力模型的推荐方法 | |
CN115048586B (zh) | 一种融合多特征的新闻推荐方法及系统 | |
CN116561426A (zh) | 一种基于图对比学习和负兴趣传播的个性化推荐方法 | |
CN112527993A (zh) | 一种跨媒体层次化深度视频问答推理框架 | |
CN116821516B (zh) | 资源推荐方法、装置、设备及存储介质 | |
CN114139066A (zh) | 一种基于图神经网络的协同过滤推荐系统 | |
CN113409157A (zh) | 一种跨社交网络用户对齐方法以及装置 | |
CN116703523A (zh) | 基于大数据的电子商务系统及其方法 | |
CN114329193B (zh) | 基于时间感知兴趣演化的点击率预测方法 | |
CN113268657B (zh) | 基于评论和物品描述的深度学习推荐方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201222 |