CN106327240A - 一种基于gru神经网络的推荐方法和系统 - Google Patents
一种基于gru神经网络的推荐方法和系统 Download PDFInfo
- Publication number
- CN106327240A CN106327240A CN201610657106.8A CN201610657106A CN106327240A CN 106327240 A CN106327240 A CN 106327240A CN 201610657106 A CN201610657106 A CN 201610657106A CN 106327240 A CN106327240 A CN 106327240A
- Authority
- CN
- China
- Prior art keywords
- gru
- neutral net
- user
- output
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0224—Discounts or incentives, e.g. coupons or rebates based on user history
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Marketing (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供一种基于GRU神经网络的推荐方法和系统,其采用GRU神经网络模型对用户行为建模并用于推荐系统,通过结合BP算法或BPTT算法和本发明的神经网络结构,构建针对推荐系统的GRU神经网络模型学习方法,根据推荐系统的特点对GRU神经网络进行训练,建立独有神经网络结构,从而根据新的神经网络结构为不同用户生成与其兴趣爱好相对应的推荐列表。所述推荐方法和系统通过采用GRU神经网络从用户历史行为中学习用户偏好,并据此为用户提供推荐服务。通过GRU神经网络特有的递归结构,能够基于时间序列对不同类型的用户行为进行统一表示;且能够进行多尺度时间序列分析,更精确的表示具有较大随机性的用户行为。
Description
技术领域
本发明涉及系统推荐技术领域,具体涉及一种基于GRU神经网络的推荐方法及系统。
背景技术
当前,网络服务商为用户提供了诸如新闻、商品、图片、视频、音频、文档等(以下统一简称为物品)的在线服务。为了更好的为用户提供服务,服务提供商会记录用户的历史行为,例如记录用户购买(使用)过哪些物品、对物品的评价、点击、转发、评论等。如何有效利用记录的用户历史行为,为用户提供准确的推荐,是推荐系统面临的重大挑战,主要表现在:
第一,虽然用户历史行为有助于了解用户偏好,并为用户推荐物品提供了重要信息。但是多种多样的用户行为具有诸多不同的含义。如何合理利用这些信息是推荐系统面临的重要问题。
第二,用户行为发生的时间顺序反映了用户偏好的变化过程,也是推荐系统需要考虑的重要因素,需要加以合理利用。
因此,如何有效的利用记录的多种用户行为,为用户提供准确的推荐,是本领域人员急待解决的问题。
发明内容
有鉴于此,有必要提供一种能够有效的利用记录的多种用户行为从而为用户提供准确推荐的方法及系统。
一种基于GRU神经网络的推荐方法,所述基于GRU神经网络的推荐方法包括以下步骤:
S1、收集用户对物品的历史行为,并建立GRU神经网络;
S2、按照行为发生时间对每一个用户记录的历史行为进行先后排序;并针对每一个用户生成相应的训练样本;
S3、根据训练样本对GRU神经网络进行训练,确定GRU神经网络中的权重矩阵;
S4、根据训练后的GRU神经网络为每一个用户生成推荐列表。
一种基于GRU神经网络的推荐系统,所述基于GRU神经网络的推荐系统包括以下功能模块:
用户行为收集模块,用于收集用户对物品的历史行为,并建立GRU神经网络;
训练样本生成模块,用于按照行为发生时间对每一个用户记录的历史行为进行先后排序;并针对每一个用户生成相应的训练样本;
权重矩阵确定模块,用于根据训练样本对GRU神经网络进行训练,确定GRU神经网络中的权重矩阵;
推荐列表生成模块,用于根据训练后的GRU神经网络为每一个用户生成推荐列表。
本发明提供一种基于GRU神经网络的推荐方法和系统,其采用GRU神经网络模型对用户行为建模并用于推荐系统,通过结合BP算法或BPTT算法和本发明的神经网络结构,构建针对推荐系统的GRU神经网络模型学习方法,根据推荐系统的特点对GRU神经网络进行训练,建立独有神经网络结构,从而根据新的神经网络结构为不同用户生成与其兴趣爱好相对应的推荐列表。所述推荐方法和系统通过采用GRU神经网络从用户历史行为中学习用户偏好,并据此为用户提供推荐服务。通过GRU神经网络特有的递归结构,能够基于时间序列对不同类型的用户行为进行统一表示;且GRU神经网络能够进行多尺度时间序列分析,能够更精确的表示具有较大随机性的用户行为。
附图说明
图1是本发明所述基于GRU神经网络的推荐方法的流程图;
图2是本发明所述基于GRU神经网络的推荐方法的GRU神经网络推荐模型;
图3是图1中步骤S3的子流程图;
图4为图1中步骤S33的子流程图;
图5是本发明所述基于GRU神经网络的推荐系统的结构框图;
图6是图5中权重矩阵确定模块的子结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明实施例提供一种基于GRU神经网络的推荐方法,所述基于GRU神经网络的推荐方法包括以下步骤:
S1、收集用户对物品的历史行为,并建立GRU神经网络;
S2、按照行为发生时间对每一个用户记录的历史行为进行先后排序;并针对每一个用户生成相应的训练样本;
S3、根据训练样本对GRU神经网络进行训练,确定GRU神经网络中的权重矩阵;
S4、根据训练后的GRU神经网络为每一个用户生成推荐列表。
其中,所述GRU神经网络包括输入层、隐藏层以及输出层,其中,所述输入层的输入包括用户信息u(t)、用户t时刻的行为信息a(t)以及用户时刻行为t的目标物品信息v(t),所述隐藏层的输出包括t时刻隐藏层的输出s(t)、t-1时刻隐藏层的输出s(t-1)以及t时刻替代隐藏层g,所述输出层的输出包括t时刻输出层的输出o(t)。
具体的,如图2所示,在一个网络推荐系统中,设u(t)为GRU神经网络输入层的一个输入向量,用于表示用户信息,对于有m个用户的推荐系统,设第i个用户有m个元素,其中第i个元素为1,其它元素为0;
a(t)为输入层的一个输入向量,用于表示用户t时刻的行为,对于能够处理l种用户行为的推荐系统,第j种用户行为表示为一个有l个元素的向量,其中第j个元素为1,其它元素为0;
v(t)是输入层的一个输入向量,用于表示用户t时刻行为的目标物品,对于有n个物品的推荐系统,第k个物品表示为一个有n个元素的向量,其中第k个元素为1,其它元素为0;
s(t-1)是输入层的一个有h个元素输入向量,用于表示t-1时刻隐藏层的输出,h为隐藏层维数;优选的,隐藏层维数h取值为[100,200]中的整数。
s(t)是一个h×1的向量,表示t时刻隐藏层的输出。
如图2所示,所述GRU神经网络还包括重置门r和更新门z,t时刻重置门r的输出是一个h×1的向量,其计算方法如下:
r=σ(Qru(t)+Wra(t)+Vrv(t)+Xrs(t-1))
其中,Qr,Vr,Wr,Xr分别表示输入层u(t)、a(t)、v(t)、s(t-1)连接到隐藏层重置门r的权重矩阵;σ是sigmoid函数,σ(x)=1/(1+e-x);
所述更新门z的输出的计算方法如下:
z=σ(Qzu(t)+Wza(t)+Vzv(t)+Xzs(t-1))
其中,Qz,Vz,Wz,Xz分别表示输入层u(t)、a(t)、v(t)、s(t-1)连接到隐藏层更新门z的权重矩阵。
图2中的g是替代隐藏层,替代隐藏层的输入是当前的输入层、上一时刻的隐藏层和当前重置门的输出,t时刻替代隐藏层g的输出是一个h×1的向量,其计算方法为:
其中,Q,V,W,X分别表示输入层u(t)、a(t)、v(t)、s(t-1)连接到替代隐藏层g隐藏层的权重矩阵。
s(t)是t时刻隐藏层的输出,是一个h×1的向量,其值与当前更新门、当前替代隐藏层和上一时刻的隐藏层有关,其计算方法为:
其中,表示按对应元素相乘。
o(t)是一个n×1的向量,表示t时刻输出层的输出,o(t)的第k个元素表示用户喜欢第k个物品的概率,o(t)计算方法为:
o(t)=softmax(Ys(t))
其中,Y是隐藏层连接到输出层的权重矩阵,softmax函数定义为:
如图3所示,所述步骤S3包括以下分步骤:
S31、随机生成权重矩阵;
S32、检查收敛条件,即检查迭代次数是否达到上限;或目标函数的值是否不再减小;如果不满足收敛条件,则进行步骤S33;反之则确定了GRU神经网络中的权重矩阵,进行步骤S4;
S33、根据每一个用户的训练样本对GRU神经网络进行训练,更新GRU神经网络中的权重矩阵;
具体的,采用交叉熵(Cross entropy)做为待优化的目标函数,即:
其中,ti是第t时刻的训练样本中的物品编号,迭代次数上限为K≤100。
如图4所示,所述步骤S33包括以下分步骤:
S331、计算目标函数相对于权重矩阵的梯度;即 和
S332、更新所有权重矩阵。
以权重矩阵Y为例,更新方法为:其它权重矩阵均按照此方法更新。其中学习率α的取值为0.001;
基于上述一种基于GRU神经网络的推荐方法,本发明还提供一种基于GRU神经网络的推荐系统,如图5所示,所述基于GRU神经网络的推荐系统包括以下功能模块:
用户行为收集模块,用于收集用户对物品的历史行为,并建立GRU神经网络;
训练样本生成模块,用于按照行为发生时间对每一个用户记录的历史行为进行先后排序;并针对每一个用户生成相应的训练样本;
权重矩阵确定模块,用于根据训练样本对GRU神经网络进行训练,确定GRU神经网络中的权重矩阵;
推荐列表生成模块,用于根据训练后的GRU神经网络为每一个用户生成推荐列表。
其中,如图6所示,权重矩阵确定模块包括以下子模块:
随机生成子模块,用于随机生成权重矩阵;
收敛检查子模块,用于检查收敛条件,即检查迭代次数是否达到上限;或目标函数的值是否不再减小;
网络训练子模块,用于根据每一个用户的训练样本对GRU神经网络进行训练。
具体如表1所示,本发明的方法与其它方法在MovieLen(1M)数据集上的比较结果见表1。其中Test=10表示每一个用户选最后10个评分做为测试数据,其它做为训练数据。Test=20表示每一个用户选最后20个评分做为测试数据, 其它做为训练数据。D=16表示隐藏层维数为16。D=32表示隐藏层维数为32。在不同实验参数配置下重复实验5次。表中列出了在不同实验参数配置下的F1@10和F1@20均值和标准差(括号中的数值)。最佳值用黑体标明。可以看到,本方法在不同实验条件下都取得了最佳结果,而且比次优结果有至少30%的提升。
F1得分度量了推荐结果相对于用户实际喜欢的物品的准确程度,计算方法如下:
其中,prediciton_set是预测的结果,reference_set用户实际喜欢的物品集合。|·|表示集合中元素的个数。
F1@10表示推荐结果中前10个物品的F1得分,F1@20表示推荐结果中前20个物品的F1得分。
表1本发明的方法与其它方法在MovieLen(1M)数据集上的比较
本发明所述基于GRU神经网络的推荐方法和系统,其采用GRU神经网络 (Gatedrecurrent units based neural network)从用户历史行为中学习用户偏好,并据此为用户提供推荐服务。所述GRU神经网络结构能够方便的对不同类型的用户行为进行统一表示,其特有的递归结构特别适用于对时间序列编码。更重要的是,GRU神经网络能够自动进行多尺度时间序列分析,这一特点使得GRU神经网络能够自适应的在合适的时间尺度上分析用户的历史行为,更为合理的表示具有较大随机性的用户偏好。
与传统的递归神经网络相比,GRU神经网络增加了GRU层,该层包括图一中的重置门r、更新门z、替代隐藏层g。在递归神经网络中增加GRU层能够使神经网络既学习到训练样本中短时依赖关系,又能学习到长期依赖关系。推荐系统中,用户的某些偏好是长期不变的,因此用户行为隐藏了长期不变的先后依赖关系。而有些用户偏好是短期的。因此,分析推荐系统中用户行为需要同时考虑长期和短期依赖关系。GRU神经网络正是针对此问题而设计的。另外,传统的递归神经网络在使用基于梯度下降的算法训练时(例如BPTT算法)容易产生梯度消失问题(gradient vanishing problem).在传统的递归神经网络中增加GRU层能够有效的解决此问题。
以上装置实施例与方法实施例是一一对应的,装置实施例简略之处,参见方法实施例即可。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能性一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应超过本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机储存器、内存、只读存储器、电可编程ROM、电可檫除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其他形式的存储介质中。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述 的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种基于GRU神经网络的推荐方法,其特征在于,所述基于GRU神经网络的推荐方法包括以下步骤:
S1、收集用户对物品的历史行为,并建立GRU神经网络;
S2、按照行为发生时间对每一个用户记录的历史行为进行先后排序;并针对每一个用户生成相应的训练样本;
S3、根据训练样本对GRU神经网络进行训练,确定GRU神经网络中的权重矩阵;
S4、根据训练后的GRU神经网络为每一个用户生成推荐列表。
2.根据权利要求1所述基于GRU神经网络的推荐方法,其特征在于,
所述GRU神经网络包括输入层、隐藏层以及输出层,其中,所述输入层的输入包括用户信息u(t)、用户t时刻的行为信息a(t)以及用户时刻行为t的目标物品信息v(t),所述隐藏层的输出包括t时刻隐藏层的输出s(t)、t-1时刻隐藏层的输出s(t-1)以及t时刻替代隐藏层g,所述输出层的输出包括t时刻输出层的输出o(t)。
3.根据权利要求2所述基于GRU神经网络的推荐方法,其特征在于,所述GRU神经网络还包括重置门r和更新门z,所述重置门r的输出的计算方法如下:
r=σ(Qru(t)+Wra(t)+Vrv(t)+Xrs(t-1))
其中,Qr,Vr,Wr,Xr分别表示输入层u(t)、a(t)、v(t)、s(t-1)连接到隐藏层重置门r的权重矩阵;σ是sigmoid函数,σ(x)=1/(1+e-x);
所述更新门z的输出的计算方法如下:
z=σ(Qzu(t)+Wza(t)+Vzv(t)+Xzs(t-1))
其中,Qz,Vz,Wz,Xz分别表示输入层u(t)、a(t)、v(t)、s(t-1)连接到隐藏层更新门z的权重矩阵。
4.根据权利要求3所述基于GRU神经网络的推荐方法,其特征在于,所述替代隐藏层g的输出计算方法为:
其中,Q,V,W,X分别表示输入层u(t)、a(t)、v(t)、s(t-1)连接到替代隐藏层g的权重矩阵。
5.根据权利要求4所述基于GRU神经网络的推荐方法,其特征在于,隐藏层的输出s(t),其计算方法为:
其中,表示按对应元素相乘。
6.根据权利要求5所述基于GRU神经网络的推荐方法,其特征在于,输出层的输出o(t)的计算方法为:
o(t)=softmax(Ys(t))
其中,Y是隐藏层连接到输出层的权重矩阵,softmax函数定义为:
7.根据权利要求6所述基于GRU神经网络的推荐方法,其特征在于,所述步骤S3包括以下分步骤:
S31、随机生成权重矩阵;
S32、检查收敛条件,即检查迭代次数是否达到上限;或目标函数的值是否不再减小;如果不满足收敛条件,则进行步骤S33;反之则确定了GRU神经网络中的权重矩阵,进行步骤S4;
S33、根据每一个用户的训练样本对GRU神经网络进行训练,更新GRU神经网络中的权重矩阵。
8.根据权利要求7所述基于GRU神经网络的推荐方法,其特征在于,所述目标函数为其中,ti是第t时刻的训练样本中的物品编号,迭代次数上限为K≤100。
9.根据权利要求8所述基于GRU神经网络的推荐方法,其特征在于,所述步骤S33包括以下分步骤:
S331、计算目标函数相对于权重矩阵的梯度;
S332、更新所有权重矩阵。
10.一种基于GRU神经网络的推荐系统,其特征在于,所述基于GRU神经网络的推荐系统包括以下功能模块:
用户行为收集模块,用于收集用户对物品的历史行为,并建立GRU神经网络;
训练样本生成模块,用于按照行为发生时间对每一个用户记录的历史行为进行先后排序;并针对每一个用户生成相应的训练样本;
权重矩阵确定模块,用于根据训练样本对GRU神经网络进行训练,确定GRU神经网络中的权重矩阵;
推荐列表生成模块,用于根据训练后的GRU神经网络为每一个用户生成推荐列表。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610657106.8A CN106327240A (zh) | 2016-08-11 | 2016-08-11 | 一种基于gru神经网络的推荐方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610657106.8A CN106327240A (zh) | 2016-08-11 | 2016-08-11 | 一种基于gru神经网络的推荐方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106327240A true CN106327240A (zh) | 2017-01-11 |
Family
ID=57740660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610657106.8A Pending CN106327240A (zh) | 2016-08-11 | 2016-08-11 | 一种基于gru神经网络的推荐方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106327240A (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600347A (zh) * | 2017-01-17 | 2017-04-26 | 中国科学院自动化研究所 | 一种基于多视角数据和循环网络构建序列预测模型的方法 |
CN106897404A (zh) * | 2017-02-14 | 2017-06-27 | 中国船舶重工集团公司第七0九研究所 | 一种基于多gru层神经网络的推荐方法与系统 |
CN107203644A (zh) * | 2017-06-23 | 2017-09-26 | 北京好豆网络科技有限公司 | 美食数据的推荐方法和装置 |
CN107909421A (zh) * | 2017-09-29 | 2018-04-13 | 中国船舶重工集团公司第七0九研究所 | 一种基于用户空间的多gru层神经网络的隐含反馈推荐方法及系统 |
CN108288502A (zh) * | 2018-04-11 | 2018-07-17 | 平安科技(深圳)有限公司 | 疾病预测方法及装置、计算机装置及可读存储介质 |
CN108345219A (zh) * | 2018-03-01 | 2018-07-31 | 东华大学 | 基于类脑记忆gru的聚酰胺纤维生产工艺 |
CN108563755A (zh) * | 2018-04-16 | 2018-09-21 | 辽宁工程技术大学 | 一种基于双向循环神经网络的个性化推荐系统及方法 |
CN108647251A (zh) * | 2018-04-20 | 2018-10-12 | 昆明理工大学 | 基于宽深度门循环联合模型的推荐排序方法 |
CN108763493A (zh) * | 2018-05-30 | 2018-11-06 | 深圳市思迪信息技术股份有限公司 | 一种基于深度学习的推荐方法 |
CN108846199A (zh) * | 2018-06-12 | 2018-11-20 | 华能澜沧江水电股份有限公司 | 基于时空一体化的特高拱坝变形时空序列预测方法 |
CN109948773A (zh) * | 2017-12-20 | 2019-06-28 | 北京京东尚科信息技术有限公司 | 生成信息的方法和装置 |
CN110428296A (zh) * | 2018-08-02 | 2019-11-08 | 北京京东尚科信息技术有限公司 | 物品的推荐方法、装置和计算机可读存储介质 |
CN110826695A (zh) * | 2019-10-30 | 2020-02-21 | 京东数字城市(成都)科技有限公司 | 数据处理方法、装置和计算机可读存储介质 |
WO2020147265A1 (zh) * | 2019-01-14 | 2020-07-23 | 南京信息工程大学 | 一种基于多源信息融合的移动电子商务推荐方法和系统 |
TWI701629B (zh) * | 2017-11-16 | 2020-08-11 | 香港商阿里巴巴集團服務有限公司 | 共用產品的推薦方法、裝置以及電子設備 |
CN111652664A (zh) * | 2019-03-04 | 2020-09-11 | 富士通株式会社 | 训练混合元学习网络的装置和方法 |
CN112000873A (zh) * | 2020-06-19 | 2020-11-27 | 南京理工大学 | 基于会话的推荐系统、方法、设备及存储介质 |
CN113065060A (zh) * | 2021-02-18 | 2021-07-02 | 山东师范大学 | 基于深度学习的教育平台课程推荐方法及系统 |
CN113627598A (zh) * | 2021-08-16 | 2021-11-09 | 重庆大学 | 一种用于加速推荐的孪生自编码器神经网络算法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090216731A1 (en) * | 2008-02-26 | 2009-08-27 | Sap Aktiengesellschaft | Enhanced Process Query Framework |
CN104615767A (zh) * | 2015-02-15 | 2015-05-13 | 百度在线网络技术(北京)有限公司 | 搜索排序模型的训练方法、搜索处理方法及装置 |
CN105046515A (zh) * | 2015-06-26 | 2015-11-11 | 深圳市腾讯计算机系统有限公司 | 广告排序方法及装置 |
CN105354277A (zh) * | 2015-10-30 | 2016-02-24 | 中国船舶重工集团公司第七0九研究所 | 一种基于递归神经网络的推荐方法及系统 |
CN105787100A (zh) * | 2016-03-18 | 2016-07-20 | 浙江大学 | 一种基于深度神经网络的用户会话推荐方法 |
-
2016
- 2016-08-11 CN CN201610657106.8A patent/CN106327240A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090216731A1 (en) * | 2008-02-26 | 2009-08-27 | Sap Aktiengesellschaft | Enhanced Process Query Framework |
CN104615767A (zh) * | 2015-02-15 | 2015-05-13 | 百度在线网络技术(北京)有限公司 | 搜索排序模型的训练方法、搜索处理方法及装置 |
CN105046515A (zh) * | 2015-06-26 | 2015-11-11 | 深圳市腾讯计算机系统有限公司 | 广告排序方法及装置 |
CN105354277A (zh) * | 2015-10-30 | 2016-02-24 | 中国船舶重工集团公司第七0九研究所 | 一种基于递归神经网络的推荐方法及系统 |
CN105787100A (zh) * | 2016-03-18 | 2016-07-20 | 浙江大学 | 一种基于深度神经网络的用户会话推荐方法 |
Non-Patent Citations (1)
Title |
---|
KYUNGHYUN CHO ET AL: "Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation", 《EMPIRICAL METHODS IN NATURAL LANGUGE》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106600347A (zh) * | 2017-01-17 | 2017-04-26 | 中国科学院自动化研究所 | 一种基于多视角数据和循环网络构建序列预测模型的方法 |
CN106600347B (zh) * | 2017-01-17 | 2020-04-21 | 中国科学院自动化研究所 | 一种基于多视角数据和循环网络构建序列预测模型的方法 |
CN106897404A (zh) * | 2017-02-14 | 2017-06-27 | 中国船舶重工集团公司第七0九研究所 | 一种基于多gru层神经网络的推荐方法与系统 |
CN106897404B (zh) * | 2017-02-14 | 2021-04-09 | 中国船舶重工集团公司第七0九研究所 | 一种基于多gru层神经网络的推荐方法与系统 |
CN107203644A (zh) * | 2017-06-23 | 2017-09-26 | 北京好豆网络科技有限公司 | 美食数据的推荐方法和装置 |
CN107909421A (zh) * | 2017-09-29 | 2018-04-13 | 中国船舶重工集团公司第七0九研究所 | 一种基于用户空间的多gru层神经网络的隐含反馈推荐方法及系统 |
US10956976B2 (en) | 2017-11-16 | 2021-03-23 | Advanced New Technologies Co., Ltd. | Recommending shared products |
TWI701629B (zh) * | 2017-11-16 | 2020-08-11 | 香港商阿里巴巴集團服務有限公司 | 共用產品的推薦方法、裝置以及電子設備 |
CN109948773A (zh) * | 2017-12-20 | 2019-06-28 | 北京京东尚科信息技术有限公司 | 生成信息的方法和装置 |
CN108345219A (zh) * | 2018-03-01 | 2018-07-31 | 东华大学 | 基于类脑记忆gru的聚酰胺纤维生产工艺 |
CN108288502A (zh) * | 2018-04-11 | 2018-07-17 | 平安科技(深圳)有限公司 | 疾病预测方法及装置、计算机装置及可读存储介质 |
WO2019196280A1 (zh) * | 2018-04-11 | 2019-10-17 | 平安科技(深圳)有限公司 | 疾病预测方法及装置、计算机装置及可读存储介质 |
CN108563755A (zh) * | 2018-04-16 | 2018-09-21 | 辽宁工程技术大学 | 一种基于双向循环神经网络的个性化推荐系统及方法 |
CN108647251A (zh) * | 2018-04-20 | 2018-10-12 | 昆明理工大学 | 基于宽深度门循环联合模型的推荐排序方法 |
CN108647251B (zh) * | 2018-04-20 | 2021-06-18 | 昆明理工大学 | 基于宽深度门循环联合模型的推荐排序方法 |
CN108763493A (zh) * | 2018-05-30 | 2018-11-06 | 深圳市思迪信息技术股份有限公司 | 一种基于深度学习的推荐方法 |
CN108763493B (zh) * | 2018-05-30 | 2022-06-21 | 深圳市思迪信息技术股份有限公司 | 一种基于深度学习的推荐方法 |
CN108846199B (zh) * | 2018-06-12 | 2019-04-05 | 华能澜沧江水电股份有限公司 | 基于时空一体化的特高拱坝变形时空序列预测方法 |
CN108846199A (zh) * | 2018-06-12 | 2018-11-20 | 华能澜沧江水电股份有限公司 | 基于时空一体化的特高拱坝变形时空序列预测方法 |
CN110428296A (zh) * | 2018-08-02 | 2019-11-08 | 北京京东尚科信息技术有限公司 | 物品的推荐方法、装置和计算机可读存储介质 |
WO2020147265A1 (zh) * | 2019-01-14 | 2020-07-23 | 南京信息工程大学 | 一种基于多源信息融合的移动电子商务推荐方法和系统 |
CN111652664A (zh) * | 2019-03-04 | 2020-09-11 | 富士通株式会社 | 训练混合元学习网络的装置和方法 |
CN110826695A (zh) * | 2019-10-30 | 2020-02-21 | 京东数字城市(成都)科技有限公司 | 数据处理方法、装置和计算机可读存储介质 |
CN110826695B (zh) * | 2019-10-30 | 2021-05-25 | 京东数字城市(成都)科技有限公司 | 数据处理方法、装置和计算机可读存储介质 |
CN112000873A (zh) * | 2020-06-19 | 2020-11-27 | 南京理工大学 | 基于会话的推荐系统、方法、设备及存储介质 |
CN112000873B (zh) * | 2020-06-19 | 2022-10-18 | 南京理工大学 | 基于会话的推荐系统、方法、设备及存储介质 |
CN113065060A (zh) * | 2021-02-18 | 2021-07-02 | 山东师范大学 | 基于深度学习的教育平台课程推荐方法及系统 |
CN113065060B (zh) * | 2021-02-18 | 2022-11-29 | 山东师范大学 | 基于深度学习的教育平台课程推荐方法及系统 |
CN113627598A (zh) * | 2021-08-16 | 2021-11-09 | 重庆大学 | 一种用于加速推荐的孪生自编码器神经网络算法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106327240A (zh) | 一种基于gru神经网络的推荐方法和系统 | |
CN111797321B (zh) | 一种面向不同场景的个性化知识推荐方法及系统 | |
CN105354277A (zh) | 一种基于递归神经网络的推荐方法及系统 | |
Baraff et al. | Estimating uncertainty in respondent-driven sampling using a tree bootstrap method | |
CN106897404B (zh) | 一种基于多gru层神经网络的推荐方法与系统 | |
JP6819355B2 (ja) | レコメンデーション生成 | |
CN109903103B (zh) | 一种推荐物品的方法和装置 | |
CN110175168A (zh) | 一种基于生成对抗网络的时间序列数据填补方法及系统 | |
CN111242310A (zh) | 特征有效性评估方法、装置、电子设备及存储介质 | |
CN107909421A (zh) | 一种基于用户空间的多gru层神经网络的隐含反馈推荐方法及系统 | |
Lian et al. | Mutual reinforcement of academic performance prediction and library book recommendation | |
CN110852390A (zh) | 一种基于校园行为序列的学生成绩分类预测方法及系统 | |
CN109902823A (zh) | 一种基于生成对抗网络的模型训练方法及设备 | |
CN110059251B (zh) | 基于多关系隐式反馈置信度的协同过滤推荐方法 | |
CN112256971A (zh) | 一种序列推荐方法及计算机可读存储介质 | |
CN110472659B (zh) | 数据处理方法、装置、计算机可读存储介质和计算机设备 | |
CN112000788A (zh) | 一种数据处理方法、装置以及计算机可读存储介质 | |
CN113409157B (zh) | 一种跨社交网络用户对齐方法以及装置 | |
Bataillon et al. | As it happens: current directions in experimental evolution | |
Mirkin | Core Concepts in Data Analysis: Summarization, Correlation, Visualization | |
Preminger et al. | Mapping dynamic memories of gradually changing objects | |
CN111861674B (zh) | 一种产品推荐方法和系统 | |
CN110533186B (zh) | 众包定价体系的评估方法、装置、设备及可读存储介质 | |
CN113313615A (zh) | 一种对企业司法风险进行量化评分定级的方法及装置 | |
CN113627513A (zh) | 一种训练数据生成方法、系统、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination |