CN102129462B - 一种通过聚合对协同过滤推荐系统进行优化的方法 - Google Patents

一种通过聚合对协同过滤推荐系统进行优化的方法 Download PDF

Info

Publication number
CN102129462B
CN102129462B CN201110059711.2A CN201110059711A CN102129462B CN 102129462 B CN102129462 B CN 102129462B CN 201110059711 A CN201110059711 A CN 201110059711A CN 102129462 B CN102129462 B CN 102129462B
Authority
CN
China
Prior art keywords
polymerization
model
recommended models
basic
randomization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201110059711.2A
Other languages
English (en)
Other versions
CN102129462A (zh
Inventor
荣文戈
罗辛
欧阳元新
秦思思
熊璋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tianshi and culture communication limited liability company
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201110059711.2A priority Critical patent/CN102129462B/zh
Publication of CN102129462A publication Critical patent/CN102129462A/zh
Application granted granted Critical
Publication of CN102129462B publication Critical patent/CN102129462B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种通过聚合对协同过滤推荐系统进行优化的方法,该方法通过构造同类聚合模型的方式来提高协同过滤推荐算法的推荐精度,主要采用分化训练数据集和随机注入两种方式分化构成聚合的基本推荐模型,分化训练数据集包括基于AdaBoost(AdaptiveBoosting,自适应增强法)算法和FSAM(Forward Stepwise AdditiveModeling,逐步逼近法)算法构造聚合推荐模型,随机注入包括基于随机化初始值和随机化训练序列构造聚合推荐模型,其推荐精度均优于单个基于RMF(Regularized Matrix Factorization)的隐向量模型的推荐精度。将AdaBoost、FSAM、随机化初始值和随机化训练序列四种方法加以组合,构造出叠加聚合推荐模型,其推荐精度明显优于单个基于RMF的隐向量模型和基于单一方法构造的聚合推荐模型的推荐精度。

Description

一种通过聚合对协同过滤推荐系统进行优化的方法
技术领域
本发明涉及一种基于聚合学习的优化方法,具体涉及一种通过聚合对协同过滤推荐系统进行优化的方法,适用于协同过滤推荐系统的优化,属于个性化推荐研究的技术领域。
背景技术
个性化推荐系统多数使用协同过滤方法而提供推荐信息,用户在协同过滤推荐问题中,用户对于项目的兴趣被量化为用户对项目的评分,并以一个用户-项目评分矩阵R表示。基于邻居关系的协同过滤推荐模型,虽然具备简单直观,实现难度低,推荐结果易于解释等优点,但其也存在计算复杂度和存储复杂度高、对用户-项目评分数据的解释性差等缺陷。因此,研究者们一直在努力尝试设计出具备更好性能的协同过滤推荐模型,其中的佼佼者就是隐向量模型。
在个性化推荐研究领域,将不同的推荐模型加以组合,以获得比单个推荐模型更好的推荐性能,也是常用的方法。由于隐向量模型相较于近邻关系模型,具备推荐精度高、训练和存贮复杂度低等特点,故而针对构造以隐向量模型作为基本模型的聚合推荐模型的研究十分活跃,其中较具备代表性的聚合推荐模型包括Wu等提出的基于RMF、MMMF(Max Margin Matrix Factorization,最大边缘矩阵因式分解)和NMF(Non-negative Matrix Factorization,非负矩阵因式分解)的隐向量模型构成的聚合推荐模型,Salakhudinov等提出的基于不同RMF变种的隐向量模型构成的聚合推荐模型、Paterek提出的基于不同RMF变种的隐向量模型构成的聚合推荐模型,以及Bell等人提出的由18个最为精确的协同过滤推荐模型组合而成的聚合推荐模型。但是上述模型均为异类聚合模型,异类聚合模型虽然模型间分化程度较大,由于其往往基于大量不同的基本模型构成,具备很高的实现难度;同时,不同类的模型组合未必能获得有效的聚合模型,如何选择适宜组合的推荐模型,也是十分困难的问题,其过程需要大量的实验验证,且主观性过强。故而,本专利提出的方法是针对构造由隐向量模型作为基本模型的同类聚合推荐模型进行,目前针对此问题的国内外研究尚比较缺乏。
发明内容
本发明要解决的技术问题:
克服现有技术的局限性,提供一种基于聚合学习对协同过滤推荐系统进行优化的方法。该方法采用四种聚合推荐模型的构造方法进行叠加,使推荐精度的提高程度十分明显。
本发明的技术解决方案:
本发明是一种通过聚合对协同过滤推荐系统进行优化的方法,是将AdaBoost(Adaptive Boosting,自适应增强法)算法、FSAM(Forward StepwiseAdditive Modeling,逐步逼近法)、随机化初始值和随机化训练序列四种方法加以组合,构造出叠加聚合推荐模型。具体如下:
步骤一,选取基于规范化矩阵因式分解的隐向量模型作为基本推荐模型;
步骤二,构造基于随机化训练序列的聚合推荐模型
r ^ u , i = Σ n = 1 N ( μ n + b u n + b i n + p u n · q i n ) N ;
步骤三,以上述步骤二的基于随机化训练序列的聚合推荐模型为基本模型,为不同模型赋予不同的随机化初始值,从而构造基于随机化初始值的聚合推荐模型;
步骤四,计算上述步骤三的基于随机化初始值的聚合推荐模型在原始训练数据集上的错误率,生成相应采样数据集,从而构造基于AdaBoost算法的聚合推荐模型
Figure BDA0000049765620000031
步骤五,以上述步骤四的基于AdaBoost算法的聚合推荐模型作为基本模型,通过逐步逼近原则,采用相应的损失函数
Figure BDA0000049765620000032
Figure BDA0000049765620000033
构造基于FSAM的聚合推荐模型
Figure BDA0000049765620000034
其中,所述步骤二的构造基于随机化训练序列的聚合模型的过程如下:
输入:原始训练数据集T
构成聚合的基本模型数量N
基于RMF的隐向量模型,作为基本推荐模型
输出:聚合推荐模型
Figure BDA0000049765620000035
(1)初始化:将当前训练轮数n设为1;
(2)随机化T中训练实例的排序顺序,构造副本Tn
(3)以Tn为训练数据构造第n个基本推荐模型;
(4)n=n+1;若n<N重复步骤(2)和(3)。
其中,所述步骤三构造基于随机化初始值的聚合推荐模型的过程如下:
输入:原始训练数据集T
构成聚合的基本模型数量N
基于RMF的隐向量模型,作为基本推荐模型
输出:聚合推荐模型
Figure BDA0000049765620000036
(1)初始化:将当前训练轮数n设为1;
(2)随机生成第n个基本推荐模型各参数的初始值,并以T为训练数据构造第n个基本推荐模型;
(3)n=n+1;若n<N重复步骤(2)。
其中,所述步骤四构造基于AdaBoost的聚合推荐模型的过程如下:
输入:原始训练数据集T
构成聚合的基本模型数量N
基于RMF的隐向量模型,作为基本推荐模型
用以判定训练实例是否被错误处理的阈值
Figure BDA0000049765620000041
输出:聚合推荐模型
Figure BDA0000049765620000042
(1)初始化:将当前训练轮数n设为1,Tn设为T;
(2)以Tn为训练数据构造第n个基本推荐模型;
(3)以原始训练数据集为验证数据集,计算第n个基本推荐模型在每个训练样本上的ARE,并计算错误处理的样本数errCountn,据此得出第n个基本推荐模型的错误率εn
(4)构造第n+1轮迭代中的采样数据集Tn+1,以下式确定各训练实例在中存在Tn+1的拷贝数量,
Figure BDA0000049765620000043
(5)n=n+1;若n<N重复步骤(3)、(4)。
其中,所述步骤五的构造基于FSAM的聚合推荐模型的过程如下:
输入:原始训练数据集T
构成聚合的基本模型数量N
基于RMF的隐向量模型,作为基本推荐模型
输出:聚合推荐模型
Figure BDA0000049765620000044
(1)初始化:将当前训练轮数n设为1,Tn设为T;
(2)以Tn为训练数据,
SE m = Σ ( u , i ) ∈ T ( ( r u , i m - μ m - b u m - b i m - p u m · q i m ) 2
+ λ ( ( b u m ) 2 + ( b i m ) 2 + | | p u m | | 2 + | | q i m | | 2 ) )
以上式最小化式所示的累积代价函数为目标,构造第n个基本推荐模型;
( 3 ) , r u , i m + 1 = r u , i - r ^ u , i m = r u , i - Σ n = 1 N ( μ n + b u n + b i n + p u n · q i n )
按照上式,构造第n+1轮迭代中的训练数据集Tn+1
n=n+1;若n<N重复步骤(2)、(3)。
本发明与现有技术相比的优点在于:
在个性化推荐研究领域,将不同的推荐模型加以组合,是比较常用的方法,但目前所使用的模型均为异类聚合模型。而本专利中使用的是同类聚合模型,使用AdaBoost、FSAM、随机化初始值和随机化训练序列叠加构造聚合推荐模型,在每一层次上的聚合均能使推荐精度通过验证均有一定程度上的上升。
在实验验证中,使用MovieLens 1M数据集(以下简称ML1M数据集),该数据集包含了6040名用户对3900个项目超过100万条的评分信息,其用户-项目评分矩阵稠密度分别为4.25%。所有的用户评分都分布在区间[0,5]内,评分值越高,代表用户对相应项目的兴趣越强。使用RMSE(Root-mean-squareError,均方根误差)作为推荐系统预测精度的评价指标。在训练单个RMF推荐模型,以及聚合推荐模型的基本推荐模型时,用户特征向量和项目特征向量的初始值均按照均匀分布从区间[-0.02,0.02]中随机选取;用户观测偏差和项目观测偏差的初始值均按照均匀分布从区间[-0.2,0.2]中随机选取。规泛化因数λ和学习速率η分别按照交叉验证结果,被置为0.005和0.008。当隐向量空间维数f=20时,五种模型的推荐精度所验证的结果如下表所示,当空间维数f值上升时,五种模型的推荐精度所验证的结果如图2所示,结果分别是使用AdaBoost、FSAM、随机化初始值和随机化训练序列叠加构造聚合推荐模型均比基于单个RMF的隐模型的推荐精度高。如下表1所示。
  推荐模型   RSME
  基于单个RMF的隐模型   0.8588
  基于AdaBoost的聚合推荐模型   0.8522
  基于FSAM的聚合推荐模型   0.8547
  基于随机化初始值的聚合推荐模型   0.8500
  基于随机化训练序列的聚合推荐模型   0.8521
表1
四种模型通过叠加聚合后,当隐向量空间维数f=20时,叠加聚合推荐模型和基于单个RMF的隐向量模型的RMSE对比情况如图3所示,在叠加聚合推荐模型每一层次上的聚合均使推荐精度有一定程度的上升。当空间维数f∈[20,500],随着f值的上升,叠加聚合推荐模型所能取得的最低RMSE值如图4所示,始终比基于单个RMF的隐向量模型有更高的推荐精度,且推荐精度有十分明显的提高。
附图说明
图1是叠加聚合推荐模型结构图;
图2是随着f值上升各推荐模型的RMSE值比较图;
图3是叠加聚合推荐模型在每个层次上RMSE的下降趋势;
图4是随着f值上升叠加聚合推荐模型所能取得的最低RMSE值。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
一种通过聚合对协同过滤推荐系统进行优化的方法,由五个层次构成,第0层次中,选取基于规范化矩阵因式分解的隐向量模型作为基本推荐模型;第一个层次中,我们构造基于随机化训练序列的聚合推荐模型,并通过为不同的基于随机化训练序列的聚合模型赋予不同的随机化初始值,将其作为第二个层次中基于随机化初始值的聚合推荐模型的基本模型;当构造好第二个层次中的聚合模型后,我们可以通过计算其在原始训练数据集上的错误率,并生成相应的采样数据集,从而构造第三个层次中基于AdaBoost算法的聚合推荐模型;最后,我们可以通过逐步逼近的方式,以第三个层次中的聚合推荐模型作为基本模型,构造第四个层次中的基于FSAM的聚合推荐模型。
如图1所示,叠加聚合模型所包括的五个层次实施方式如下:
(一)第0层,基本推荐模型。选取基于规范化矩阵因式分解的隐向量模型作为基本推荐模型,现有研究表明,使用该推荐模型的推荐系统往往具备很高的推荐精度,故而该推荐模型能够满足对构成聚合的基本模型的精度要求。
(二)第1层,基于随机化训练序列的聚合模型。其模型构造过程是,首先将原始训练数据实例的排序进行随机化,经过n此迭代后得到第n个自举副本,作为第n个基本推荐模型。
(三)第2层,基于随机化初始值的聚合推荐模型。其模型构造过程是,首先随机生成第n个基本推荐模型的各参数初始值,然后以原始训练数据集构造第n个基本推荐模型。
(四)第3层,基于AdaBoost的聚合推荐模型。其模型构造过程是,首先,在第n轮迭代结束后,我们以如下方式计算基本推荐模型的错误率:
Figure BDA0000049765620000071
其中errCountn表示第n轮迭代中训练得出的基本推荐模型,以原始数据集作为测试数据集时,其错误处理的训练样本数量。
计算出errCountn后,则训练实例ru1在第n+1轮迭代的采样数据集中存在的拷贝数量由下式决定:
Figure BDA0000049765620000072
其中
Figure BDA0000049765620000073
Figure BDA0000049765620000074
分别表示训练实例ru,1在第n轮和第n+1轮迭代中的采样数据集中存在的拷贝数量。AREu,i表示基本模型对于训练实例ru,i的误差绝对值,其计算方式为:
Figure BDA0000049765620000081
的值大于预先定义的阈值
Figure BDA0000049765620000082
时,则认为训练实例ru,1被推荐模型错误处理,阈值
Figure BDA0000049765620000083
一般可以定义为推荐模型在训练数据集上的相对误差绝对值的均值。
(五)第4层,基于FSAM的聚合推荐模型。其模型构造过程是,假设整个聚合模型由N个基本模型构成,则对于未知评分ru,i,聚合模型的预测结果为:
Figure BDA0000049765620000084
其中,构造每一个基本模型的训练数据集,是原始数据集中的数据和当前已构造完成的所有基本模型的预测值之和的差值,如下所示:m为当前已构造完成的基本模型数量。
每个基本推荐模型的构造都遵循逐步逼近(Forward Stepwise)原则,以累积代价函数为目标构成第n个基本推荐模型,其相应的损失函数如下所示:
SE m = Σ ( u , i ) ∈ T ( ( r u , i m - μ m - b u m - b i m - p u m · q i m ) 2 + λ ( ( b u m ) 2 + ( b i m ) 2 +
/ / pum / / 2 + / / qim / / 2 ) .

Claims (1)

1.一种通过聚合对协同过滤推荐系统进行优化的方法,其特征在于:是将AdaBoost、FSAM、随机化初始值和随机化训练序列四种方法加以组合,构造出叠加聚合推荐模型,具体如下:
步骤一,选取基于规范化矩阵因式分解的隐向量模型作为基本推荐模型;
步骤二,构造基于随机化训练序列的聚合推荐模型 r ^ u , i = Σ n = 1 N ( μ n + b u n + b i n + p u n · q i n ) N ;
步骤三,以上述步骤二的基于随机化训练序列的聚合推荐模型为基本模型,为不同模型赋予不同的随机化初始值,从而构造基于随机化初始值的聚合推荐模型;
步骤四,计算上述步骤三的基于随机化初始值的聚合推荐模型在原始训练数据集上的错误率,生成相应采样数据集,从而构造基于AdaBoost算法的聚合推荐模型 r ^ u , i = Σ n = 1 N log 1 ϵ n ( μ n + b u n + b i n + p u n · q i n ) Σ n = 1 N ( log 1 ϵ n ) ;
步骤五,以上述步骤四的基于AdaBoost算法的聚合推荐模型作为基本模型,通过逐步逼近原则,采用相应的损失函数 SE m = Σ ( u , i ) ∈ T ( ( r u , i m - μ m - b u m - b i m - pum · qim 2 + λbum 2 + bim 2 + / / pum / / 2 + / / qim / / 2 ) , 构造基于FSAM的聚合推荐模型 r ^ u , i = Σ n = 1 N = ( μ n + b u n + b i n + p u n · q i n ) ;
其中,所述步骤二的构造基于随机化训练序列的聚合模型的过程如下:
输入:原始训练数据集T、构成聚合的基本模型数量N及基于RMF的隐向量模型,作为基本推荐模型;
执行步骤:
(2.1)初始化:将当前训练轮数n设为1;
(2.2)随机化T中训练实例的排序顺序,构造副本Tn
(2.3)以Tn为训练数据构造第n个基本推荐模型;
(2.4)n=n+1;若n<N重复步骤(2.2)和(2.3);
得到输出:聚合推荐模型 r ^ u , i = &Sigma; n = 1 N ( &mu; n + b u n + b i n + p u n &CenterDot; q i n ) N ;
其中,所述步骤三构造基于随机化初始值的聚合推荐模型的过程如下:
输入:原始训练数据集T、构成聚合的基本模型数量N及基于RMF的隐向量模型,作为基本推荐模型;
执行步骤:
(3.1)初始化:将当前训练轮数n设为1;
(3.2)随机生成第n个基本推荐模型各参数的初始值,并以T为训练数据构造第n个基本推荐模型;
(3.3)n=n+1;若n<N重复步骤(3.2);
得到输出:聚合推荐模型 r ^ u , i = &Sigma; n = 1 N ( &mu; n + b u n + b i n + p u n &CenterDot; q i n ) N ;
其中,所述步骤四构造基于AdaBoost的聚合推荐模型的过程如下:
输入:原始训练数据集T、构成聚合的基本模型数量N、基于RMF的隐向量模型,作为基本推荐模型及用以判定训练实例是否被错误处理的阈值
执行步骤:
(4.1)初始化:将当前训练轮数n设为1,Tn设为T;
(4.2)以Tn为训练数据构造第n个基本推荐模型;
(4.3)以原始训练数据集为验证数据集,计算第n个基本推荐模型在每
个训练样本上的ARE,并计算错误处理的样本数errCountn,据此得出第n
个基本推荐模型的错误率εn
(4.4)构造第n+1轮迭代中的采样数据集Tn+1,以下式确定各训练实例存在于Tn+1中的拷贝数量,
Figure FDA0000408590010000024
(4.5)n=n+1;若n<N重复步骤(4.3)、(4.4);
得到输出:聚合推荐模型 r ^ u , i = &Sigma; n = 1 N log 1 g n ( &mu; n + b u n + b i n + p u n &CenterDot; q i n ) &Sigma; n = 1 N ( log 1 g n ) ;
其中,所述步骤五的构造基于FSAM的聚合推荐模型的过程如下:
输入:原始训练数据集T、构成聚合的基本模型数量N及基于RMF的隐向量模型,作为基本推荐模型;
执行步骤:
(5.1)初始化:将当前训练轮数n设为1,Tn设为T;
(5.2)以Tn为训练数据,
SE m = &Sigma; ( u , i ) &Element; T ( ( r u , i m - &mu; m - b u m - b i m - p u m &CenterDot; q i m ) 2 + &lambda; ( ( b u m ) 2 + ( b i m ) 2 + | | p u m | | 2 + | | q i m | | 2 ) )
以上式最小化式所示的累积代价函数为目标,构造第n个基本推荐模型;
(5.3) r u , i m + 1 = r u , i - r ^ u , i m = r u , i - &Sigma; n = 1 N ( &mu; n + b u n + b i n + p u n &CenterDot; q i n )
按照上式,构造第n+1轮迭代中的训练数据集Tn+1
n=n+1;若n<N重复步骤(5.2)、(5.3);
得到输出:聚合推荐模型 r ^ u , i = &Sigma; n = 1 N = ( &mu; n + b u n + b i n + p u n &CenterDot; q i n ) .
CN201110059711.2A 2011-03-11 2011-03-11 一种通过聚合对协同过滤推荐系统进行优化的方法 Active CN102129462B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110059711.2A CN102129462B (zh) 2011-03-11 2011-03-11 一种通过聚合对协同过滤推荐系统进行优化的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110059711.2A CN102129462B (zh) 2011-03-11 2011-03-11 一种通过聚合对协同过滤推荐系统进行优化的方法

Publications (2)

Publication Number Publication Date
CN102129462A CN102129462A (zh) 2011-07-20
CN102129462B true CN102129462B (zh) 2014-06-18

Family

ID=44267544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110059711.2A Active CN102129462B (zh) 2011-03-11 2011-03-11 一种通过聚合对协同过滤推荐系统进行优化的方法

Country Status (1)

Country Link
CN (1) CN102129462B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102609533B (zh) * 2012-02-15 2015-03-18 中国科学技术大学 一种基于核方法的协同过滤推荐系统及方法
CN102930341B (zh) * 2012-10-15 2015-01-28 成都国科海博信息技术股份有限公司 一种协同过滤推荐模型的优化训练方法
JP2016510913A (ja) * 2013-08-09 2016-04-11 トムソン ライセンシングThomson Licensing 行列因子分解とリッジ回帰に基づくプライバシー保護リコメンデーションの方法及びシステム
CN105045819B (zh) * 2015-06-26 2018-04-20 深圳市腾讯计算机系统有限公司 一种训练数据的模型训练方法及装置
CN109447167B (zh) * 2018-11-05 2021-09-21 杭州电子科技大学 一种基于非负矩阵分解的智能卷烟配方维护方法
CN111291273A (zh) * 2020-02-20 2020-06-16 深圳前海微众银行股份有限公司 推荐系统优化方法、装置、设备及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1967533A (zh) * 2006-07-17 2007-05-23 北京航空航天大学 采用元推荐引擎的门户个性化推荐服务方法和系统
CN101216825A (zh) * 2007-12-29 2008-07-09 朱廷劭 标引关键词提取/预测方法、在线广告推荐方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1967533A (zh) * 2006-07-17 2007-05-23 北京航空航天大学 采用元推荐引擎的门户个性化推荐服务方法和系统
CN101216825A (zh) * 2007-12-29 2008-07-09 朱廷劭 标引关键词提取/预测方法、在线广告推荐方法和装置

Also Published As

Publication number Publication date
CN102129462A (zh) 2011-07-20

Similar Documents

Publication Publication Date Title
CN102129462B (zh) 一种通过聚合对协同过滤推荐系统进行优化的方法
CN110807154B (zh) 一种基于混合深度学习模型的推荐方法与系统
CN102982107B (zh) 一种融合用户、项目和上下文属性信息的推荐系统优化方法
Amburgey et al. Dimensionality of the new ecological paradigm: Issues of factor structure and measurement
Xu et al. Composite quantile regression neural network with applications
CN109284866B (zh) 商品订单预测方法及装置、存储介质、终端
Xiao et al. GMDH-based semi-supervised feature selection for customer classification
CN109753571B (zh) 一种基于二次主题空间投影的场景图谱低维空间嵌入方法
CN105701191A (zh) 一种推送信息点击率估计方法和装置
CN106126549A (zh) 一种基于概率矩阵分解的社区信任推荐方法及其系统
CN103810104A (zh) 一种软件测试用例优化方法及系统
CN104134159A (zh) 一种基于随机模型预测信息最大化传播范围的方法
CN107480694A (zh) 基于Spark平台采用两次评价的加权选择集成三支聚类方法
CN110503508A (zh) 一种层级多粒度矩阵分解的物品推荐方法
CN109740924A (zh) 融合属性信息网络和矩阵分解的物品评分预测方法
CN111783963A (zh) 一种基于星图神经网络的推荐方法
CN111723285A (zh) 一种基于评分的深度谱卷积协同过滤推荐方法
CN112287166A (zh) 一种基于改进深度信念网络的电影推荐方法及系统
CN113050931A (zh) 一种基于图注意力机制的符号网络链路预测方法
CN114997476A (zh) 一种融合商品关联关系的商品预测方法
CN106227767A (zh) 一种基于领域相关性自适应的协同过滤方法
CN111930926B (zh) 结合评论文本挖掘的个性化推荐算法
Lasota et al. Investigation of random subspace and random forest methods applied to property valuation data
Aldania et al. A Comparative Study of CatBoost and Double Random Forest for Multi-class Classification
CN107169601A (zh) 基于多变量信息及径向基函数网络的垃圾产生量预测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent for invention or patent application
CB03 Change of inventor or designer information

Inventor after: Rong Wenge

Inventor after: Luo Xin

Inventor after: Ouyang Yuanxin

Inventor after: Qin Sisi

Inventor after: Xiong Zhang

Inventor before: Luo Xin

Inventor before: Ouyang Yuanxin

Inventor before: Qin Sisi

Inventor before: Xiong Zhang

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: LUO XIN OUYANG YUANXIN QIN SISI XIONG ZHANG TO: RONG WENGE LUO XIN OUYANG YUANXIN QIN SISI XIONG ZHANG

C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20170929

Address after: 101407 Beijing city Huairou District Yanqi Park Economic Development Zone Street No. 6 Building 2 room 208

Patentee after: Beijing Tianshi and culture communication limited liability company

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Patentee before: Beihang University

PP01 Preservation of patent right
PP01 Preservation of patent right

Effective date of registration: 20210730

Granted publication date: 20140618