CN107273337A - 一种图构建与矩阵分解联合学习的推荐方法 - Google Patents
一种图构建与矩阵分解联合学习的推荐方法 Download PDFInfo
- Publication number
- CN107273337A CN107273337A CN201710372981.6A CN201710372981A CN107273337A CN 107273337 A CN107273337 A CN 107273337A CN 201710372981 A CN201710372981 A CN 201710372981A CN 107273337 A CN107273337 A CN 107273337A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- article
- msup
- munderover
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011159 matrix material Substances 0.000 title claims abstract description 76
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000011478 gradient descent method Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000006399 behavior Effects 0.000 claims description 3
- 230000017105 transposition Effects 0.000 claims description 3
- 230000007850 degeneration Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 description 8
- 238000012913 prioritisation Methods 0.000 description 5
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种图构建与矩阵分解联合学习的推荐方法,包括以下步骤:(1)根据用户评分数据建立评分矩阵;(2)假设局部相似的物品具有相似的隐语义特征,物品与其近邻物品之间都有一定的相似程度。依此假设,构建出局部保持和熵约束的正则化项并嵌入到基本的矩阵分解模型中,从而建立新的模型;(3)基于评分或标签或主题模型计算物品间的初始相似度,用图来刻画此初始相似度,得到初始图;(4)随机初始化模型中待求解的隐语义特征向量和物品及用户的偏置向量;(5)基于初始图,使用随机梯度下降法自适应地更新分解模型中的参数;(6)得到完整的评分矩阵,并依据评分矩阵为用户提供推荐。
Description
技术领域
本发明涉及推荐学习技术领域,特别是一种图构建与矩阵分解联合学习的推荐方法。
背景技术
目前,已有的推荐技术包括基于内容的推荐、协同过滤推荐等。基于内容的推荐算法,是根据用户的一些历史信息构建用户偏好信息,计算推荐项目与用户偏好的相似度,将相似度高的项目推荐给用户。协同过滤算法可以分为基于邻域的协同过滤算法和矩阵分解算法。基于近邻的协同过滤推荐算法包括基于用户的协同过滤推荐算法和基于项目的协同过滤算法。矩阵分解是通过降维的方法将评分矩阵补全,这类推荐算法将用户、物品的特征转换为隐语义的特征,然后再通过计算用户和物品之间隐语义的相关性进行推荐。
例如,假设推荐系统中有用户集合有5个用户,即U={u1,u2,u3,u4,u5},项目(物品)集合有7个项目,即V={v1,v2,v3,v4,v5,v6,v7},用户对项目的评分数据结合为评分矩阵R,用户对项目的评分范围是[0,5]。R具体表示如表1所示:
表1 评分矩阵示例
矩阵分解推荐的目标就是预测出问号符号对应位置的分值。推荐系统基于这样一个假设:用户对项目的打分越高,表明用户越喜欢。因此,预测出用户对未评分项目的评分后,根据分值大小排序,把分值高的项目推荐给用户。矩阵分解具有准确性高,可扩展性好等优点,如基于流形正则化的矩阵分解的推荐算法,考虑了输入样本的局部相似性和流形结构,可以提高推荐质量。
然而,传统的协同过滤方法会受到来自数据稀疏性的影响,在基于用户和物品的协同过滤算法中,如何度量用户及物品间的相似性是其关键环节,相似性是否有效直接影响推荐算法的性能;在基于流形正则化的矩阵分解的推荐算法中,由于数据稀疏性或标签信息的不完整性,基于稀疏评分或不完整的标签计算所得到的近邻图(相似度)可能未必有效,而且这种邻域图是局部的构图,导致了参数选择的困难(如选择邻域k的大小),无效的图在学习任务中固定不变会产生一个不好的推荐。
发明内容
本发明所要解决的技术问题是克服现有技术的不足而提供一种图构建与矩阵分解联合学习的推荐方法,该方法将传统矩阵分解算法和图构建方法相结合,通过图来刻画物品的近邻相似度,通过熵约束来克服图边权的退化,进而构建出局部保持和商约束的正则化项并嵌入到基于矩阵分解的协同过滤算法模型中,以此联合学习图边权和隐语义特征向量,进而提高推荐系统的推荐准确性。
本发明为解决上述技术问题采用以下技术方案:
根据本发明提出的一种图构建与矩阵分解联合学习的推荐方法,包括以下步骤:
步骤1、根据用户评分数据建立评分矩阵;
步骤2、设局部相似的物品具有相似的隐语义特征,物品与其近邻物品之间都有一定的相似程度;依此假设,通过图来刻画物品的近邻相似度,通过熵约束来克服图边权的退化,进而构建出局部保持和熵约束的正则化项,并将正则化项嵌入到基本的矩阵分解模型中,从而建立新的分解模型;
步骤3、基于评分或标签或主题模型计算物品间的初始相似度,用图来刻画相似度,得到初始图;
步骤4、随机初始化分解模型中待求解的隐语义特征向量和物品及用户的偏置向量;
步骤5、基于初始图,使用随机梯度下降法自适应地更新分解模型中的参数,根据求解得到的隐语义特征向量和物品及用户的偏置向量,从而得到完整的评分矩阵;
步骤6、根据步骤5得到的完整的评分矩阵为用户提供推荐。
作为本发明所述的一种图构建与矩阵分解联合学习的推荐方法进一步优化方案,所述步骤2中建立新的分解模型为:
其中,m表示用户数,n表示物品数,如果第u个用户对第i个物品进行了评分行为,Iui表示为1,如果第u个用户没有对第i个物品进行评分,Iui表示为0,rui表示第u个用户对第i个物品的评分值,μ表示所有记录的评分的全局平均数,bu表示第u个用户的用户偏置向量,表示第i个物品的物品偏置向量,pu、qi为隐语义特征向量,pu表示矩阵P的第u个列向量,qi表示矩阵Q的第i个列向量,qj表示矩阵Q的第j个列向量,上标T为转置,且评分矩阵R=PTQ,P为f行m列矩阵,Q为f行n列矩阵,λ1、λ2表示正则化参数,λ3是控制图边权的光滑性的参数,N(i)表示第i个物品的近邻集合,sij表示第i个物品与第j个物品之间的相似度,即图边权。
作为本发明所述的一种图构建与矩阵分解联合学习的推荐方法进一步优化方案,步骤3中基于标签计算得出物品间的初始相似度,计算表达式如下所示:
其中,li,lj代表标签的数值向量,向量之间的余弦值表示为项目之间的相似度。
作为本发明所述的一种图构建与矩阵分解联合学习的推荐方法进一步优化方案,步骤3中基于评分计算得出物品间的初始相似度,计算表达式如下所示:
其中,pij为第i个物品与第j个物品之间的相关性,pij∈[-1,1],Sij∈(0,1)。
作为本发明所述的一种图构建与矩阵分解联合学习的推荐方法进一步优化方案,步骤3中基于主题模型计算物品间的初始相似度,计算表达式如下所示:
其中,K为主题个数,为第i个物品属于第t个主题的概率,为第j个物品属于第t个主题的概率。
作为本发明所述的一种图构建与矩阵分解联合学习的推荐方法进一步优化方案,所述步骤5具体如下:
(5-1)、记
(5-2)、固定sij、pu、qi,更新bu:
bu←bu+γ(eui-λ1bu)
(5-3)、固定sij、bu、pu、qi,更新
(5-4)、固定sij、bu、qi,更新pu:
pu←pu+γ(eui·qi-λ1pu)
(5-5)、固定sij、bu、pu,更新qi,第j个物品是第i个物品的近邻:
(5-6)、固定qi、qj、bu、更新sij:
Sij←Sij+γ(-λ2||qi-qj||2-λ3(lnsij+1))
其中,γ表示学习率;
(5-7)、判断是否满足终止条件,终止条件是指达到预测精度或达到迭代次数,若不满足则返回(5-1),若满足,则终止迭代,得到完整的评分矩阵。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
(1)本发明将传统矩阵分解算法和图构建方法相结合,提出了一个图构建与矩阵分解联合学习的推荐方法,本发明可以自适应地更新图中的权重信息,即近邻物品间的相似度,有效的图可以使得通过学习得到的隐语义特征更加精确;
(2)本发明能够在有效时间内快速收敛,提高了推荐系统性能,本发明提出的方法可以同时学习图边权和隐语义特征,提高推荐准确性。
附图说明
图1是本发明的一个实施例的流程示意图。
图2是本发明步骤5的具体步骤流程示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
如图1所示,本实施例公开了一种图构建框架下的矩阵分解推荐方法,包括以下步骤:
步骤1:根据用户评分数据建立评分矩阵。评分矩阵R具体如表1所述。
步骤2:假设局部相似的物品具有相似的隐语义特征,物品与其近邻物品之间都有一定的相似程度。依此假设,通过图来刻画物品的近邻相似度,通过熵约束来克服图边权的退化,进而构建出局部保持和熵约束的正则化项并嵌入到基本的矩阵分解模型中,从而建立新的分解模型:
其中,m表示用户数,n表示物品数,如果第u个用户对第i个物品进行了评分行为,Iui表示为1,如果第u个用户没有对第i个物品进行评分,Iui表示为0,rui表示第u个用户对第i个物品的评分值,μ表示所有记录的评分的全局平均数,bu表示第u个用户的用户偏置向量,表示第i个物品的物品偏置向量,pu、qi为隐语义特征向量,pu表示矩阵P的第u个列向量,qi表示矩阵Q的第i个列向量,qj表示矩阵Q的第j个列向量,上标T为转置,且评分矩阵R=PTQ,P为f行m列矩阵,Q为f行n列矩阵,λ1、λ2表示正则化参数,λ3是控制图边权的光滑性的参数,N(i)表示第i个物品的近邻集合,sij表示第i个物品与第j个物品之间的相似度,即图边权。
该模型对图的边权加入了约束∑j∈N(i)Sij=1和非负约束sij≥0,这样不仅避免了sij退化,也给每个权值向量Si.一个自然的概率解释。模型通过在偏置的矩阵分解模型中加入流形正则化,并加入熵的正则化约束保证图边权的光滑性,在训练迭代过程中自适应地学习物品和物品近邻间的相似度信息。
分解模型的建立过程为:
①从矩阵分解的角度,将评分矩阵R分解为两个低维矩阵的乘积:R=PTQ,其中P和Q是两个降维后的矩阵。要找到合适的P和Q最小化训练集的预测误差,因此分解模型定义如下所示:
其中模型中第一个加号的前一项和后一项分别为最小二乘损失项和防止过拟合的正则化项;
②在实际情况下,一个评分系统有些固有属性和物品无关,而用户也有些属性和物品无关,物品也有些属性和用户无关,在模型中加入偏置项:
相较于基本的矩阵分解模型加入了所有记录的评分的全局平均数μ,用户偏置向量bu,物品偏置向量用户偏置向量表示用户的评分习惯中与物品没有关系的因素,如用户本身比较苛刻,对所有物品评分都较低。物品偏置向量表示物品得到的评分和用户没有关系的因素,如物品本身质量就很好,得到的分数相对都比较高。
③在局部保持投影中,认为相似度较高的样本对应的投影也较为相似。将基于物品的局部相似性流形正则化约束嵌入偏置项的矩阵分解算法:
此处的sij为根据某种策略计算出的图边权(即基于标签或是基于评分计算得到的物品i与物品j之间的相似度)。如果物品之间相似度高,那么经过矩阵分解后得到的物品的特征向量也较为相似。这一约束项旨在最小化物品和它的近邻之间的特征差异。
④计算得到的初始相似度可能并不完全有效,考虑到这个问题,把图边权作为参数嵌入模型,通过学习得到,并加入熵的正则化项控制图边权的光滑性,防止图边权的退化,得到最终模型:
该模型对图的边权加入了约束∑j∈N(i)Sij=1和非负约束sij≥0,这样不仅避免了sij退化,也给每个权值向量Si.一个自然的概率解释。
步骤3:基于评分或标签或主题模型计算物品间的初始相似度,具体包括:
①基于专家标签计算得出相似度,计算表达式如下所示:
领域专家给数据集上的物品(电影)和用户打上标签,在依据专家标签计算相似度时,将电影标签用数值向量表示,计算向量间的余弦相似度,表示为电影之间的相似性,在如下式子中,物品和物品之间的相似性,基于专家的标签,li,lj代表标签的数值向量,向量之间的余弦值表示为项目之间的相似度。
②基于评分计算得出相似度,计算表达式如下所示:
采用皮尔逊相关系数计算出第i个物品与第j个物品之间的相关性pij∈[-1,1],那么相似度定义如上式所示,该式将相似度放缩到0到1之间,即Sij∈(0,1)。
③基于主题空间上计算得出的相似度计算表达式如下所示:
其中,为第i个物品属于第t个主题的概率,为第j个物品属于第t个主题的概率。在进行实验前,对数据进行预处理,找出最能代表电影属性的标签词语。将整个数据集作为“文本集合”,预处理后的记录的每一行作为一个“文本”。利用文档主题生成模型对该数据集进行建模,选取主题个数K为100,得到文本的主题概率,进而在主题空间计算获得电影之间的相似度。以上三种方法得到的相似度可以用作本发明模型中的初始相似度,即初始图边权。
步骤4:随机初始化分解模型中待求解的隐语义特征向量和物品及用户的偏置向量。
步骤5:基于初始图,使用随机梯度下降法自适应地更新分解模型中的参数,根据求解得到的隐语义特征向量和物品及用户的偏置向量,从而得到完整的评分矩阵。
如图2所示,该步骤具体包括:
(5-1)、记
(5-2)、固定sij、pu、qi,更新bu:
bu←bu+γ(eui-λ1bu)
(5-3)、固定sij、bu、pu、qi,更新
(5-4)、固定sij、bu、qi,更新pu:
pu←pu+γ(eui·qi-λ1pu)
(5-5)、固定sij、bu、pu,更新qi,第j个物品是第i个物品的近邻:
(5-6)、固定qi、qj、bu、更新sij:
Sij←Sij+γ(-λ2||qi-qj||2-λ3(lnsij+1))
其中,γ表示学习率;
(5-7)判断是否满足终止条件,即是否达到预测精度或达到迭代次数,若不满足则返回(5-1),若满足,则终止迭代,得到完整的评分矩阵。
步骤6:得到完整的评分矩阵,并根据评分矩阵为用户提供推荐。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替代,都应当视为属于本发明的保护范围。
Claims (6)
1.一种图构建与矩阵分解联合学习的推荐方法,其特征在于,包括以下步骤:
步骤1、根据用户评分数据建立评分矩阵;
步骤2、设局部相似的物品具有相似的隐语义特征,物品与其近邻物品之间都有一定的相似程度;依此假设,通过图来刻画物品的近邻相似度,通过熵约束来克服图边权的退化,进而构建出局部保持和熵约束的正则化项,并将正则化项嵌入到基本的矩阵分解模型中,从而建立新的分解模型;
步骤3、基于评分或标签或主题模型计算物品间的初始相似度,用图来刻画相似度,得到初始图;
步骤4、随机初始化分解模型中待求解的隐语义特征向量和物品及用户的偏置向量;
步骤5、基于初始图,使用随机梯度下降法自适应地更新分解模型中的参数,根据求解得到的隐语义特征向量和物品及用户的偏置向量,从而得到完整的评分矩阵;
步骤6、根据步骤5得到的完整的评分矩阵为用户提供推荐。
2.根据权利要求1所述的一种图构建与矩阵分解联合学习的推荐方法,其特征在于,所述步骤2中建立新的分解模型为:
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<munder>
<mi>min</mi>
<mrow>
<mi>P</mi>
<mo>,</mo>
<mi>Q</mi>
<mo>,</mo>
<mi>b</mi>
<mo>,</mo>
<mover>
<mi>b</mi>
<mo>&OverBar;</mo>
</mover>
<mo>,</mo>
<mi>S</mi>
</mrow>
</munder>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>I</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<mi>&mu;</mi>
<mo>-</mo>
<msub>
<mi>b</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mover>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>-</mo>
<msup>
<msub>
<mi>p</mi>
<mi>u</mi>
</msub>
<mi>T</mi>
</msup>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>m</mi>
</munderover>
<mo>(</mo>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>p</mi>
<mi>u</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<msub>
<mi>b</mi>
<mi>u</mi>
</msub>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<mo>(</mo>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mover>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mn>2</mn>
</msup>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>2</mn>
</msub>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>q</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<msub>
<mi>&lambda;</mi>
<mn>3</mn>
</msub>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>n</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mi>ln</mi>
<mi> </mi>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mfenced open = "" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>s</mi>
<mo>.</mo>
<mi>t</mi>
<mo>.</mo>
</mrow>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>......</mn>
<mi>n</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>&GreaterEqual;</mo>
<mn>0</mn>
<mo>,</mo>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>......</mn>
<mi>n</mi>
<mo>,</mo>
<mi>j</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,m表示用户数,n表示物品数,如果第u个用户对第i个物品进行了评分行为,Iui表示为1,如果第u个用户没有对第i个物品进行评分,Iui表示为0,rui表示第u个用户对第i个物品的评分值,μ表示所有记录的评分的全局平均数,bu表示第u个用户的用户偏置向量,表示第i个物品的物品偏置向量,pu、qi为隐语义特征向量,pu表示矩阵P的第u个列向量,qi表示矩阵Q的第i个列向量,qj表示矩阵Q的第j个列向量,上标T为转置,且评分矩阵R=PTQ,P为f行m列矩阵,Q为f行n列矩阵,λ1、λ2表示正则化参数,λ3是控制图边权的光滑性的参数,N(i)表示第i个物品的近邻集合,sij表示第i个物品与第j个物品之间的相似度,即图边权。
3.根据权利要求2所述的一种图构建与矩阵分解联合学习的推荐方法,其特征在于,步骤3中基于标签计算得出物品间的初始相似度,计算表达式如下所示:
<mrow>
<msub>
<mi>S</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>c</mi>
<mi>o</mi>
<mi>s</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>l</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>l</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>l</mi>
<mi>i</mi>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>l</mi>
<mi>j</mi>
</msub>
</mrow>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>l</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
<mo>&CenterDot;</mo>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>l</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
其中,li,lj代表标签的数值向量,向量之间的余弦值表示为项目之间的相似度。
4.根据权利要求2所述的一种图构建与矩阵分解联合学习的推荐方法,其特征在于,步骤3中基于评分计算得出物品间的初始相似度,计算表达式如下所示:
<mrow>
<msub>
<mi>S</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<msub>
<mi>p</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
</mrow>
</msup>
</mrow>
</mfrac>
</mrow>
其中,pij为第i个物品与第j个物品之间的相关性,pij∈[-1,1],Sij∈(0,1)。
5.根据权利要求2所述的一种图构建与矩阵分解联合学习的推荐方法,其特征在于,步骤3中基于主题模型计算物品间的初始相似度,计算表达式如下所示:
<mrow>
<msub>
<mi>S</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<mrow>
<mo>(</mo>
<msubsup>
<mi>p</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>&times;</mo>
<msubsup>
<mi>p</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>p</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
<msqrt>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>K</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<msubsup>
<mi>p</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</msubsup>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
</mfrac>
</mrow>
其中,K为主题个数,为第i个物品属于第t个主题的概率,为第j个物品属于第t个主题的概率。
6.根据权利要求2所述的一种图构建与矩阵分解联合学习的推荐方法,其特征在于,所述步骤5具体如下:
(5-1)、记
(5-2)、固定sij、pu、qi,更新bu:
bu←bu+γ(eui-λ1bu)
(5-3)、固定sij、bu、pu、qi,更新
<mrow>
<mover>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>&LeftArrow;</mo>
<mover>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>+</mo>
<mi>&gamma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>e</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
<mover>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
<mo>&OverBar;</mo>
</mover>
<mo>)</mo>
</mrow>
</mrow>
(5-4)、固定sij、bu、qi,更新pu:
pu←pu+γ(eui·qi-λ1pu)
(5-5)、固定sij、bu、pu,更新qi,第j个物品是第i个物品的近邻:
<mrow>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>&LeftArrow;</mo>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>+</mo>
<mi>&gamma;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>e</mi>
<mrow>
<mi>u</mi>
<mi>i</mi>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<msub>
<mi>p</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&lambda;</mi>
<mn>1</mn>
</msub>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>&lambda;</mi>
<mn>2</mn>
</msub>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>&Element;</mo>
<mi>N</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
</mrow>
</munder>
<msub>
<mi>s</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>(</mo>
<mrow>
<msub>
<mi>q</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>q</mi>
<mi>j</mi>
</msub>
</mrow>
<mo>)</mo>
<mo>)</mo>
</mrow>
</mrow>
(5-6)、固定qi、qj、bu、更新sij:
Sij←Sij+γ(-λ2||qi-qj||2-λ3(lnsij+1))
其中,γ表示学习率;
(5-7)、判断是否满足终止条件,终止条件是指达到预测精度或达到迭代次数,若不满足则返回(5-1),若满足,则终止迭代,得到完整的评分矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710372981.6A CN107273337A (zh) | 2017-05-24 | 2017-05-24 | 一种图构建与矩阵分解联合学习的推荐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710372981.6A CN107273337A (zh) | 2017-05-24 | 2017-05-24 | 一种图构建与矩阵分解联合学习的推荐方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107273337A true CN107273337A (zh) | 2017-10-20 |
Family
ID=60065617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710372981.6A Pending CN107273337A (zh) | 2017-05-24 | 2017-05-24 | 一种图构建与矩阵分解联合学习的推荐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107273337A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107977866A (zh) * | 2017-12-14 | 2018-05-01 | 北京木业邦科技有限公司 | 木材产品推荐方法、装置及计算机可读存储介质 |
CN108021708A (zh) * | 2017-12-27 | 2018-05-11 | 广州启生信息技术有限公司 | 内容推荐方法、装置与计算机可读存储介质 |
CN108509573A (zh) * | 2018-03-27 | 2018-09-07 | 陕西科技大学 | 基于矩阵分解协同过滤算法的图书推荐方法及系统 |
CN108549718A (zh) * | 2018-04-23 | 2018-09-18 | 南京大学 | 一种通用主题嵌入模型联合训练方法 |
CN108960966A (zh) * | 2018-06-07 | 2018-12-07 | 重庆邮电大学 | 一种基于用户偏好的矩阵分解推荐方法 |
CN111325352A (zh) * | 2020-02-20 | 2020-06-23 | 深圳前海微众银行股份有限公司 | 基于纵向联邦学习的模型更新方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104679866A (zh) * | 2015-03-04 | 2015-06-03 | 重庆理工大学 | 基于图一致性模型的半监督学习的推荐方法 |
US9129296B2 (en) * | 2012-10-12 | 2015-09-08 | Adobe Systems Incorporated | Augmenting recommendation algorithms based on similarity between electronic content |
CN105045865A (zh) * | 2015-07-13 | 2015-11-11 | 电子科技大学 | 一种基于核的协同主题回归标签推荐方法 |
CN105975440A (zh) * | 2016-05-05 | 2016-09-28 | 浙江理工大学 | 一种基于图计算模型的矩阵分解并行化方法 |
-
2017
- 2017-05-24 CN CN201710372981.6A patent/CN107273337A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9129296B2 (en) * | 2012-10-12 | 2015-09-08 | Adobe Systems Incorporated | Augmenting recommendation algorithms based on similarity between electronic content |
CN104679866A (zh) * | 2015-03-04 | 2015-06-03 | 重庆理工大学 | 基于图一致性模型的半监督学习的推荐方法 |
CN105045865A (zh) * | 2015-07-13 | 2015-11-11 | 电子科技大学 | 一种基于核的协同主题回归标签推荐方法 |
CN105975440A (zh) * | 2016-05-05 | 2016-09-28 | 浙江理工大学 | 一种基于图计算模型的矩阵分解并行化方法 |
Non-Patent Citations (1)
Title |
---|
YUNXIANG TAO等: "An Improved Recommender Model by Joint Learning of Both Similarity and Latent Feature Space", 《INTELLIGENT DATA ENGINEERING AND AUTOMATED LEARNING-IDEAL 2016》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107977866A (zh) * | 2017-12-14 | 2018-05-01 | 北京木业邦科技有限公司 | 木材产品推荐方法、装置及计算机可读存储介质 |
CN108021708A (zh) * | 2017-12-27 | 2018-05-11 | 广州启生信息技术有限公司 | 内容推荐方法、装置与计算机可读存储介质 |
CN108021708B (zh) * | 2017-12-27 | 2020-07-17 | 广州启生信息技术有限公司 | 内容推荐方法、装置与计算机可读存储介质 |
CN108509573A (zh) * | 2018-03-27 | 2018-09-07 | 陕西科技大学 | 基于矩阵分解协同过滤算法的图书推荐方法及系统 |
CN108509573B (zh) * | 2018-03-27 | 2021-04-27 | 宁夏三得教育科技有限公司 | 基于矩阵分解协同过滤算法的图书推荐方法及系统 |
CN108549718A (zh) * | 2018-04-23 | 2018-09-18 | 南京大学 | 一种通用主题嵌入模型联合训练方法 |
CN108549718B (zh) * | 2018-04-23 | 2019-10-18 | 南京大学 | 一种通用主题嵌入模型联合训练方法 |
CN108960966A (zh) * | 2018-06-07 | 2018-12-07 | 重庆邮电大学 | 一种基于用户偏好的矩阵分解推荐方法 |
CN111325352A (zh) * | 2020-02-20 | 2020-06-23 | 深圳前海微众银行股份有限公司 | 基于纵向联邦学习的模型更新方法、装置、设备及介质 |
CN111325352B (zh) * | 2020-02-20 | 2021-02-19 | 深圳前海微众银行股份有限公司 | 基于纵向联邦学习的模型更新方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107273337A (zh) | 一种图构建与矩阵分解联合学习的推荐方法 | |
CN108492200B (zh) | 一种基于卷积神经网络的用户属性推断方法和装置 | |
CN108021616B (zh) | 一种基于循环神经网络的社区问答专家推荐方法 | |
Zuo et al. | Tag-aware recommender systems based on deep neural networks | |
CN101408897B (zh) | 一种基于协作过滤的个性化查询扩展方法 | |
CN106846106A (zh) | 一种图构建框架下的矩阵分解推荐方法 | |
CN108920544A (zh) | 一种基于知识图谱的个性化职位推荐方法 | |
CN108874997A (zh) | 一种面向电影评论的人名命名实体识别方法 | |
CN105740401A (zh) | 一种基于个体行为和群体兴趣的兴趣地点推荐方法及装置 | |
CN110728541A (zh) | 信息流媒体广告创意推荐方法及装置 | |
CN109544306A (zh) | 一种基于用户行为序列特征的跨领域推荐方法及装置 | |
CN111476038B (zh) | 长文本生成方法、装置、计算机设备和存储介质 | |
CN107038184B (zh) | 一种基于分层隐变量模型的新闻推荐方法 | |
CN111966820B (zh) | 一种生成式摘要模型构建、提取生成式摘要方法及系统 | |
CN107436942A (zh) | 基于社交媒体的词嵌入方法、系统、终端设备及存储介质 | |
CN110489523A (zh) | 一种基于网购评价的细粒度情感分析方法 | |
CN111710428A (zh) | 一种建模全局和局部上下文交互的生物医学文本表示方法 | |
Rijmen et al. | Fitting an item response theory model with random item effects across groups by a variational approximation method | |
CN109086463A (zh) | 一种基于区域卷积神经网络的问答社区标签推荐方法 | |
CN107451855A (zh) | 一种图构建与l1正则矩阵分解联合学习的推荐方法 | |
CN101710338A (zh) | 一种基于公共隐空间的异构网络排序方法 | |
Larsen et al. | A human–environment timeline | |
GHORBANI et al. | Comparison of the performance of support vector machine with other intelligent techniques to simulate rainfall-runoff process | |
CN110489660A (zh) | 一种社交媒体公开数据的用户经济状况画像方法 | |
CN115906846A (zh) | 一种基于双图的层次特征融合的文档级命名实体识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171020 |
|
RJ01 | Rejection of invention patent application after publication |