CN111104604A - 基于哈希学习的轻量级社会化推荐方法 - Google Patents

基于哈希学习的轻量级社会化推荐方法 Download PDF

Info

Publication number
CN111104604A
CN111104604A CN201911165736.3A CN201911165736A CN111104604A CN 111104604 A CN111104604 A CN 111104604A CN 201911165736 A CN201911165736 A CN 201911165736A CN 111104604 A CN111104604 A CN 111104604A
Authority
CN
China
Prior art keywords
user
matrix
social
model
scoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911165736.3A
Other languages
English (en)
Other versions
CN111104604B (zh
Inventor
邬俊
罗芳媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CN201911165736.3A priority Critical patent/CN111104604B/zh
Publication of CN111104604A publication Critical patent/CN111104604A/zh
Application granted granted Critical
Publication of CN111104604B publication Critical patent/CN111104604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种基于哈希学习的轻量级社会化推荐方法。该方法包括:构建用户‑物品评分矩阵和用户‑用户社交网络,通过对用户‑用户社交网络施加截断式随机游走和负采样,生成社交语料;根据用户‑物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵;根据用户特征矩阵和物品特征矩阵预估用户对未评分物品的偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户。本发明所述方法与当下主流的实值化推荐方法性能相当,但由于采用了轻量级模型设计思想,所获二值化用户和物品特征具有更低的计算和存储开销。

Description

基于哈希学习的轻量级社会化推荐方法
技术领域
本发明涉及计算机应用技术领域,尤其涉及一种基于哈希学习的轻量级社会化推荐方 法。
背景技术
作为信息检索系统的有效补充手段,推荐系统在提供个性化信息服务方面发挥着重要 作用。协同过滤是构建个性化推荐系统的核心技术;在众多协同过滤方法中,矩阵分解是 当下最主流的方法之一。矩阵分解的核心思想是通过分解一个部分观测的“用户-物品”交 互矩阵(简称UI矩阵),将用户和物品映射到同一个低维隐空间,继而根据用户和物品隐 特征向量间内积预测未观测的“用户-物品”相关性。通常情况,已观测的“用户-物品”交互记录仅占UI矩阵中很小一部分,即所谓的“数据稀疏”问题,这种稀疏性严重制约了 矩阵分解模型的性能。
随着社交媒体的普及,一些学者尝试利用用户间的社交关系缓解UI矩阵稀疏问题,进 而催生了社会化推荐系统。传统的社会化推荐方法直接扩展矩阵分解模型,基于启发性策 略使用社交数据,代表性方法如SoRec模型、SoReg模型等。近年来学者们将矩阵分解模型 与网络嵌入模型相结合,以期更大程度地利用和挖掘社交数据,代表性方法如CUNE模型、 GraphRec等。
另一方面,随着在线用户和物品数量的与日俱增,推荐系统面临严峻的实时性挑战, 在此背景下离散协同过滤模型应运而生,该模型将欧式空间下的实值用户和物品隐表示替 换为海明空间内的二值编码,进而节省了计算和存储开销。但是,二值编码较之实值表示 具有较少的信息量,使其推荐准确性略微受损;换言之,离散协同过滤模型采用一种“以 性能换效率”的处理思路。为进一步弥补离散协同过滤模型的性能损失,学者们进一步设 计了离散社会化推荐(discrete social recommendation,DSR)模型,以补偿二值编码造 成的性能损失。本质上,该模型是传统社会化推荐模型SoRec的二值化版本,未能结合最新 的网络嵌入研究成果处理社交数据,其推荐准确性有待进一步提升。
现有技术中的离散社会化推荐模型DSR存在两个弊端:
1)DSR模型通过共享变量的方法学习用户的社交表示,该方法仅考虑每个用户与其一 阶近邻的直接联系,忽略了用户与其高阶近邻的间接联系,所获用户社交特征有待进一步 改进;
2)由于采用共享变量设计思路,DSR模型学得的用户社交特征也是二值形式;但由于 用户社交表示仅作为建模过程中的副产品并不参与最后的推荐计算,而二值表示相比于实 值表示携带信息量较少,因此造成了不必要的编码损失。
发明内容
本发明的实施例提供了一种基于哈希学习的轻量级社会化推荐方法,以克服现有技术 的问题。
为了实现上述目的,本发明采取了如下技术方案。
一种基于哈希学习的轻量级社会化推荐方法,包括:
S1、构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品 评分矩阵中的评分数据进行归一化处理;
S2、构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社 交网络施加截断式随机游走和负采样,生成社交语料;
S3、根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模 型,得到二值化的用户特征矩阵和物品特征矩阵;
S4、根据所述用户特征矩阵和物品特征矩阵预估用户对各个未评分物品的偏好分值, 并将预估分值最高的一个或者多个未评分物品推荐给用户。
优选地,所述的构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述 用户-物品评分矩阵中的评分数据进行归一化处理,包括:
构建用户-物品评分矩阵R∈[0,1]m×n,m和n分别表示用户和物品数量,所述用户-物 品评分矩阵R中的评分数据用于记录用户对物品的评分行为,对评分数据进行归一化处理,将评分数据量化为小数,数值越接近于1表示该用户越喜欢该物品,0表示未评分。
优选地,所述的构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用 户-用户社交网络施加截断式随机游走和负采样,生成社交语料,包括:
构建用户-用户社交网络,该用户-用户社交网络中的社交数据用于记录用户间的连接 关系,若两用户为好友关系,社交数据标记为1,否则;社交数据标记为0;通过对所述用 户-用户社交网络施加截断式随机游走和负采样,生成社交语料
Figure RE-GDA0002419798640000031
其中
Figure RE-GDA0002419798640000032
Figure RE-GDA0002419798640000033
分别表示用户u的上下文用户集合与负样本集合。
优选地,所述的社交语料
Figure RE-GDA0002419798640000034
的生成步骤包括:
S2-1:为用户生成上下文用户集合
Figure RE-GDA0002419798640000035
在所述用户-用户社交网络上运行截断式 随机游走得到每个用户的节点序列,利用滑动窗口从用户的节点序列中寻找每个用户的上 下文用户集合;当滑动窗口停在节点序列中的某个位置时,处于中间位置的用户称为中心 用户u,处于窗口内其它位置的用户称为用户u的上下文用户
Figure RE-GDA0002419798640000036
随机游走过程中,用户u 跳转到用户v的概率定义如下:
Figure RE-GDA0002419798640000037
其中,co(u,v)代表用户u和用户v的共同评分行为数目,d+(u)代表用户u的出度,
Figure RE-GDA0002419798640000038
代表用户u的朋友集合;
设截断式随机游走序列长度为L,对于用户u而言,根据概率转移公式计算从用户u转 移到其朋友的概率,选择概率最大的朋友v作为其下一跳的节点,该下一跳的节点也根据概 率转移公式计算自己转移到其朋友的概率,选择概率最大的朋友作为其下一跳的节点,以 此类推,直到产生长度为L的节点序列,将该节点序列作为用户u的上下文用户集合
Figure RE-GDA0002419798640000039
S2-2:为用户生成负样本集合
Figure RE-GDA00024197986400000310
对任意用户u而言,根据其非上下文用户在社 交语料中的出现频率,及其在评分数据中的活跃程度,获取用户u的负样本集合
Figure RE-GDA00024197986400000311
给定 某个用户
Figure RE-GDA00024197986400000312
其被选为用户u的负样本的概率定义如下:
Figure RE-GDA00024197986400000313
其中,f(v)表示用户v在社交语料中出现的频率,r(v)表示用户v在评分数据中评价过 的物品数量,
Figure RE-GDA00024197986400000314
表示全体用户集合,超参数a为经验值;
S2-3:基于所述用户的上下文用户集合
Figure RE-GDA00024197986400000315
和负样本集合
Figure RE-GDA00024197986400000316
生成用户的社 交语料
Figure RE-GDA00024197986400000317
优选地,所述的根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络 嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵,包括:
所述的离散矩阵分解与连续网络嵌入混合模型的目标函数定义如下:
Figure RE-GDA00024197986400000318
其中
Figure RE-GDA0002419798640000041
Figure RE-GDA0002419798640000042
分别表示离散矩阵分解模型和连续网络嵌入模型的损失函数;
Figure RE-GDA0002419798640000043
为离 散矩阵分解模型和连续网络嵌入模型间的平滑项,用于连接离散矩阵分解模型和连续网络 嵌入模型;
所述的离散矩阵分解模型的损失函数定义如下:
Figure RE-GDA0002419798640000044
s.t. B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,Ω是由已观测评分对应的(u,i)索引对组成的集合,
Figure RE-GDA0002419798640000045
为矩阵B的第u列、
Figure RE-GDA0002419798640000046
为矩阵D的第i列,分别对应于用户u和物品i的二值化特征向量;约束条件中,B1m=0和D1n=0用于控制特征编码平衡性,BBT=mIf和DDT=nIf用于控制特征编码 独立性,矩阵B表示二值化的用户特征矩阵,矩阵D表示二值化的物品特征矩阵;
所述连续网络嵌入模型为包括一个隐层的神经网络,设
Figure RE-GDA0002419798640000047
表示神经网络的输 入层与隐层之间的连接权重矩阵,
Figure RE-GDA0002419798640000048
表示隐层与输出层之间的连接权重矩阵;对某 一用户u而言,其对应两个社会化特征wu和vu,分别源自矩阵W的第u列和矩阵V的第u 行,wu称为输入向量,vu称为输出向量;
所述连续网络嵌入模型的损失函数定义如下:
Figure RE-GDA0002419798640000049
其中,
Figure RE-GDA00024197986400000410
Figure RE-GDA00024197986400000411
分别代表用户u所有正样本和负样本的 均值向量,σ(z)=1/(1+e-z)用于将输入变量转化为概率输出;λw,λv为超参数,用于调节 正则项在损失函数中的比重;
矩阵分解模型和连续网络嵌入模型之间的平滑项
Figure RE-GDA00024197986400000414
定义为:
Figure RE-GDA00024197986400000412
合并各项后,所述离散矩阵分解与连续网络嵌入混合模型的目标函数表示如下:
Figure RE-GDA00024197986400000413
s.t. B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,α,β>0为超参数,用于调控目标函数中各项的比重;定义两个连续变量
Figure RE-GDA0002419798640000051
Figure RE-GDA0002419798640000052
进 而将平衡约束和去相关性约束条件放松为
Figure RE-GDA0002419798640000053
Figure RE-GDA0002419798640000054
用tr(BTX)和tr(DTY)代替
Figure RE-GDA0002419798640000055
Figure RE-GDA0002419798640000056
离散矩阵分解与连续网络嵌入混合模型的目标函数被等价转换为如下优化问题:
Figure RE-GDA0002419798640000057
s.t. B∈{±1}f×m,D∈{±1}f×n
X1m=0,Y1n=0,XXT=mIf,YYT=nIf
其中,λB,λB>0为超参数,用于调控目标变量的放松程度;
所述离散矩阵分解与连续网络嵌入混合模型的训练过程包括:对模型参数 B,D,W,V,X,Y初始化,进入迭代训练过程:固定D,W,V,X,Y,并行优化每个bu,利 用DCD算法对每个bu进行逐位更新,得到更新后的B;固定B,W,V,X,Y,并行优化每个 di,利用DCD算法对每个di进行逐位更新,得到更新后的D;固定B,D,X,Y,利用SGD算 法更新W,V,其中梯度计算采用BP算法;固定B,D,W,V,Y,借助SVD算法更新X;固 定B,D,W,V,X,借助SVD算法更新Y;重复上述步骤,不断交替更新参数 B,D,W,V,X,Y,直到满足收敛条件,停止训练过程,最后输出二值化的用户特征矩阵B 和物品特征矩阵D。
优选地,所述的离散矩阵分解与连续网络嵌入混合模型的训练过程具体包括:
S3-1:模型初始化,将上述优化问题放松为实值空间,使用SGD算法交替优化各参数, 得到连续空间下的最优解(P*,Q*,W*,V*),按以下规则初始化离散模型:
B=sgn(P*),D=sgn(Q*),
W=W*,V=V*,X=P*,Y=Q*
S3-2:固定D,W,V,X,Y,更新B,离散矩阵分解与连续网络嵌入混合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000058
其中Ωu表示已观测评分对应的(u,i)索引对中u所构成的集合;
采用DCD算法对bu进行逐位更新,定义
Figure RE-GDA00024197986400000616
Figure RE-GDA00024197986400000617
其中buk和dik分别 表示bu和di的第k位,
Figure RE-GDA00024197986400000614
Figure RE-GDA00024197986400000615
分别表示除去buk和dik其余哈希码所组成的向量,具体buk的 更新规则如下:
Figure RE-GDA0002419798640000061
Figure RE-GDA0002419798640000062
当a≠0时,K(a,b)=a,否则K(a,b)=b;如果
Figure RE-GDA0002419798640000063
不对buk进行更新;
S3-3:固定B,W,V,X,Y,更新D;与更新B类似,将联合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000064
其中Ωi表示已观测评分对应的(u,i)索引对中i所构成的集合;采用DCD算法对di进行逐 位更新;具体dik的更新规则如下:
Figure RE-GDA0002419798640000065
Figure RE-GDA0002419798640000066
同样,如果
Figure RE-GDA0002419798640000067
更新dik,否则,不对dik进行更新。
S3-4:固定B,D,X,Y,更新W,V,混合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000068
采用SGD算法更新W,V,其中梯度计算借助BP算法;
S3-5:固定B,D,W,V,Y,更新X,混合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000069
具体X的更新规则如下:
Figure RE-GDA00024197986400000610
其中Pb和Qb分别表示将矩阵
Figure RE-GDA00024197986400000611
通过奇异值分解SVD得到的左 奇异矩阵和右奇异矩阵;
Figure RE-GDA00024197986400000612
表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qb 1] 进行施密特正交化得至
Figure RE-GDA00024197986400000613
S3-6:固定B,D,W,V,X,更新Y,混合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000071
具体Y的更新规则如下为:
Figure RE-GDA0002419798640000072
其中Pd和Qd分别表示将矩阵
Figure RE-GDA0002419798640000073
通过SVD得到的左奇异矩阵和 右奇异矩阵;
Figure RE-GDA0002419798640000074
表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qd 1]进行施密特 正交化得到
Figure RE-GDA0002419798640000075
S3-7:重复S3-2到S3-6,直到满足收敛条件,训练过程停止,最后输出二值化的用户 特征矩阵B和物品特征矩阵D。
优选地,所述的收敛条件包括:目标函数值小于某个预设定阈值;或者,矩阵B和D中的每一位都不再发生变化。
优选地,所述的根据所述用户特征矩阵和物品特征矩阵预估用户对各个未评分物品的 偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户,包括:
根据所述二值化用户特征矩阵B和物品特征矩阵D重构评分矩阵
Figure RE-GDA0002419798640000076
重 构分值代表了用户对物品偏好程度的预估值;对重构矩阵
Figure RE-GDA0002419798640000077
逐行降序排列,并将预估分值 最高的一个或者多个未评分物品推荐给用户。
由上述本发明的实施例提供的技术方案可以看出,本发明实施例的基于哈希学习的轻 量级社会化推荐方法可同时利用评分数据和社交数据学习用户和物品的二值化特征,继而 借助逻辑运算实现快速、有效地向用户推荐物品。本发明方法在保障一定推荐准确率的前 提下,大幅降低了模型的在线计算和存储开销。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明 显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附 图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领 域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附 图。
图1为本发明实施例提供的一种基于哈希学习的轻量级社会化推荐方法的处理流程图;
图2为本发明实施例提供的一种离散矩阵分解与连续网络嵌入混合模型的训练工作流程 图;
图3为本发明实施例的方法与现有离散推荐方法的对比实验结果
图4为本发明实施例的方法与其实值版本的在推荐准确率、存储开销、时间开销三方面 的对比实验结果。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终 相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附 图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使 用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除 存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理 解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元 件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接 或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组 合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语 和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理 解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义 一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解 释说明,且各个实施例并不构成对本发明实施例的限定。
利用“用户-用户”社交数据补充“用户-物品”评分数据已成为提升推荐系统性能的 有效手段之一,但目前社会化推荐方法的计算效率严重受限于日益增长的用户和物品数 量,特别是针对那些计算和存储资源严重受限的移动推荐场景;鉴于此,本发明实施例提 出了一种基于哈希学习的轻量级社会化推荐方法,以改进DSR的两个缺陷。一方面,本发明 方法使用网络嵌入模型处理用户社交关系,可有效挖掘用户间的高阶近邻关系,从而进一 步强化用户社交特征;另一方面,本发明方法采用“离散-连续”混合建模思路,同时学习二值化用户偏好特征和实值化用户社交特征,并通过特征对齐方式最小化二者间的差异;基于统一的优化框架,离散学习任务与连续学习任务可以互相促进,同时最大限度地降低了二值化编码损失,从而获得了更精确的推荐结果。
上述轻量级推荐方法是指占用较少计算和存储资源的在线推荐方法。
在本发明实施例中,网络指的是社交网络,结点代表用户,连接代表用户间的社交关 系,如好友关系(用户A关注了用户B)、转发关系(用户A转发了用户B的帖子)、评论关 系(用户A评论了用户B的帖子)等等。借助网络嵌入模型,可获得用户的实值化特征向 量,该特征向量保留了用户的社交结构信息。
本发明实施例提供的一种基于哈希学习的轻量级社会化推荐方法的处理流程如图1所 示,包括如下的处理步骤:
步骤S1、构建“用户-物品”评分矩阵,并对评分数据进行归一化处理,获得评分矩阵 R∈[0,1]m×n(其中m和n分别表示用户和物品数量),用以记录用户对物品的评分行为;某用户对某商品的评分行为被量化为小数,数值越接近于1表示该用户越喜欢该物品,反之亦然,0表示未评分。
步骤S2、构建“用户-用户”社交网络,用以记录用户间的连接关系;若两用户为好友 关系,标记为1,否则标记为0;通过对“用户-用户”社交网络施加截断式随机游走和负采样,生成社交语料
Figure RE-GDA0002419798640000091
其中
Figure RE-GDA0002419798640000092
Figure RE-GDA0002419798640000093
分别表示用户u的上下文用户集合与负样本集合。
步骤S3、根据评分矩阵R和社交语料
Figure RE-GDA0002419798640000094
训练离散矩阵分解与连续网络嵌入混合模型, 得到二值化的用户特征矩阵
Figure RE-GDA0002419798640000095
物品特征矩阵
Figure RE-GDA0002419798640000096
其中f为特征空间维数。
步骤S4、根据上述用户特征矩阵和物品特征矩阵重构评分矩阵
Figure RE-GDA0002419798640000097
并对 重构评分矩阵
Figure RE-GDA0002419798640000098
中的重构分值逐行降序排列;重构分值代表了用户对物品偏好程度的预估 分值,将预估分值最高的一个或者多个未评分物品推荐给用户。
S2所述的社交语料
Figure RE-GDA0002419798640000099
生成具体包括如下步骤:
S2-1:为用户生成上下文用户集合
Figure RE-GDA00024197986400000910
在“用户-用户”社交网络上运行截断式 随机游走得到每个用户的节点序列,然后利用滑动窗口从用户的节点序列中寻找每个用户 的上下文用户集合;当滑动窗口停在节点序列中的某个位置时,处于中间位置的用户称为 中心用户u,处于窗口内其它位置的用户称为用户u的上下文用户
Figure RE-GDA0002419798640000101
随机游走过程中, 用户u跳转到用户v的概率定义如下:
Figure RE-GDA0002419798640000102
其中,co(u,v)代表用户u和用户v的共同评分行为数目,d+(u)代表用户u的出度,
Figure RE-GDA0002419798640000103
代表用户u的朋友集合。
设截断式随机游走序列长度为L,对于用户u而言,根据概率转移公式计算从用户u转 移到其朋友的概率,然后选择概率最大的朋友v作为其下一跳的节点,该下一跳的节点也根 据概率转移公式计算自己转移到其朋友的概率,选择概率最大的朋友作为其下一跳的节 点,以此类推,直到产生长度为L的节点序列,将该节点序列作为用户u的上下文用户集合
Figure RE-GDA0002419798640000104
S2-2:为用户生成负样本集合
Figure RE-GDA0002419798640000105
对任意用户u而言,根据其非上下文用户在社 交语料中的出现频率,及其在评分数据中的活跃程度,获取用户u的负样本集合
Figure RE-GDA0002419798640000106
给定 某个用户
Figure RE-GDA0002419798640000107
其被选为用户u的负样本的概率定义如下:
Figure RE-GDA0002419798640000108
其中,f(v)表示用户v在社交语料中出现的频率,r(v)表示用户v在评分数据中评价过 的物品数量,
Figure RE-GDA0002419798640000109
表示全体用户集合,超参数a为经验值;
S2-3:所述用户的上下文用户集合
Figure RE-GDA00024197986400001010
和负样本集合
Figure RE-GDA00024197986400001011
共同构成了用户的社 交语料
Figure RE-GDA00024197986400001012
S3所述的离散矩阵分解与连续网络嵌入混合模型的目标函数定义如下:
Figure RE-GDA00024197986400001013
其中
Figure RE-GDA00024197986400001014
Figure RE-GDA00024197986400001015
分别表示离散矩阵分解模型和连续网络嵌入模型的损失函数;
Figure RE-GDA00024197986400001016
为离 散矩阵分解模型和连续网络嵌入模型间的平滑项,用于连接两个模型:离散矩阵分解模型 和连续网络嵌入模型;
离散矩阵分解模型的损失函数定义如下:
Figure RE-GDA00024197986400001017
s.t. B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,Ω是由已观测评分对应的(u,i)索引对组成的集合,
Figure RE-GDA0002419798640000111
为矩阵B的第u列、
Figure RE-GDA0002419798640000112
为矩阵D的第i列,分别对应于用户u和物品i的二值化特征向量;约束条件中,B1m=0和D1n=0用于控制特征编码平衡性,BBT=mIf和DDT=nIf用于控制特征编码 独立性。矩阵B表示二值化的用户特征矩阵,矩阵D表示二值化的物品特征矩阵。
连续网络嵌入模型实际上是一个神经网络,为了简化问题表述,此处假设神经网络仅 包括一个隐层;设
Figure RE-GDA0002419798640000113
表示神经网络的输入层与隐层之间的连接权重矩阵,
Figure RE-GDA0002419798640000114
表示隐层与输出层之间的连接权重矩阵;对某一用户u而言,其对应两个社会化特征wu和vu,分别源自矩阵W的第u列和矩阵V的第u行,wu称为输入向量,vu称为输出 向量;网络嵌入模型的目标在于,使用户的输入向量与其上下文用户的输出向量尽可能相 似,同时与其非上下文用户的输出向量尽可能相异。
连续网络嵌入模型的具体损失函数定义如下:
Figure RE-GDA0002419798640000115
其中,
Figure RE-GDA0002419798640000116
Figure RE-GDA0002419798640000117
分别代表用户u所有正样本和负样本的 均值向量,σ(z)=1/(1+e-z)用于将输入变量转化为概率输出;λw,λv为超参数,用于调节 正则项在损失函数中的比重。
矩阵分解模型和连续网络嵌入模型之间的平滑项定义为:
Figure RE-GDA0002419798640000118
上述平滑项用于连接两个模型,使得同一个用户的二值偏好特征与实值社会化特征尽 可能相似;
合并各项后,离散矩阵分解与连续网络嵌入混合模型的目标函数表示如下:
Figure RE-GDA0002419798640000119
s.t. B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,α,β>0为超参数,用于调控目标函数中各项的比重;为了方便求解上述离散优 化问题,首先定义两个连续变量
Figure RE-GDA00024197986400001110
Figure RE-GDA00024197986400001111
进而将平衡约束和去相关性约束条件放松为
Figure RE-GDA0002419798640000121
Figure RE-GDA0002419798640000122
由于B和D的二范数为常数,对优化没有影响,可用tr(BTX)和tr(DTY)代替
Figure RE-GDA0002419798640000123
Figure RE-GDA0002419798640000124
因此,离散矩阵分 解与连续网络嵌入混合模型的目标函数被等价转换为如下优化问题:
Figure RE-GDA0002419798640000125
s.t. B∈{±1}f×m,D∈{±1}f×n
X1m=0,Y1n=0,XXT=mIf,YYT=nIf
其中,λB,λB>0为超参数,用于调控目标变量的放松程度。
S3离散矩阵分解与连续网络嵌入混合模型训练的工作流程如图2,首先对模型参数 B,D,W,V,X,Y初始化,然后进入迭代训练过程:固定D,W,V,X,Y,并行优化每个 bu,利用DCD算法对每个bu进行逐位更新,得到更新后的B;固定B,W,V,X,Y,并行优 化每个di,利用DCD算法对每个di进行逐位更新,得到更新后的D;固定B,D,X,Y,利用 SGD算法更新W,V,其中梯度计算采用BP算法;固定B,D,W,V,Y,借助SVD算法更新 X;固定B,D,W,V,X,借助SVD算法更新Y;重复上述步骤,不断交替更新参数 B,D,W,V,X,Y,直到满足停止条件,例如目标函数值小于某个预设定阈值或B和D的每 一位都不再发生变化,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
具体包括如下步骤:
S3-1:模型初始化,将上述优化问题放松为实值空间,使用SGD(stochasticgradientdescent,随机梯度下降)算法交替优化各参数,得到连续空间下的最优解(P*,Q*,W*,V*),然后按以下规则初始化离散模型:
B=sgn(P*),D=sgn(Q*),
W=W*,V=V*,X=P*,Y=Q*
S3-2:固定D,W,V,X,Y,更新B,离散矩阵分解与连续网络嵌入混合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000126
其中Ωu表示已观测评分对应的(u,i)索引对中u所构成的集合。
本发明采用DCD(coordinate descent method,离散坐标下降)算法对bu进行逐位更 新,定义
Figure RE-GDA0002419798640000131
Figure RE-GDA0002419798640000132
其中buk和dik分别表示bu和di的第k位,
Figure RE-GDA0002419798640000133
Figure RE-GDA0002419798640000134
分 别表示除去buk和dik其余哈希码所组成的向量,具体buk的更新规则如下:
Figure RE-GDA0002419798640000135
Figure RE-GDA0002419798640000136
当a≠0时,K(a,b)=a,否则K(a,b)=b;如果
Figure RE-GDA0002419798640000137
不对buk进行更新。
S3-3:固定B,W,V,X,Y,更新D;与更新B类似,首先将联合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000138
其中Ωi表示已观测评分对应的(u,i)索引对中i所构成的集合;同样可采用离散坐标下降 DCD算法对di进行逐位更新;具体dik的更新规则如下:
Figure RE-GDA0002419798640000139
Figure RE-GDA00024197986400001310
同样,如果
Figure RE-GDA00024197986400001311
更新dik,否则,不对dik进行更新。
S3-4:固定B,D,X,Y,更新W,V,混合模型的目标函数等价于如下优化问题:
Figure RE-GDA00024197986400001312
该问题是标准的神经网络优化问题,可采用随机梯度下降SGD算法更新W,V,其中梯 度计算可借助BP(反向传播,Back Propagation))算法。
S3-5:固定B,D,W,V,Y,更新X,混合模型的目标函数等价于如下优化问题:
Figure RE-GDA00024197986400001313
具体X的更新规则如下:
Figure RE-GDA00024197986400001314
其中Pb和Qb分别表示将矩阵
Figure RE-GDA00024197986400001315
通过SVD(Singular ValueDecomposition,奇异值分解)得到的左奇异矩阵和右奇异矩阵;
Figure RE-GDA00024197986400001316
表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qb 1]进行施密特正交化得到
Figure RE-GDA00024197986400001317
S3-6:固定B,D,W,V,X,更新Y,混合模型的目标函数等价于如下优化问题:
Figure RE-GDA0002419798640000141
具体Y的更新规则如下为:
Figure RE-GDA0002419798640000142
其中Pd和Qd分别表示将矩阵
Figure RE-GDA0002419798640000143
通过奇异值分解SVD得到的左 奇异矩阵和右奇异矩阵;
Figure RE-GDA0002419798640000144
表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qd1] 进行施密特正交化得到
Figure RE-GDA0002419798640000145
S3-7:重复S3-2到S3-6,直到满足收敛条件,例如目标函数值小于某个预设定阈值或 B和D的每一位都不再发生变化,训练过程停止,最后输出二值化用户特征矩阵B和物品特 征矩阵D。
本发明在FilmTrust、CiaoDVD和Epinions数据集上进行了实验,并将本发明所述方法 (Discrete Matrix factorization with network Embedding,简称DME)与目前两种主流离散推 荐方法进行了对比实验分析;对比方法包括目前该领域性能最好的离散社会化推荐方法 (Discrete Social Recommendation,简称DSR),发表于人工智能领域顶级会议 AAAI2019;经典的离散协同过滤方法(Discrete Collaborative Filtering,简称DCF),发表 于信息检索领域顶级会议SIGIR2016。此外,本发明所述方法还与其实值化版本(Matrix factorization with network Embedding,简称ME)在推荐性能、计算和存储开销三方面的进 行了对比实验分析。
FilmTrust数据集源自电影评价网站,其UI矩阵的行代表观影人,列代表电影,评分范 围:0.5-4.0分;另有用户社交关系(关注vs被关注)作为辅助信息。该数据集包括1,508个 用户、2,071个物品、35,497条评分记录、1,853个好友连接;“用户-物品”交互数据的稠 密度为1.14%、“用户-用户”社交数据的稠密度为0.42%。
CiaoDVD数据集源自视频评论网站,其UI矩阵的行代表评论者,列代表视频,评分范 围:1.0-5.0分;另有用户社交关系(信任vs被信任)作为辅助信息。该数据集包括17,615个 用户、16,121个物品、72,665条评分记录、40,133个好友连接;“用户-物品”交互数据的稠密度为0.03%、“用户-用户”社交数据的稠密度为0.65%。
Epinions数据集源自在线商品评论网站,其UI矩阵的行代表评论者,列代表商品,评 分范围:1.0-5.0分;另有用户社交关系(信任vs被信任)作为辅助信息。该数据集包括40,163个用户、139,738个物品、664,824条评分记录、487,183个好友连接;“用户-物品” 交互数据的稠密度为0.01%、“用户-用户”社交数据的稠密度为0.03%。
图3展示了DME、DSR、DCF三种离散推荐方法在FilmTrust、CiaoDVD和Epinions数据集 上的对比实验结果,评价指标为归一化折损累计增益(Normalized DiscountCumulative Gain,NDCG),其中*表示最优值;图4展示了轻量级方法DME与其实值化版本ME之间的模型 性能、内存和时间消耗对比,其中↓或↑表示性能下降或上升的百分比,×表示存储或时 间开销改善的倍数;上述实验结果表明:本发明方法较之当下主流离散推荐方法性能具有 较大程度改进(NDCG越高越好);与其实值化版本相比,在推荐性能接近的前提下,在 计算和存储开销方面具有较大程度改善。
综上所述,本发明实施例的基于哈希学习的轻量级社会化推荐方法可同时利用评分数 据和社交数据学习用户和物品的二值化特征,继而借助逻辑运算实现快速、有效地向用户 推荐物品。本发明方法在保障一定推荐准确率的前提下,大幅降低了模型的在线计算和存 储开销。
本发明实施例的基于哈希学习的轻量级社会化推荐方法“无缝整合”了离散矩阵分解 模型与连续网络嵌入模型。基于网络嵌入模型,可处理用户间的高阶近邻关系,所获用户 隐特征具有更强表征能力;采用“离散-连续”混合建模思路,基于同一优化框架,离散偏 好学习任务和连续社交表示学习任务可以互相促进,所获二值化用户和物品特征具有较低 的编码损失。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程 并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助 软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或 者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以 存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备 (可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某 些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互 相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系 统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法 实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为 分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或 者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以 根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技 术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任 何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都 应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为 准。

Claims (8)

1.一种基于哈希学习的轻量级社会化推荐方法,其特征在于,包括:
S1、构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品评分矩阵中的评分数据进行归一化处理;
S2、构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料;
S3、根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵;
S4、根据所述用户特征矩阵和物品特征矩阵预估用户对各个未评分物品的偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户。
2.根据权利要求1所述的方法,其特征在于,所述的构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品评分矩阵中的评分数据进行归一化处理,包括:
构建用户-物品评分矩阵R∈[0,1]m×n,m和n分别表示用户和物品数量,所述用户-物品评分矩阵R中的评分数据用于记录用户对物品的评分行为,对评分数据进行归一化处理,将评分数据量化为小数,数值越接近于1表示该用户越喜欢该物品,0表示未评分。
3.根据权利要求1所述的方法,其特征在于,所述的构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料,包括:
构建用户-用户社交网络,该用户-用户社交网络中的社交数据用于记录用户间的连接关系,若两用户为好友关系,社交数据标记为1,否则;社交数据标记为0;通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料
Figure FDA0002287397840000011
其中
Figure FDA0002287397840000012
Figure FDA0002287397840000013
分别表示用户u的上下文用户集合与负样本集合。
4.根据权利要求3所述的方法,其特征在于,所述的社交语料
Figure FDA0002287397840000014
的生成步骤包括:
S2-1:为用户生成上下文用户集合
Figure FDA0002287397840000015
在所述用户-用户社交网络上运行截断式随机游走得到每个用户的节点序列,利用滑动窗口从用户的节点序列中寻找每个用户的上下文用户集合;当滑动窗口停在节点序列中的某个位置时,处于中间位置的用户称为中心用户u,处于窗口内其它位置的用户称为用户u的上下文用户
Figure FDA0002287397840000021
随机游走过程中,用户u跳转到用户v的概率定义如下:
Figure FDA0002287397840000022
其中,co(u,v)代表用户u和用户v的共同评分行为数目,d+(u)代表用户u的出度,
Figure FDA0002287397840000023
代表用户u的朋友集合;
设截断式随机游走序列长度为L,对于用户u而言,根据概率转移公式计算从用户u转移到其朋友的概率,选择概率最大的朋友v作为其下一跳的节点,该下一跳的节点也根据概率转移公式计算自己转移到其朋友的概率,选择概率最大的朋友作为其下一跳的节点,以此类推,直到产生长度为L的节点序列,将该节点序列作为用户u的上下文用户集合
Figure FDA0002287397840000024
S2-2:为用户生成负样本集合
Figure FDA0002287397840000025
对任意用户u而言,根据其非上下文用户在社交语料中的出现频率,及其在评分数据中的活跃程度,获取用户u的负样本集合
Figure FDA0002287397840000026
给定某个用户
Figure FDA0002287397840000027
其被选为用户u的负样本的概率定义如下:
Figure FDA0002287397840000028
其中,f(v)表示用户v在社交语料中出现的频率,r(v)表示用户v在评分数据中评价过的物品数量,
Figure FDA0002287397840000029
表示全体用户集合,超参数a为经验值;
S2-3:基于所述用户的上下文用户集合
Figure FDA00022873978400000210
和负样本集合
Figure FDA00022873978400000211
生成用户的社交语料
Figure FDA00022873978400000212
5.根据权利要求1至4任一项所述的方法,其特征在于,所述的根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵,包括:
所述的离散矩阵分解与连续网络嵌入混合模型的目标函数定义如下:
Figure FDA00022873978400000213
其中
Figure FDA00022873978400000214
Figure FDA00022873978400000215
分别表示离散矩阵分解模型和连续网络嵌入模型的损失函数;
Figure FDA00022873978400000216
为离散矩阵分解模型和连续网络嵌入模型间的平滑项,用于连接离散矩阵分解模型和连续网络嵌入模型;
所述的离散矩阵分解模型的损失函数定义如下:
Figure FDA0002287397840000031
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,Ω是由已观测评分对应的(u,i)索引对组成的集合,
Figure FDA0002287397840000032
为矩阵B的第u列、
Figure FDA0002287397840000033
为矩阵D的第i列,分别对应于用户u和物品i的二值化特征向量;约束条件中,B1m=0和D1n=0用于控制特征编码平衡性,BBT=mIf和DDT=nIf用于控制特征编码独立性,矩阵B表示二值化的用户特征矩阵,矩阵D表示二值化的物品特征矩阵;
所述连续网络嵌入模型为包括一个隐层的神经网络,设
Figure FDA0002287397840000034
表示神经网络的输入层与隐层之间的连接权重矩阵,
Figure FDA0002287397840000035
表示隐层与输出层之间的连接权重矩阵;对某一用户u而言,其对应两个社会化特征wu和vu,分别源自矩阵W的第u列和矩阵V的第u行,wu称为输入向量,vu称为输出向量;
所述连续网络嵌入模型的损失函数定义如下:
Figure FDA0002287397840000036
其中,
Figure FDA0002287397840000037
Figure FDA0002287397840000038
分别代表用户u所有正样本和负样本的均值向量,σ(z)=1/(1+e-z)用于将输入变量转化为概率输出;λw,λv为超参数,用于调节正则项在损失函数中的比重;
矩阵分解模型和连续网络嵌入模型之间的平滑项
Figure FDA0002287397840000039
定义为:
Figure FDA00022873978400000310
合并各项后,所述离散矩阵分解与连续网络嵌入混合模型的目标函数表示如下:
Figure FDA00022873978400000311
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,α,β>0为超参数,用于调控目标函数中各项的比重;定义两个连续变量
Figure FDA00022873978400000312
Figure FDA00022873978400000313
进而将平衡约束和去相关性约束条件放松为
Figure FDA00022873978400000314
Figure FDA0002287397840000041
用tr(BTX)和tr(DTY)代替
Figure FDA0002287397840000042
Figure FDA0002287397840000043
离散矩阵分解与连续网络嵌入混合模型的目标函数被等价转换为如下优化问题:
Figure FDA0002287397840000044
s.t.B∈{±1}f×m,D∈{±1}f×n
X1m=0,Y1n=0,XXT=mIf,YYT=nIf
其中,λB,λB>0为超参数,用于调控目标变量的放松程度;
所述离散矩阵分解与连续网络嵌入混合模型的训练过程包括:对模型参数B,D,W,V,X,Y初始化,进入迭代训练过程:固定D,W,V,X,Y,并行优化每个bu,利用DCD算法对每个bu进行逐位更新,得到更新后的B;固定B,W,V,X,Y,并行优化每个di,利用DCD算法对每个di进行逐位更新,得到更新后的D;固定B,D,X,Y,利用SGD算法更新W,V,其中梯度计算采用BP算法;固定B,D,W,V,Y,借助SVD算法更新X;固定B,D,W,V,X,借助SVD算法更新Y;重复上述步骤,不断交替更新参数B,D,W,V,X,Y,直到满足收敛条件,停止训练过程,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
6.根据权利要求5所述的方法,其特征在于,所述的离散矩阵分解与连续网络嵌入混合模型的训练过程具体包括:
S3-1:模型初始化,将上述优化问题放松为实值空间,使用SGD算法交替优化各参数,得到连续空间下的最优解(P*,Q*,W*,V*),按以下规则初始化离散模型:
B=sgn(P*),D=sgn(Q*),
W=W*,V=V*,X=P*,Y=Q*
S3-2:固定D,W,V,X,Y,更新B,离散矩阵分解与连续网络嵌入混合模型的目标函数等价于如下优化问题:
Figure FDA0002287397840000045
其中Ωu表示已观测评分对应的(u,i)索引对中u所构成的集合;
采用DCD算法对bu进行逐位更新,定义
Figure FDA0002287397840000051
Figure FDA0002287397840000052
其中buk和dik分别表示bu和di的第k位,
Figure FDA0002287397840000053
Figure FDA0002287397840000054
分别表示除去buk和dik其余哈希码所组成的向量,具体buk的更新规则如下:
Figure FDA0002287397840000055
Figure FDA0002287397840000056
当a≠0时,K(a,b)=a,否则K(a,b)=b;如果
Figure FDA0002287397840000057
不对buk进行更新;
S3-3:固定B,W,V,X,Y,更新D;与更新B类似,将联合模型的目标函数等价于如下优化问题:
Figure FDA0002287397840000058
其中Ωi表示已观测评分对应的(u,i)索引对中i所构成的集合;采用DCD算法对di进行逐位更新;具体dik的更新规则如下:
Figure FDA0002287397840000059
Figure FDA00022873978400000510
同样,如果
Figure FDA00022873978400000511
更新dik,否则,不对dik进行更新。
S3-4:固定B,D,X,Y,更新W,V,混合模型的目标函数等价于如下优化问题:
Figure FDA00022873978400000512
采用SGD算法更新W,V,其中梯度计算借助BP算法;
S3-5:固定B,D,W,V,Y,更新X,混合模型的目标函数等价于如下优化问题:
Figure FDA00022873978400000513
具体X的更新规则如下:
Figure FDA00022873978400000514
其中Pb和Qb分别表示将矩阵
Figure FDA00022873978400000515
通过奇异值分解SVD得到的左奇异矩阵和右奇异矩阵;
Figure FDA00022873978400000516
表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qb1]进行施密特正交化得到
Figure FDA00022873978400000517
S3-6:固定B,D,W,V,X,更新Y,混合模型的目标函数等价于如下优化问题:
Figure FDA0002287397840000061
具体Y的更新规则如下为:
Figure FDA0002287397840000062
其中Pd和Qd分别表示将矩阵
Figure FDA0002287397840000063
通过SVD得到的左奇异矩阵和右奇异矩阵;
Figure FDA0002287397840000064
表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qd1]进行施密特正交化得到
Figure FDA0002287397840000065
S3-7:重复S3-2到S3-6,直到满足收敛条件,训练过程停止,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
7.根据权利要求5所述的方法,其特征在于,所述的收敛条件包括:目标函数值小于某个预设定阈值;或者,矩阵B和D中的每一位都不再发生变化。
8.根据权利要求5所述的方法,其特征在于,所述的根据所述二值化用户特征矩阵和物品特征矩阵预估用户对未观测物品的偏好分数,并将预估分值最高的一个或者多个未评分物品推荐给用户,包括:
根据所述二值化用户特征矩阵B和物品特征矩阵D重构评分矩阵
Figure FDA0002287397840000066
并对重构评分矩阵
Figure FDA0002287397840000067
中的重构分值逐行降序排列,所述重构分值代表了用户对物品偏好程度的预估分值,将预估分值最高的一个或者多个未评分物品推荐给用户。
CN201911165736.3A 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法 Active CN111104604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911165736.3A CN111104604B (zh) 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911165736.3A CN111104604B (zh) 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法

Publications (2)

Publication Number Publication Date
CN111104604A true CN111104604A (zh) 2020-05-05
CN111104604B CN111104604B (zh) 2023-07-21

Family

ID=70421219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911165736.3A Active CN111104604B (zh) 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法

Country Status (1)

Country Link
CN (1) CN111104604B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113377973A (zh) * 2021-06-10 2021-09-10 电子科技大学 一种基于对抗哈希的物品推荐方法
CN113627598A (zh) * 2021-08-16 2021-11-09 重庆大学 一种用于加速推荐的孪生自编码器神经网络算法及系统
CN113887719A (zh) * 2021-09-13 2022-01-04 北京三快在线科技有限公司 一种模型压缩方法及装置
CN114049166A (zh) * 2021-10-12 2022-02-15 华南理工大学 基于离散因子分解机的物品推荐方法
CN114564742A (zh) * 2022-02-18 2022-05-31 北京交通大学 一种基于哈希学习的轻量化联邦推荐方法
CN116401458A (zh) * 2023-04-17 2023-07-07 南京工业大学 基于Lorenz混沌自适应的推荐方法
US11836159B2 (en) 2019-10-11 2023-12-05 Visa International Service Association System, method, and computer program product for analyzing a relational database using embedding learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321221B1 (en) * 1998-07-17 2001-11-20 Net Perceptions, Inc. System, method and article of manufacture for increasing the user value of recommendations
CN107122411A (zh) * 2017-03-29 2017-09-01 浙江大学 一种基于离散多视图哈希的协同过滤推荐方法
CN110321494A (zh) * 2019-06-26 2019-10-11 北京交通大学 基于矩阵分解与网络嵌入联合模型的社会化推荐方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321221B1 (en) * 1998-07-17 2001-11-20 Net Perceptions, Inc. System, method and article of manufacture for increasing the user value of recommendations
CN107122411A (zh) * 2017-03-29 2017-09-01 浙江大学 一种基于离散多视图哈希的协同过滤推荐方法
CN110321494A (zh) * 2019-06-26 2019-10-11 北京交通大学 基于矩阵分解与网络嵌入联合模型的社会化推荐方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836159B2 (en) 2019-10-11 2023-12-05 Visa International Service Association System, method, and computer program product for analyzing a relational database using embedding learning
CN113377973A (zh) * 2021-06-10 2021-09-10 电子科技大学 一种基于对抗哈希的物品推荐方法
CN113377973B (zh) * 2021-06-10 2022-06-14 电子科技大学 一种基于对抗哈希的物品推荐方法
CN113627598A (zh) * 2021-08-16 2021-11-09 重庆大学 一种用于加速推荐的孪生自编码器神经网络算法及系统
CN113627598B (zh) * 2021-08-16 2022-06-07 重庆大学 一种用于加速推荐的孪生自编码器神经网络算法及系统
CN113887719A (zh) * 2021-09-13 2022-01-04 北京三快在线科技有限公司 一种模型压缩方法及装置
CN114049166A (zh) * 2021-10-12 2022-02-15 华南理工大学 基于离散因子分解机的物品推荐方法
CN114049166B (zh) * 2021-10-12 2024-04-30 华南理工大学 基于离散因子分解机的物品推荐方法
CN114564742A (zh) * 2022-02-18 2022-05-31 北京交通大学 一种基于哈希学习的轻量化联邦推荐方法
CN114564742B (zh) * 2022-02-18 2024-05-14 北京交通大学 一种基于哈希学习的轻量化联邦推荐方法
CN116401458A (zh) * 2023-04-17 2023-07-07 南京工业大学 基于Lorenz混沌自适应的推荐方法
CN116401458B (zh) * 2023-04-17 2024-01-09 南京工业大学 基于Lorenz混沌自适应的推荐方法

Also Published As

Publication number Publication date
CN111104604B (zh) 2023-07-21

Similar Documents

Publication Publication Date Title
CN111104604A (zh) 基于哈希学习的轻量级社会化推荐方法
CN110321494B (zh) 基于矩阵分解与网络嵌入联合模型的社会化推荐方法
Lee et al. Formnet: Structural encoding beyond sequential modeling in form document information extraction
CN109389151B (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
CN110347932B (zh) 一种基于深度学习的跨网络用户对齐方法
JP2020523699A (ja) 関心点コピーの生成
Hao et al. Cross-domain sentiment encoding through stochastic word embedding
CN113239181A (zh) 基于深度学习的科技文献引文推荐方法
CN111079409B (zh) 一种利用上下文和方面记忆信息的情感分类方法
CN110795641A (zh) 基于表示学习的网络谣言传播控制方法
CN109992784B (zh) 一种融合多模态信息的异构网络构建和距离度量方法
Subramanian et al. A survey on sentiment analysis
CN113962358A (zh) 一种基于时序超图注意力神经网络的信息扩散预测方法
Wu et al. Estimating fund-raising performance for start-up projects from a market graph perspective
CN114298783A (zh) 基于矩阵分解融合用户社交信息的商品推荐方法及系统
CN109919793A (zh) 活动参与分析及推荐方法
Xu et al. Emerging Synergies Between Large Language Models and Machine Learning in Ecommerce Recommendations
Liu et al. Job and employee embeddings: A joint deep learning approach
CN115169637A (zh) 社交关系预测方法、装置、设备和介质
CN112148998B (zh) 一种基于多核图卷积网络的在线社交平台用户好友推荐方法
Hu et al. Learning Multi-expert Distribution Calibration for Long-tailed Video Classification
CN112734519A (zh) 一种基于卷积自编码器网络的商品推荐方法
Yadala et al. Social Media Event Summarization using Neural Networks
Lin et al. Metapaths guided neighbors aggregated network for? Heterogeneous graph reasoning
Lo et al. Jointly learning sentiment, keyword and opinion leader in social reviews

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant