CN111104604B - 基于哈希学习的轻量级社会化推荐方法 - Google Patents

基于哈希学习的轻量级社会化推荐方法 Download PDF

Info

Publication number
CN111104604B
CN111104604B CN201911165736.3A CN201911165736A CN111104604B CN 111104604 B CN111104604 B CN 111104604B CN 201911165736 A CN201911165736 A CN 201911165736A CN 111104604 B CN111104604 B CN 111104604B
Authority
CN
China
Prior art keywords
user
matrix
model
social
scoring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911165736.3A
Other languages
English (en)
Other versions
CN111104604A (zh
Inventor
邬俊
罗芳媛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CN201911165736.3A priority Critical patent/CN111104604B/zh
Publication of CN111104604A publication Critical patent/CN111104604A/zh
Application granted granted Critical
Publication of CN111104604B publication Critical patent/CN111104604B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9536Search customisation based on social or collaborative filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供了一种基于哈希学习的轻量级社会化推荐方法。该方法包括:构建用户‑物品评分矩阵和用户‑用户社交网络,通过对用户‑用户社交网络施加截断式随机游走和负采样,生成社交语料;根据用户‑物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵;根据用户特征矩阵和物品特征矩阵预估用户对未评分物品的偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户。本发明所述方法与当下主流的实值化推荐方法性能相当,但由于采用了轻量级模型设计思想,所获二值化用户和物品特征具有更低的计算和存储开销。

Description

基于哈希学习的轻量级社会化推荐方法
技术领域
本发明涉及计算机应用技术领域,尤其涉及一种基于哈希学习的轻量级社会化推荐方法。
背景技术
作为信息检索系统的有效补充手段,推荐系统在提供个性化信息服务方面发挥着重要作用。协同过滤是构建个性化推荐系统的核心技术;在众多协同过滤方法中,矩阵分解是当下最主流的方法之一。矩阵分解的核心思想是通过分解一个部分观测的“用户-物品”交互矩阵(简称UI矩阵),将用户和物品映射到同一个低维隐空间,继而根据用户和物品隐特征向量间内积预测未观测的“用户-物品”相关性。通常情况,已观测的“用户-物品”交互记录仅占UI矩阵中很小一部分,即所谓的“数据稀疏”问题,这种稀疏性严重制约了矩阵分解模型的性能。
随着社交媒体的普及,一些学者尝试利用用户间的社交关系缓解UI矩阵稀疏问题,进而催生了社会化推荐系统。传统的社会化推荐方法直接扩展矩阵分解模型,基于启发性策略使用社交数据,代表性方法如SoRec模型、SoReg模型等。近年来学者们将矩阵分解模型与网络嵌入模型相结合,以期更大程度地利用和挖掘社交数据,代表性方法如CUNE模型、GraphRec等。
另一方面,随着在线用户和物品数量的与日俱增,推荐系统面临严峻的实时性挑战,在此背景下离散协同过滤模型应运而生,该模型将欧式空间下的实值用户和物品隐表示替换为海明空间内的二值编码,进而节省了计算和存储开销。但是,二值编码较之实值表示具有较少的信息量,使其推荐准确性略微受损;换言之,离散协同过滤模型采用一种“以性能换效率”的处理思路。为进一步弥补离散协同过滤模型的性能损失,学者们进一步设计了离散社会化推荐(discrete social recommendation,DSR)模型,以补偿二值编码造成的性能损失。本质上,该模型是传统社会化推荐模型SoRec的二值化版本,未能结合最新的网络嵌入研究成果处理社交数据,其推荐准确性有待进一步提升。
现有技术中的离散社会化推荐模型DSR存在两个弊端:
1)DSR模型通过共享变量的方法学习用户的社交表示,该方法仅考虑每个用户与其一阶近邻的直接联系,忽略了用户与其高阶近邻的间接联系,所获用户社交特征有待进一步改进;
2)由于采用共享变量设计思路,DSR模型学得的用户社交特征也是二值形式;但由于用户社交表示仅作为建模过程中的副产品并不参与最后的推荐计算,而二值表示相比于实值表示携带信息量较少,因此造成了不必要的编码损失。
发明内容
本发明的实施例提供了一种基于哈希学习的轻量级社会化推荐方法,以克服现有技术的问题。
为了实现上述目的,本发明采取了如下技术方案。
一种基于哈希学习的轻量级社会化推荐方法,包括:
S1、构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品评分矩阵中的评分数据进行归一化处理;
S2、构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料;
S3、根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵;
S4、根据所述用户特征矩阵和物品特征矩阵预估用户对各个未评分物品的偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户。
优选地,所述的构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品评分矩阵中的评分数据进行归一化处理,包括:
构建用户-物品评分矩阵R∈[0,1]m×n,m和n分别表示用户和物品数量,所述用户-物品评分矩阵Ru中的评分数据用于记录用户对物品的评分行为,对评分数据进行归一化处理,将评分数据量化为小数,数值越接近于1表示该用户越喜欢该物品,0表示未评分。
优选地,所述的构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料,包括:
构建用户-用户社交网络,该用户-用户社交网络中的社交数据用于记录用户间的连接关系,若两用户为好友关系,社交数据标记为1,否则;社交数据标记为0;通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料其中与/>分别表示用户u的上下文用户集合与负样本集合。
优选地,所述的社交语料的生成步骤包括:
S2-1:为用户生成上下文用户集合在所述用户-用户社交网络上运行截断式随机游走得到每个用户的节点序列,利用滑动窗口从用户的节点序列中寻找每个用户的上下文用户集合;当滑动窗口停在节点序列中的某个位置时,处于中间位置的用户称为中心用户u,处于窗口内其它位置的用户称为用户u的上下文用户/>随机游走过程中,用户u跳转到用户υ的概率定义如下:
其中,co(u,υ)代表用户u和用户υ的共同评分行为数目,d+(u)代表用户u的出度,代表用户u的朋友集合;
设截断式随机游走序列长度为L,对于用户u而言,根据概率转移公式计算从用户u转移到其朋友的概率,选择概率最大的朋友v作为其下一跳的节点,该下一跳的节点也根据概率转移公式计算自己转移到其朋友的概率,选择概率最大的朋友作为其下一跳的节点,以此类推,直到产生长度为L的节点序列,将该节点序列作为用户u的上下文用户集合
S2-2:为用户生成负样本集合对任意用户u而言,根据其非上下文用户在社交语料中的出现频率,及其在评分数据中的活跃程度,获取用户u的负样本集合/>给定某个用户/>其被选为用户u的负样本的概率定义如下:
其中,f(v)表示用户υ在社交语料中出现的频率,r(υ)表示用户υ在评分数据中评价过的物品数量,表示全体用户集合,超参数a为经验值;
S2-3:基于所述用户的上下文用户集合和负样本集合/>生成用户的社交语料/>
优选地,所述的根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵,包括:
所述的离散矩阵分解与连续网络嵌入混合模型的目标函数定义如下:
其中和/>分别表示离散矩阵分解模型和连续网络嵌入模型的损失函数;/>为离散矩阵分解模型和连续网络嵌入模型间的平滑项,用于连接离散矩阵分解模型和连续网络嵌入模型;
所述的离散矩阵分解模型的损失函数定义如下:
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,Ω是由已观测评分对应的(u,i)索引对组成的集合,为矩阵B的第u列、/>为矩阵D的第i列,分别对应于用户u和物品i的二值化特征向量;约束条件中,B1m=0和D1n=0用于控制特征编码平衡性,BBT=mIf和DDT=nIf用于控制特征编码独立性,矩阵B表示二值化的用户特征矩阵,矩阵D表示二值化的物品特征矩阵;
所述连续网络嵌入模型为包括一个隐层的神经网络,设表示神经网络的输入层与隐层之间的连接权重矩阵,/>表示隐层与输出层之间的连接权重矩阵;对某一用户u而言,其对应两个社会化特征wu和vu,分别源自矩阵W的第u列和矩阵V的第u行,wu称为输入向量,vu称为输出向量;
所述连续网络嵌入模型的损失函数定义如下:
其中,和/>分别代表用户u所有正样本和负样本的均值向量,σ(z)=1/(1+e-z)用于将输入变量转化为概率输出;λw,λv为超参数,用于调节正则项在损失函数中的比重;
矩阵分解模型和连续网络嵌入模型之间的平滑项定义为:
合并各项后,所述离散矩阵分解与连续网络嵌入混合模型的目标函数表示如下:
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,α,β>0为超参数,用于调控目标函数中各项的比重;定义两个连续变量和/>进而将平衡约束和去相关性约束条件放松为/>用tr(BTY)和tr(DTY)代替/>和/>离散矩阵分解与连续网络嵌入混合模型的目标函数被等价转换为如下优化问题:
s.tB∈{±1}f×m,D∈{±1}f×n
X1m=0,Y1n=0,XXT=mIf,YYT=nIf
其中,λB,λB>0为超参数,用于调控目标变量的放松程度;
所述离散矩阵分解与连续网络嵌入混合模型的训练过程包括:对模型参数B,D,W,V,X,Y初始化,进入迭代训练过程:固定D,W,V,X,Y,并行优化每个bu,利用DCD算法对每个bu进行逐位更新,得到更新后的B;固定B,W,V,X,Y,并行优化每个di,利用DCD算法对每个di进行逐位更新,得到更新后的D;固定B,D,X,Y,利用SGD算法更新W,V,其中梯度计算采用BP算法;固定B,D,W,V,Y,借助SVD算法更新X;固定B,D,W,V,X,借助SVD算法更新Y;重复上述步骤,不断交替更新参数B,D,W,V,X,Y,直到满足收敛条件,停止训练过程,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
优选地,所述的离散矩阵分解与连续网络嵌入混合模型的训练过程具体包括:
S3-1:模型初始化,将上述优化问题放松为实值空间,使用SGD算法交替优化各参数,得到连续空间下的最优解(P*,Q*,W*,V*),按以下规则初始化离散模型:
B=sgn(P*),D=sgm(Q*),
W=W*,V=V*,X=P*,Y=Q*
S3-2:固定D,W,V,X,Y,更新B,离散矩阵分解与连续网络嵌入混合模型的目标函数等价于如下优化问题:
其中Ωu表示已观测评分对应的(u,i)索引对中u所构成的集合;
采用DCD算法对bu进行逐位更新,定义和/>其中buk和dik分别表示bu和di的第k位,/>和/>分别表示除去buk和dik其余哈希码所组成的向量,具体buk的更新规则如下:
当a≠0时,K(a,b)=a,否则K(a,b)=b;如果不对buk进行更新;
S3-3:固定B,W,V,X,Y,更新D;与更新B类似,将联合模型的目标函数等价于如下优化问题:
其中Ωi表示已观测评分对应的(u,i)索引对中i所构成的集合;采用DCD算法对di进行逐位更新;具体dik的更新规则如下:
同样,如果更新dik,否则,不对dik进行更新。
S3-4:固定B,D,X,Y,更新W,V,混合模型的目标函数等价于如下优化问题:
采用SGD算法更新W,V,其中梯度计算借助BP算法;
S3-5:固定B,D,W,V,Y,更新X,混合模型的目标函数等价于如下优化问题:
具体X的更新规则如下:
其中Pb和Qb分别表示将矩阵通过奇异值分解SVD得到的左奇异矩阵和右奇异矩阵;/>表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qb1]进行施密特正交化得到/>
S3-6:固定B,D,W,V,X,更新Y,混合模型的目标函数等价于如下优化问题:
具体Y的更新规则如下为:
其中Pd和Qd分别表示将矩阵通过SVD得到的左奇异矩阵和右奇异矩阵;/>表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qd1]进行施密特正交化得到/>
S3-7:重复S3-2到S3-6,直到满足收敛条件,训练过程停止,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
优选地,所述的收敛条件包括:目标函数值小于某个预设定阈值;或者,矩阵B和D中的每一位都不再发生变化。
优选地,所述的根据所述用户特征矩阵和物品特征矩阵预估用户对各个未评分物品的偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户,包括:
根据所述二值化用户特征矩阵B和物品特征矩阵D重构评分矩阵重构分值代表了用户对物品偏好程度的预估值;对重构矩阵/>逐行降序排列,并将预估分值最高的一个或者多个未评分物品推荐给用户。
由上述本发明的实施例提供的技术方案可以看出,本发明实施例的基于哈希学习的轻量级社会化推荐方法可同时利用评分数据和社交数据学习用户和物品的二值化特征,继而借助逻辑运算实现快速、有效地向用户推荐物品。本发明方法在保障一定推荐准确率的前提下,大幅降低了模型的在线计算和存储开销。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于哈希学习的轻量级社会化推荐方法的处理流程图;
图2为本发明实施例提供的一种离散矩阵分解与连续网络嵌入混合模型的训练工作流程图;
图3为本发明实施例的方法与现有离散推荐方法的对比实验结果
图4为本发明实施例的方法与其实值版本的在推荐准确率、存储开销、时间开销三方面的对比实验结果。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
利用“用户-用户”社交数据补充“用户-物品”评分数据已成为提升推荐系统性能的有效手段之一,但目前社会化推荐方法的计算效率严重受限于日益增长的用户和物品数量,特别是针对那些计算和存储资源严重受限的移动推荐场景;鉴于此,本发明实施例提出了一种基于哈希学习的轻量级社会化推荐方法,以改进DSR的两个缺陷。一方面,本发明方法使用网络嵌入模型处理用户社交关系,可有效挖掘用户间的高阶近邻关系,从而进一步强化用户社交特征;另一方面,本发明方法采用“离散-连续”混合建模思路,同时学习二值化用户偏好特征和实值化用户社交特征,并通过特征对齐方式最小化二者间的差异;基于统一的优化框架,离散学习任务与连续学习任务可以互相促进,同时最大限度地降低了二值化编码损失,从而获得了更精确的推荐结果。
上述轻量级推荐方法是指占用较少计算和存储资源的在线推荐方法。
在本发明实施例中,网络指的是社交网络,结点代表用户,连接代表用户间的社交关系,如好友关系(用户A关注了用户B)、转发关系(用户A转发了用户B的帖子)、评论关系(用户A评论了用户B的帖子)等等。借助网络嵌入模型,可获得用户的实值化特征向量,该特征向量保留了用户的社交结构信息。
本发明实施例提供的一种基于哈希学习的轻量级社会化推荐方法的处理流程如图1所示,包括如下的处理步骤:
步骤S1、构建“用户-物品”评分矩阵,并对评分数据进行归一化处理,获得评分矩阵R∈[0,1]m×n(其中m和n分别表示用户和物品数量),用以记录用户对物品的评分行为;某用户对某商品的评分行为被量化为小数,数值越接近于1表示该用户越喜欢该物品,反之亦然,0表示未评分。
步骤S2、构建“用户-用户”社交网络,用以记录用户间的连接关系;若两用户为好友关系,标记为1,否则标记为0;通过对“用户-用户”社交网络施加截断式随机游走和负采样,生成社交语料其中/>与/>分别表示用户u的上下文用户集合与负样本集合。
步骤S3、根据评分矩阵R和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵/>物品特征矩阵/>其中f为特征空间维数。
步骤S4、根据上述用户特征矩阵和物品特征矩阵重构评分矩阵并对重构评分矩阵/>中的重构分值逐行降序排列;重构分值代表了用户对物品偏好程度的预估分值,将预估分值最高的一个或者多个未评分物品推荐给用户。
S2所述的社交语料生成具体包括如下步骤:
S2-1:为用户生成上下文用户集合在“用户-用户”社交网络上运行截断式随机游走得到每个用户的节点序列,然后利用滑动窗口从用户的节点序列中寻找每个用户的上下文用户集合;当滑动窗口停在节点序列中的某个位置时,处于中间位置的用户称为中心用户u,处于窗口内其它位置的用户称为用户u的上下文用户/>随机游走过程中,用户u跳转到用户v的概率定义如下:
其中,co(u,v)代表用户u和用户v的共同评分行为数目,d+(u)代表用户u的出度,代表用户u的朋友集合。
设截断式随机游走序列长度为L,对于用户u而言,根据概率转移公式计算从用户u转移到其朋友的概率,然后选择概率最大的朋友v作为其下一跳的节点,该下一跳的节点也根据概率转移公式计算自己转移到其朋友的概率,选择概率最大的朋友作为其下一跳的节点,以此类推,直到产生长度为L的节点序列,将该节点序列作为用户u的上下文用户集合
S2-2:为用户生成负样本集合对任意用户u而言,根据其非上下文用户在社交语料中的出现频率,及其在评分数据中的活跃程度,获取用户u的负样本集合/>给定某个用户/>其被选为用户u的负样本的概率定义如下:
其中,f(v)表示用户v在社交语料中出现的频率,r(v)表示用户v在评分数据中评价过的物品数量,表示全体用户集合,超参数a为经验值;
S2-3:所述用户的上下文用户集合和负样本集合/>共同构成了用户的社交语料/>
S3所述的离散矩阵分解与连续网络嵌入混合模型的目标函数定义如下:
其中和/>分别表示离散矩阵分解模型和连续网络嵌入模型的损失函数;/>为离散矩阵分解模型和连续网络嵌入模型间的平滑项,用于连接两个模型:离散矩阵分解模型和连续网络嵌入模型;
离散矩阵分解模型的损失函数定义如下:
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,Ω是由已观测评分对应的(u,i)索引对组成的集合,为矩阵B的第u列、/>为矩阵D的第i列,分别对应于用户u和物品i的二值化特征向量;约束条件中,B1m=0和D1n=0用于控制特征编码平衡性,BBT=mIf和DDT=nIf用于控制特征编码独立性。矩阵B表示二值化的用户特征矩阵,矩阵D表示二值化的物品特征矩阵。
连续网络嵌入模型实际上是一个神经网络,为了简化问题表述,此处假设神经网络仅包括一个隐层;设表示神经网络的输入层与隐层之间的连接权重矩阵,表示隐层与输出层之间的连接权重矩阵;对某一用户u而言,其对应两个社会化特征wu和vu,分别源自矩阵W的第u列和矩阵V的第u行,wu称为输入向量,vu称为输出向量;网络嵌入模型的目标在于,使用户的输入向量与其上下文用户的输出向量尽可能相似,同时与其非上下文用户的输出向量尽可能相异。
连续网络嵌入模型的具体损失函数定义如下:
其中,和/>分别代表用户u所有正样本和负样本的均值向量,σ(z)=1/(1+e-z)用于将输入变量转化为概率输出;λω,λυ为超参数,用于调节正则项在损失函数中的比重。
矩阵分解模型和连续网络嵌入模型之间的平滑项定义为:
上述平滑项用于连接两个模型,使得同一个用户的二值偏好特征与实值社会化特征尽可能相似;
合并各项后,离散矩阵分解与连续网络嵌入混合模型的目标函数表示如下:
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,α,β>0为超参数,用于调控目标函数中各项的比重;为了方便求解上述离散优化问题,首先定义两个连续变量进而将平衡约束和去相关性约束条件放松为和/>由于B和D的二范数为常数,对优化没有影响,可用tr(BTX)和tr(DTY)代替/>和/>因此,离散矩阵分解与连续网络嵌入混合模型的目标函数被等价转换为如下优化问题:
s.t.B∈{±1}f×m,D∈{±1}f×n
X1m=0,Y1n=0,XXT=mIf,YYT=nIf
其中,λB,λB>0为超参数,用于调控目标变量的放松程度。
S3离散矩阵分解与连续网络嵌入混合模型训练的工作流程如图2,首先对模型参数B,W,V,X,Y初始化,然后进入迭代训练过程:固定B,W,V,X,Y,并行优化每个bu,利用DCD算法对每个bu进行逐位更新,得到更新后的B;固定B,W,V,X,Y,并行优化每个di,利用DCD算法对每个di进行逐位更新,得到更新后的D;固定B,D,X,Y,利用SGD算法更新W,V,其中梯度计算采用BP算法;固定B,D,W,V,X,Y,借助SVD算法更新X;固定B,D,W,V,X,借助SVD算法更新Y;重复上述步骤,不断交替更新参数B,D,W,V,X,Y,直到满足停止条件,例如目标函数值小于某个预设定阈值或B和D的每一位都不再发生变化,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
具体包括如下步骤:
S3-1:模型初始化,将上述优化问题放松为实值空间,使用SGD(stochasticgradientdescent,随机梯度下降)算法交替优化各参数,得到连续空间下的最优解(P*,Q*,W*,V*),然后按以下规则初始化离散模型:
B=sGn(P*),D=sgn(Q*),
W=W*,V=V*,X=P*,Y=Q*
S3-2:固定D,W,V,X,Y,更新B,离散矩阵分解与连续网络嵌入混合模型的目标函数等价于如下优化问题:
其中Ωu表示已观测评分对应的(u,i)索引对中u所构成的集合。
本发明采用DCD(coordinate descent method,离散坐标下降)算法对bu进行逐位更新,定义和/>其中buk和dik分别表示bu和di的第k位,/>和/>分别表示除去buk和dik其余哈希码所组成的向量,具体buk的更新规则如下:
当a≠0时,K(a,b)=a,否则K(a,b)=b;如果不对buk进行更新。
S3-3:固定B,W,V,X,Y,更新D;与更新B类似,首先将联合模型的目标函数等价于如下优化问题:
其中Ωi表示已观测评分对应的(u,i)索引对中i所构成的集合;同样可采用离散坐标下降DCD算法对di进行逐位更新;具体dik的更新规则如下:
同样,如果更新dik,否则,不对dik进行更新。
S3-4:固定B,D,X,Y,更新W,V,混合模型的目标函数等价于如下优化问题:
该问题是标准的神经网络优化问题,可采用随机梯度下降SGD算法更新W,V,其中梯度计算可借助BP(反向传播,Back Propagation))算法。
S3-5:固定B,D,W,V,Y,更新X,混合模型的目标函数等价于如下优化问题:
具体X的更新规则如下:
其中Pb和Qb分别表示将矩阵通过SVD(Singular ValueDecomposition,奇异值分解)得到的左奇异矩阵和右奇异矩阵;/>表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qb1]进行施密特正交化得到/>
S3-6:固定B,D,W,V,X,更新Y,混合模型的目标函数等价于如下优化问题:
具体Y的更新规则如下为:
其中Pd和Qd分别表示将矩阵通过奇异值分解SVD得到的左奇异矩阵和右奇异矩阵;/>表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qd1]进行施密特正交化得到/>
S3-7:重复S3-2到S3-6,直到满足收敛条件,例如目标函数值小于某个预设定阈值或B和D的每一位都不再发生变化,训练过程停止,最后输出二值化用户特征矩阵B和物品特征矩阵D。
本发明在FilmTrust、CiaoDVD和Epinions数据集上进行了实验,并将本发明所述方法(Discrete Matrix factorization with network Embedding,简称DME)与目前两种主流离散推荐方法进行了对比实验分析;对比方法包括目前该领域性能最好的离散社会化推荐方法(Discrete Social Recommendation,简称DSR),发表于人工智能领域顶级会议AAAI2019;经典的离散协同过滤方法(Discrete Collaborative Filtering,简称DCF),发表于信息检索领域顶级会议SIGIR2016。此外,本发明所述方法还与其实值化版本(Matrixfactorization with network Embedding,简称ME)在推荐性能、计算和存储开销三方面的进行了对比实验分析。
FilmTrust数据集源自电影评价网站,其UI矩阵的行代表观影人,列代表电影,评分范围:0.5-4.0分;另有用户社交关系(关注vs被关注)作为辅助信息。该数据集包括1,508个用户、2,071个物品、35,497条评分记录、1,853个好友连接;“用户-物品”交互数据的稠密度为1.14%、“用户-用户”社交数据的稠密度为0.42%。
CiaoDVD数据集源自视频评论网站,其UI矩阵的行代表评论者,列代表视频,评分范围:1.0-5.0分;另有用户社交关系(信任vs被信任)作为辅助信息。该数据集包括17,615个用户、16,121个物品、72,665条评分记录、40,133个好友连接;“用户-物品”交互数据的稠密度为0.03%、“用户-用户”社交数据的稠密度为0.65%。
Epinions数据集源自在线商品评论网站,其UI矩阵的行代表评论者,列代表商品,评分范围:1.0-5.0分;另有用户社交关系(信任vs被信任)作为辅助信息。该数据集包括40,163个用户、139,738个物品、664,824条评分记录、487,183个好友连接;“用户-物品”交互数据的稠密度为0.01%、“用户-用户”社交数据的稠密度为0.03%。
图3展示了DME、DSR、DCF三种离散推荐方法在FilmTrust、CiaoDVD和Epinions数据集上的对比实验结果,评价指标为归一化折损累计增益(Normalized DiscountCumulative Gain,NDCG),其中*表示最优值;图4展示了轻量级方法DME与其实值化版本ME之间的模型性能、内存和时间消耗对比,其中↓或↑表示性能下降或上升的百分比,表示存储或时间开销改善的倍数;上述实验结果表明:本发明方法较之当下主流离散推荐方法性能具有较大程度改进(NDCG越高越好);与其实值化版本相比,在推荐性能接近的前提下,在计算和存储开销方面具有较大程度改善。
综上所述,本发明实施例的基于哈希学习的轻量级社会化推荐方法可同时利用评分数据和社交数据学习用户和物品的二值化特征,继而借助逻辑运算实现快速、有效地向用户推荐物品。本发明方法在保障一定推荐准确率的前提下,大幅降低了模型的在线计算和存储开销。
本发明实施例的基于哈希学习的轻量级社会化推荐方法“无缝整合”了离散矩阵分解模型与连续网络嵌入模型。基于网络嵌入模型,可处理用户间的高阶近邻关系,所获用户隐特征具有更强表征能力;采用“离散-连续”混合建模思路,基于同一优化框架,离散偏好学习任务和连续社交表示学习任务可以互相促进,所获二值化用户和物品特征具有较低的编码损失。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (7)

1.一种基于哈希学习的轻量级社会化推荐方法,其特征在于,包括:
S1、构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品评分矩阵中的评分数据进行归一化处理;
S2、构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料;
S3、根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵;
S4、根据所述用户特征矩阵和物品特征矩阵预估用户对各个未评分物品的偏好分值,并将预估分值最高的一个或者多个未评分物品推荐给用户;
所述的根据所述用户-物品评分矩阵和社交语料训练离散矩阵分解与连续网络嵌入混合模型,得到二值化的用户特征矩阵和物品特征矩阵,包括:
所述的离散矩阵分解与连续网络嵌入混合模型的目标函数定义如下:
其中和/>分别表示离散矩阵分解模型和连续网络嵌入模型的损失函数;/>为离散矩阵分解模型和连续网络嵌入模型间的平滑项,用于连接离散矩阵分解模型和连续网络嵌入模型;
所述的离散矩阵分解模型的损失函数定义如下:
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,Ω是由已观测评分对应的(u,i)索引对组成的集合,为矩阵B的第u列、为矩阵D的第i列,分别对应于用户u和物品i的二值化特征向量;约束条件中,B1m=0和D1n=0用于控制特征编码平衡性,BBT=mIf和DDT=nIf用于控制特征编码独立性,矩阵B表示二值化的用户特征矩阵,矩阵D表示二值化的物品特征矩阵;
所述连续网络嵌入模型为包括一个隐层的神经网络,设表示神经网络的输入层与隐层之间的连接权重矩阵,/>表示隐层与输出层之间的连接权重矩阵;对某一用户u而言,其对应两个社会化特征wu和vu,分别源自矩阵W的第u列和矩阵V的第u行,wu称为输入向量,vu称为输出向量;
所述连续网络嵌入模型的损失函数定义如下:
其中,和/>分别代表用户u所有正样本和负样本的均值向量,σ(z)=1/(1+e-z)用于将输入变量转化为概率输出;λw,λv为超参数,用于调节正则项在损失函数中的比重;
矩阵分解模型和连续网络嵌入模型之间的平滑项定义为:
合并各项后,所述离散矩阵分解与连续网络嵌入混合模型的目标函数表示如下:
s.t.B∈{±1}f×m,D∈{±1}f×n
B1m=0,D1n=0,BBT=mIf,DDT=nIf
其中,α,β>0为超参数,用于调控目标函数中各项的比重;定义两个连续变量和/>进而将平衡约束和去相关性约束条件放松为/>用tr(BTX)和tr(DTY)代替/>和/>离散矩阵分解与连续网络嵌入混合模型的目标函数被等价转换为如下优化问题:
s.t.B∈{±1}f×m,D∈{±1}f×n
X1m=0,Y1n=0,XXT=mIf,YYT=nIf
其中,λB,λB>0为超参数,用于调控目标变量的放松程度;
所述离散矩阵分解与连续网络嵌入混合模型的训练过程包括:对模型参数B,D,W,V,X,Y初始化,进入迭代训练过程:固定D,W,V,X,Y,并行优化每个bu,利用DCD算法对每个bu进行逐位更新,得到更新后的B;固定B,W,V,X,Y,并行优化每个di,利用DCD算法对每个di进行逐位更新,得到更新后的D;固定B,D,X,Y,利用SGD算法更新W,V,其中梯度计算采用BP算法;固定B,D,W,V,Y,借助SVD算法更新X;固定B,D,W,V,X,借助SVD算法更新Y;重复上述步骤,不断交替更新参数B,D,W,V,X,Y,直到满足收敛条件,停止训练过程,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
2.根据权利要求1所述的方法,其特征在于,所述的构建用于记录用户对物品的评分行为的用户-物品评分矩阵,并对所述用户-物品评分矩阵中的评分数据进行归一化处理,包括:
构建用户-物品评分矩阵R∈[0,1]m×n,m和n分别表示用户和物品数量,所述用户-物品评分矩阵R中的评分数据用于记录用户对物品的评分行为,对评分数据进行归一化处理,将评分数据量化为小数,数值越接近于1表示该用户越喜欢该物品,0表示未评分。
3.根据权利要求1所述的方法,其特征在于,所述的构建用于记录用户间的连接关系的用户-用户社交网络,通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料,包括:
构建用户-用户社交网络,该用户-用户社交网络中的社交数据用于记录用户间的连接关系,若两用户为好友关系,社交数据标记为1,否则;社交数据标记为0;通过对所述用户-用户社交网络施加截断式随机游走和负采样,生成社交语料其中/>与/>分别表示用户u的上下文用户集合与负样本集合。
4.根据权利要求3所述的方法,其特征在于,所述的社交语料的生成步骤包括:
S2-1:为用户生成上下文用户集合在所述用户-用户社交网络上运行截断式随机游走得到每个用户的节点序列,利用滑动窗口从用户的节点序列中寻找每个用户的上下文用户集合;当滑动窗口停在节点序列中的某个位置时,处于中间位置的用户称为中心用户u,处于窗口内其它位置的用户称为用户u的上下文用户/>随机游走过程中,用户u跳转到用户v的概率定义如下:
其中,co(u,u)代表用户u和用户v的共同评分行为数目,d+(u)代表用户u的出度,代表用户u的朋友集合;
设截断式随机游走序列长度为L,对于用户u而言,根据概率转移公式计算从用户u转移到其朋友的概率,选择概率最大的朋友v作为其下一跳的节点,该下一跳的节点也根据概率转移公式计算自己转移到其朋友的概率,选择概率最大的朋友作为其下一跳的节点,以此类推,直到产生长度为L的节点序列,将该节点序列作为用户u的上下文用户集合
S2-2:为用户生成负样本集合对任意用户u而言,根据其非上下文用户在社交语料中的出现频率,及其在评分数据中的活跃程度,获取用户u的负样本集合/>给定某个用户/>其被选为用户u的负样本的概率定义如下:
其中,f(v)表示用户v在社交语料中出现的频率,r(v)表示用户v在评分数据中评价过的物品数量,u表示全体用户集合,超参数a为经验值;
S2-3:基于所述用户的上下文用户集合和负样本集合/>生成用户的社交语料/>
5.根据权利要求1所述的方法,其特征在于,所述的离散矩阵分解与连续网络嵌入混合模型的训练过程具体包括:
S3-1:模型初始化,将上述优化问题放松为实值空间,使用SGD算法交替优化各参数,得到连续空间下的最优解(P*,Q*,W*,V*),按以下规则初始化离散模型:
B=sgn(P*),D=sgn(Q*),
W=W*,V=V*,X=P*,Y=Q*
S3-2:固定D,W,V,X,Y,更新B,离散矩阵分解与连续网络嵌入混合模型的目标函数等价于如下优化问题:
其中Ωu表示已观测评分对应的(u,i)索引对中u所构成的集合;
采用DCD算法对bu进行逐位更新,定义和/>其中buk和dik分别表示bu和di的第k位,/>和/>分别表示除去buk和dik其余哈希码所组成的向量,具体buk的更新规则如下:
当a≠0时,K(a,b)=a,否则K(a,b)=b;如果不对buk进行更新;
S3-3:固定B,W,V,X,Y,更新D;与更新B类似,将联合模型的目标函数等价于如下优化问题:
其中Ωi表示已观测评分对应的(u,i)索引对中i所构成的集合;采用DCD算法对di进行逐位更新;具体dik的更新规则如下:
同样,如果更新dik,否则,不对dik进行更新;
S3-4:固定B,D,X,Y,更新W,V,混合模型的目标函数等价于如下优化问题:
采用SGD算法更新W,V,其中梯度计算借助BP算法;
S3-5:固定B,D,W,V,Y,更新X,混合模型的目标函数等价于如下优化问题:
s.t.X1m=0,XXT=mIf
具体X的更新规则如下:
其中Pb和Qb分别表示将矩阵通过奇异值分解SVD得到的左奇异矩阵和右奇异矩阵;/>表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qb1]进行施密特正交化得到/>
S3-6:固定B,D,W,V,X,更新Y,混合模型的目标函数等价于如下优化问题:
s.t.Y1n=0,YYT=nIf
具体Y的更新规则如下为:
其中Pd和Qd分别表示将矩阵通过SVD得到的左奇异矩阵和右奇异矩阵;/>表示SVD过程中零特征值对应的特征矩阵;此外,通过对[Qd1]进行施密特正交化得到/>
S3-7:重复S3-2到S3-6,直到满足收敛条件,训练过程停止,最后输出二值化的用户特征矩阵B和物品特征矩阵D。
6.根据权利要求1所述的方法,其特征在于,所述的收敛条件包括:目标函数值小于某个预设定阈值;或者,矩阵B和D中的每一位都不再发生变化。
7.根据权利要求1所述的方法,其特征在于,所述的根据所述二值化用户特征矩阵和物品特征矩阵预估用户对未观测物品的偏好分数,并将预估分值最高的一个或者多个未评分物品推荐给用户,包括:
根据所述二值化用户特征矩阵B和物品特征矩阵D重构评分矩阵并对重构评分矩阵/>中的重构分值逐行降序排列,所述重构分值代表了用户对物品偏好程度的预估分值,将预估分值最高的一个或者多个未评分物品推荐给用户。
CN201911165736.3A 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法 Active CN111104604B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911165736.3A CN111104604B (zh) 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911165736.3A CN111104604B (zh) 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法

Publications (2)

Publication Number Publication Date
CN111104604A CN111104604A (zh) 2020-05-05
CN111104604B true CN111104604B (zh) 2023-07-21

Family

ID=70421219

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911165736.3A Active CN111104604B (zh) 2019-11-25 2019-11-25 基于哈希学习的轻量级社会化推荐方法

Country Status (1)

Country Link
CN (1) CN111104604B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11836159B2 (en) 2019-10-11 2023-12-05 Visa International Service Association System, method, and computer program product for analyzing a relational database using embedding learning
CN113377973B (zh) * 2021-06-10 2022-06-14 电子科技大学 一种基于对抗哈希的物品推荐方法
CN113627598B (zh) * 2021-08-16 2022-06-07 重庆大学 一种用于加速推荐的孪生自编码器神经网络算法及系统
CN113887719B (zh) * 2021-09-13 2023-04-28 北京三快在线科技有限公司 一种模型压缩方法及装置
CN114049166B (zh) * 2021-10-12 2024-04-30 华南理工大学 基于离散因子分解机的物品推荐方法
CN114564742B (zh) * 2022-02-18 2024-05-14 北京交通大学 一种基于哈希学习的轻量化联邦推荐方法
CN116401458B (zh) * 2023-04-17 2024-01-09 南京工业大学 基于Lorenz混沌自适应的推荐方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321221B1 (en) * 1998-07-17 2001-11-20 Net Perceptions, Inc. System, method and article of manufacture for increasing the user value of recommendations
CN107122411A (zh) * 2017-03-29 2017-09-01 浙江大学 一种基于离散多视图哈希的协同过滤推荐方法
CN110321494A (zh) * 2019-06-26 2019-10-11 北京交通大学 基于矩阵分解与网络嵌入联合模型的社会化推荐方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6321221B1 (en) * 1998-07-17 2001-11-20 Net Perceptions, Inc. System, method and article of manufacture for increasing the user value of recommendations
CN107122411A (zh) * 2017-03-29 2017-09-01 浙江大学 一种基于离散多视图哈希的协同过滤推荐方法
CN110321494A (zh) * 2019-06-26 2019-10-11 北京交通大学 基于矩阵分解与网络嵌入联合模型的社会化推荐方法

Also Published As

Publication number Publication date
CN111104604A (zh) 2020-05-05

Similar Documents

Publication Publication Date Title
CN111104604B (zh) 基于哈希学习的轻量级社会化推荐方法
CN110321494B (zh) 基于矩阵分解与网络嵌入联合模型的社会化推荐方法
CN110929164B (zh) 一种基于用户动态偏好与注意力机制的兴趣点推荐方法
Lee et al. Formnet: Structural encoding beyond sequential modeling in form document information extraction
Wang et al. A deep convolutional neural network for topology optimization with perceptible generalization ability
CN109635204A (zh) 基于协同过滤和长短记忆网络的在线推荐系统
CN110347932B (zh) 一种基于深度学习的跨网络用户对齐方法
CN108921657B (zh) 一种基于知识增强记忆网络的序列推荐方法
CN111079409B (zh) 一种利用上下文和方面记忆信息的情感分类方法
CN109389151A (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
CN112215604A (zh) 交易双方关系信息识别方法及装置
Yang et al. A surrogate-assisted particle swarm optimization algorithm based on efficient global optimization for expensive black-box problems
Cho et al. Adversarial tableqa: Attention supervision for question answering on tables
Wu et al. Estimating fund-raising performance for start-up projects from a market graph perspective
CN114298783A (zh) 基于矩阵分解融合用户社交信息的商品推荐方法及系统
Wang et al. Session-based recommendation with time-aware neural attention network
Kang et al. Multitype drug interaction prediction based on the deep fusion of drug features and topological relationships
Liu et al. Job and employee embeddings: A joint deep learning approach
Luan et al. LRP‐based network pruning and policy distillation of robust and non‐robust DRL agents for embedded systems
Peng et al. Entropy chain multi-label classifiers for traditional medicine diagnosing Parkinson's disease
Liang et al. A normalizing flow-based co-embedding model for attributed networks
Park et al. Additive ensemble neural networks
CN115344794A (zh) 一种基于知识图谱语义嵌入的旅游景点推荐方法
Ma et al. Deep multi-attributed-view graph representation learning
Ji et al. Tri-objective optimization-based cascade ensemble pruning for deep forest

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant