CN110321476B - 基于局部敏感哈希的并行矩阵分解计算实现方法 - Google Patents

基于局部敏感哈希的并行矩阵分解计算实现方法 Download PDF

Info

Publication number
CN110321476B
CN110321476B CN201910428131.2A CN201910428131A CN110321476B CN 110321476 B CN110321476 B CN 110321476B CN 201910428131 A CN201910428131 A CN 201910428131A CN 110321476 B CN110321476 B CN 110321476B
Authority
CN
China
Prior art keywords
gpu
item
cpu
implementation method
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910428131.2A
Other languages
English (en)
Other versions
CN110321476A (zh
Inventor
阳王东
李子轩
周旭
李肯立
李克勤
廖湘科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN201910428131.2A priority Critical patent/CN110321476B/zh
Publication of CN110321476A publication Critical patent/CN110321476A/zh
Application granted granted Critical
Publication of CN110321476B publication Critical patent/CN110321476B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2255Hash tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种基于局部敏感哈希的并行矩阵分解计算实现方法。所述方法包括如下步骤:根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi及邻域模型因子w和隐式反馈因子c,并分配CPU和GPU的内存空间;将CPU内存数据转移到GPU的全局内存;通过GPU编程语言CUDA分别实现对每个项目的评分计算其哈希值、对多次哈希值都相等的项目两两计算相似度值,计算每个项目的最相似的TOP‑K个相似项目及对bu、bi、pu、qi、w和c进行更新;根据所需精度要求确定学习速率以及迭代次数;将GPU全局内存数据转移到CPU内存;处理结果展示。与相关技术相比,本发明的基于局部敏感哈希的并行矩阵分解计算实现方法提高计算效率。

Description

基于局部敏感哈希的并行矩阵分解计算实现方法
技术领域
本发明涉及信息推送技术领域,尤其涉及一种基于局部敏感哈希的并行矩阵分解计算实现方法。
背景技术
近年来,随着电子商务的兴起,推荐系统得到了更为广泛的应用,同时也为推荐系统的研究注入了新的活力,例如Amazon、eBay、淘宝网都采用了智能推荐系统来为用户提供个性化的推荐服务。高质量的推荐能够增加用户对网站的信任度,使用户产生依赖心理,提高用户的忠诚度。除了在电子商务领域的应用之外,随着个性化的信息服务逐渐成为web应用技术的热点,推荐系统在新闻、电影、书籍、微博等的个性化推荐中也取得了不同程度的成功。近两年来,在新兴的web应用中,社交网络(微博、twitter、facebook、google plus)的发展尤为迅速,社交网络实际为用户提供了一个新闻发布、即时通信和在线交友的平台。
为了建立推荐系统,其需要比较不同的对象:项目与用户。现有技术中有两种主要的方法来促进这种比较分别为:邻域方法和隐藏因子模型。
邻域方法集中于计算项目之间或者用户之间的关系。基于项目的方法为基于同一用户对相似项目的评级来评估用户对项目的偏好,在某种意义上,这些方法通过将用户看作额定项目的篮子来将用户转换到项目空间。这样,我们不再需要将用户与项目进行比较,而是直接将项目与项目相关联。
隐藏因子模型,例如奇异值分解(SVD),包括通过将项目和用户转换到相同的隐藏因子空间,从而使得它们直接可比较的替代方法。潜在空间试图通过描述产品和用户根据用户反馈自动推断的因素来解释评级。例如,当产品是电影时,因子可能是明显的维度,如喜剧与戏剧、动作片或动画片;不好理解的维度,如角色发展的深度;或者是完全不可理解的维度。
在结合两者的融合推荐系统模型中,不仅要计算项目的两两之间的相似度,这有着巨大但不必要的计算量;同时在单线程计算矩阵分解时十分耗时且有着部分冗余的计算量。
因此,有必要提供一种新的基于局部敏感哈希的并行矩阵分解计算实现方法来解决上述问题。
发明内容
针对相关技术的推荐系统由于要计算项目的两两之间的相似度,从而有着巨大但不必要的计算量,同时由于在单线程计算矩阵分解时十分耗时且有着部分冗余的计算量的技术问题,本发明提供了一种能有效缩短计算时间、提高计算效率的基于局部敏感哈希的并行矩阵分解计算实现方法。
一种基于局部敏感哈希的并行矩阵分解计算实现方法,其包括如下步骤:
S1、根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi及邻域模型因子w和隐式反馈因子c,并分配CPU和GPU的内存空间;
S2、将CPU内存数据转移到GPU的全局内存;
S3、通过GPU编程语言CUDA分别实现对每个项目的评分计算多次其哈希值、对哈希值都相等的项目两两计算相似度值,计算每个项目的最相似的TOP-K个相似项目及对bu、bi、pu、qi、w和c进行更新;
S4、根据所需精度要求确定学习速率γ以及迭代次数;
S5、迭代结束后,将GPU全局内存数据转移到CPU内存;
S6、处理结果展示。
优选的,所述步骤S3中LSH计算公式为:
Figure BDA0002066404970000031
其中
Figure BDA0002066404970000032
为高维向量,
Figure BDA0002066404970000033
为服从高斯分布的随机向量,w为桶的大小,b为服从0到w的均匀分布的随机变量。
优选的,所述步骤S3中相似度计算公式为:
Figure BDA0002066404970000034
其中ρij为Pearson相关系数,nij为项目i和项目j都有评分的用户数目。
优选的,所述步骤S3中稀疏矩阵分解更新公式为:
bu←bu1(eu,i1bu)
bi←bi2(eu,i2bi)
pu←pu3(eu,i·qi3pu)
qi←qi4(eu,i·pu4qi)
Figure BDA0002066404970000035
Figure BDA0002066404970000036
Figure BDA0002066404970000037
Figure BDA0002066404970000038
其中:λ为防止过拟合的正则化参数,γ为每个参数的学习速率,
Figure BDA0002066404970000039
Figure BDA00020664049700000310
Figure BDA00020664049700000311
Figure BDA00020664049700000312
Figure BDA0002066404970000041
Sk(i)为与项目i最相似的k个项目,R(u)为用户u有评分的项目,N(u)为用户u未评分的项目。
优选的,所述步骤S1中为利用Malloc函数以及cudaMalloc函数分别进行分配CPU与GPU内存空间。
优选的,所述步骤S2中为通过cudaMemcpyHostToDevice函数将CPU内存数据转移到GPU的全局内存。
优选的,所述步骤S5中为通过cudaMemcpyDeviceToHost函数将GPU全局内存数据转移到CPU内存。
优选的,所述步骤S5中将GPU全局内存数据转移到CPU内存后,还包括通过cudaFree函数释放GPU内存空间。
优选的,所述步骤S6中处理结果展示后,还包括通过free函数释放CPU内存空间。
与相关技术相比,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法可以充分利用系统的硬件资源,从实际操作层面验证了相似度计算和融合矩阵分解模型的并行化计算方式,从而显著提升了整个推荐系统的效率,也就是说,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过利用基于局部敏感哈希的并行矩阵分解计算达到高效率、高稳定和高精度的要求。
附图说明
图1为本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法的流程图;
图2为图1所示步骤S3的具体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于局部敏感哈希的并行矩阵分解计算实现方法,所述基于局部敏感哈希的并行矩阵分解计算实现方法通过在GPU上应用局部敏感哈希加速相似度的计算,并行实现稀疏矩阵的分解。通过在GPU上实现哈希值的计算、相似度的计算、相似度TOP-K计算和稀疏矩阵分解,不仅大大节省了相似度的计算时间,而且能够提高整个矩阵分解的计算效率,整个方法既能满足推荐系统的一般性要求,同时也能在增加用户和项目时快速进行扩展,且适用于多种推荐系统。
可以理解的是,在融合推荐系统模型的前提下,并行算法的目标在于最小化更新每个评分的运行时间,其工作重点在通过将密集型计算过程转移到GPU上较多线程执行来优化更新每个评分的应用程序。与CPU上多线程的融合推荐系统模型并行不同,GPU上更新可以在较CPU上百倍甚至千倍的线程上进行密度函数、平衡态分布函数以及参数计算,而且CPU和GPU上的相互通信时间代价是固定的。
请结合参阅图1。本发明提供了一种基于局部敏感哈希的并行矩阵分解计算实现方法,其包括如下步骤:
步骤S1、根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi(皆为f维向量,低秩f)及邻域模型因子w和隐式反馈因子c,分配CPU和GPU的内存空间;
在本实施例中,所述评分矩阵表示用户对项目(项目可以理解为具体的商品)评分,通过预先收集数据,从而构建所述评分矩阵,所述评分矩阵的构建可通过任意现有技术实现。
具体的,所述步骤S1中分配CPU和GPU的内存空间为利用Malloc函数以及cudaMalloc函数分别进行分配CPU与GPU内存空间。
步骤S2、将CPU内存数据转移到GPU的全局内存(Global memory);
具体的,所述步骤S2中将CPU内存数据转移到GPU的全局内存为通过cudaMemcpyHostToDevice函数将CPU内存数据转移到GPU的全局内存。
步骤S3、通过GPU编程语言CUDA分别实现LSH计算内核、相似度计算内核、TOP-K计算内核和稀疏矩阵分解内核,所述LSH计算内核用于对每个项目的评分多次计算其哈希值,所述相似度计算内核用于对哈希值都相等的项目两两计算相似度值,所述TOP-K计算内核用于计算每个项目的最相似的K个相似项目,所述稀疏矩阵分解内核用于对bu、bi、pu、qi、w和c进行更新;
请结合参阅图2。具体的,所述步骤S3包括如下步骤:
步骤S3.1、对每个项目计算多次其哈希值;
所述步骤S3.1中LSH(Locality-Sensitive Hashing)计算公式为:
Figure BDA0002066404970000061
其中
Figure BDA0002066404970000062
为高维向量,
Figure BDA0002066404970000063
为服从高斯分布的随机向量,w为桶的大小,b为服从0到w的均匀分布的随机变量。
步骤S3.2、对哈希值都相等的项目两两计算相似度;
所述步骤S3.2中相似度计算公式为:
Figure BDA0002066404970000064
其中ρij为Pearson相关系数,nij为项目i和项目j都有评分的用户数目。
步骤S3.3、计算每个项目的最相似的TOP-K个相似项目;
步骤S3.4、参数更新;
所述步骤S34中稀疏矩阵分解更新公式为:
bu←bu1(eu,i1bu)
bi←bi2(eu,i2bi)
pu←pu3(eu,i·qi3pu)
qi←qi4(eu,i·pu4qi)
Figure BDA0002066404970000071
Figure BDA0002066404970000072
Figure BDA0002066404970000073
Figure BDA0002066404970000074
其中:λ为防止过拟合的正则化参数,γ为每个参数的学习速率(每个参数的学习速率不同),
Figure BDA0002066404970000075
Figure BDA0002066404970000076
Figure BDA0002066404970000077
Figure BDA0002066404970000078
Sk(i)为与项目i最相似的k个项目,R(u)为用户u有评分的项目,N(u)为用户u未评分的项目。
步骤S4、根据所需精度要求确定学习速率γ以及迭代次数。
优选的,所述步骤S4中还可以加入正则化参数λ;
所述学习效率γ影响精度提升速度。
步骤S5、迭代结束后,将GPU全局内存数据转移到CPU内存;
具体的,所述步骤S5中将GPU全局内存数据转移到CPU内存为通过cudaMemcpyDeviceToHost函数将GPU全局内存数据转移到CPU内存。
优选的,所述步骤S5中将GPU全局内存数据转移到CPU内存后,还包括通过cudaFree函数释放GPU内存空间。
S6、处理结果展示。
所述处理结果展示包括对CPU内存数据进行处理并保存到输出数据文件。
优选的,所述步骤S6中处理结果展示后还包括通过free函数释放CPU内存空间。
优选的,所述基于局部敏感哈希的并行矩阵分解计算实现方法在步骤S1之前还包括:
步骤S0、搭建CUDA运行环境。
具体的,所述步骤S0包括如下步骤:
S0.1、安装对应NVIDIA显卡驱动;
在本实施例中,采用NVIDIA的P100显卡。
S0.2、安装CUDASDK;
S0.3、配置运行时参数。
可以理解的是,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过主机端(CPU)调用设备端(GPU)的内核进行计算,实现对项目哈希值的计算、相似度的计算、TOP-K的计算以及参数更新。而对于整个并行计算的性能指标可通过加速比以及每秒钟更新评分值进行测评,具体的计算公式如下:
并行算法加速比=串行算法运算时间/并行算法运算时间;
每秒钟更新评分数=每次迭代更新评分数*迭代次数/并行计算时间;
通过分别计算局部敏感哈希下计算相似度和矩阵分解在GPU下的加速比,最终可得出的相似度计算加速比为5.1、矩阵分解的加速度比为10。
同时另一个性能指标每秒钟更新评分数,通过不同因子低秩f和不同TOP-K以及不同线程的情形下进行实际计算,可以得出对应于具体的NVIDIA显卡而言,低秩f和k以及线程数的选取将很大影响此性能指标。特别的,在本实施例中,对于NVIDIA的P100显卡而言,当低秩f为128,k为256,线程数为128时,我们可得出的每秒钟更新评分数为2.15*107。这表明程序的运行性能将得到很大的提高,从而对显卡的硬件资源也得到充分的利用。也就是说,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法极大的提升了对硬件资源的利用,同时也增加了计算效率。
为了便于理解,举例而言,本实施例中采用Netflix数据集,用户数为480189,项目数为17770,评分数为99072112,通过所述基于局部敏感哈希的并行矩阵分解计算实现方法更新。在NVIDIA的P100显卡下,当低秩为128,k为256,线程数为128时,我们每次迭代所花费的时间为4.6S。与相关技术相比,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法的效果是在达到所需精度的情况下,基于NVIDIA P100 GPU上更新速度优于CPU更新,平均加速比为10。
本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过在NVIDIA的GPU上进行运算基于局部敏感哈希的相似度计算减少了80%以上的计算量,并且应用NVIDIA显卡的GPU上统一计算设备编程架构(CUDA)相比较CPU上将所用时间减少了75%。
同时应用NVIDIA显卡的GPU上统一计算设备编程架构(CUDA)实现矩阵分解时间为CPU上矩阵分解时间的十分之一。
本发明提供的基于局部敏感哈希额并行矩阵分解计算实现方法不仅可大大节省相似度的计算时间,而且能够提高整个矩阵分解的计算效率。
与相关技术相比,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法可以充分利用系统的硬件资源,从实际操作层面验证了相似度计算和融合矩阵分解模型的并行化计算方式,从而显著提升了整个推荐系统的效率,也就是说,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过利用基于局部敏感哈希的并行矩阵分解计算达到高效率、高稳定和高精度的要求。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,包括如下步骤:
S1、根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi及邻域模型因子w和隐式反馈因子c,并分配CPU和GPU的内存空间;
S2、将CPU内存数据转移到GPU的全局内存;
S3、通过GPU编程语言CUDA分别实现对每个项目的评分多次计算其哈希值、对哈希值都相等的项目两两计算相似度值,计算每个项目的最相似的TOP-K个相似项目及对bu、bi、pu、qi、w和c进行更新,其中当对每个项目计算多次其哈希值时,LSH(Locality-SensitiveHashing)计算公式为:
Figure FDA0002869462440000011
其中
Figure FDA0002869462440000012
为高维向量,
Figure FDA0002869462440000013
为服从高斯分布的随机向量,w为桶的大小,b为服从0到w的均匀分布的随机变量,其中当对哈希值都相等的项目两两计算时,相似度计算为:
Figure FDA0002869462440000014
其中ρij为Pearson相关系数,nij为项目i和项目j都有评分的用户数目,当对参数更新时,稀疏矩阵分解更新公式为:
bu←bu1(eu,i1bu)
bi←bi2(eu,i2bi)
pu←pu3(eu,i·qi3pu)
qi←qi4(eu,i·pu4qi)
Figure FDA0002869462440000021
Figure FDA0002869462440000022
Figure FDA0002869462440000023
Figure FDA0002869462440000024
其中:λ为防止过拟合的正则化参数,γ为每个参数的学习速率(每个参数的学习速率不同),
Figure FDA0002869462440000025
Figure FDA0002869462440000026
Figure FDA0002869462440000027
Figure FDA0002869462440000028
Sk(i)为与项目i最相似的k个项目,R(u)为用户u有评分的项目,N(u)为用户u未评分的项目;
S4、根据所需精度要求确定学习速率γ以及迭代次数;
S5、迭代结束后,将GPU全局内存数据转移到CPU内存;
S6、处理结果展示。
2.根据权利要求1所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S1中为利用Malloc函数以及cudaMalloc函数分别进行分配CPU与GPU内存空间。
3.根据权利要求2所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S2中为通过cudaMemcpyHostToDevice函数将CPU内存数据转移到GPU的全局内存。
4.根据权利要求3所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S5中为通过cudaMemcpyDeviceToHost函数将GPU全局内存数据转移到CPU内存。
5.根据权利要求4所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S5中将GPU全局内存数据转移到CPU内存后,还包括通过cudaFree函数释放GPU内存空间。
6.根据权利要求5所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S6中处理结果展示后,还包括通过free函数释放CPU内存空间。
CN201910428131.2A 2019-05-21 2019-05-21 基于局部敏感哈希的并行矩阵分解计算实现方法 Active CN110321476B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910428131.2A CN110321476B (zh) 2019-05-21 2019-05-21 基于局部敏感哈希的并行矩阵分解计算实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910428131.2A CN110321476B (zh) 2019-05-21 2019-05-21 基于局部敏感哈希的并行矩阵分解计算实现方法

Publications (2)

Publication Number Publication Date
CN110321476A CN110321476A (zh) 2019-10-11
CN110321476B true CN110321476B (zh) 2021-04-02

Family

ID=68113298

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910428131.2A Active CN110321476B (zh) 2019-05-21 2019-05-21 基于局部敏感哈希的并行矩阵分解计算实现方法

Country Status (1)

Country Link
CN (1) CN110321476B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114943041B (zh) * 2022-05-17 2024-07-02 重庆邮电大学 一种基于差分隐私的隐式反馈协同过滤推荐方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152614B2 (en) * 2010-03-12 2015-10-06 Local Corporation System and method for bulk web domain generation and management
CN106846106A (zh) * 2017-01-16 2017-06-13 南京师范大学 一种图构建框架下的矩阵分解推荐方法
CN108600246A (zh) * 2018-05-04 2018-09-28 浙江工业大学 一种基于knn算法的网络入侵检测并行化加速方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152614B2 (en) * 2010-03-12 2015-10-06 Local Corporation System and method for bulk web domain generation and management
CN106846106A (zh) * 2017-01-16 2017-06-13 南京师范大学 一种图构建框架下的矩阵分解推荐方法
CN108600246A (zh) * 2018-05-04 2018-09-28 浙江工业大学 一种基于knn算法的网络入侵检测并行化加速方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
多指标推荐的全局邻域模型;吕红亮等;《西安交通大学学报》;20121130;第98-105页 *
推荐系统中协同过滤算法及隐私保护机制研究;姚觐轲;《万方数据》;20160831;第1-65页 *

Also Published As

Publication number Publication date
CN110321476A (zh) 2019-10-11

Similar Documents

Publication Publication Date Title
US11062226B2 (en) Determining a likelihood of a user interaction with a content element
US10839255B2 (en) Load-balancing training of recommender system for heterogeneous systems
US11531926B2 (en) Method and apparatus for generating machine learning model by using distributed computing framework
US8990209B2 (en) Distributed scalable clustering and community detection
US10235403B2 (en) Parallel collective matrix factorization framework for big data
CN111143686B (zh) 资源推荐方法及装置
US11315032B2 (en) Method and system for recommending content items to a user based on tensor factorization
US20230102337A1 (en) Method and apparatus for training recommendation model, computer device, and storage medium
CN108230058A (zh) 产品推荐方法及系统
US11403700B2 (en) Link prediction using Hebbian graph embeddings
US20220012306A1 (en) Information processing device, information processing system, information processing method, and storage medium
US20220012307A1 (en) Information processing device, information processing system, information processing method, and storage medium
WO2019019926A1 (zh) 系统参数的优化方法、装置及设备、可读介质
CN113609345B (zh) 目标对象关联方法和装置、计算设备以及存储介质
WO2023087914A1 (zh) 推荐内容的选择方法、装置、设备、存储介质及程序产品
US9785678B1 (en) Determining taxonomy nodes for browsing
CN110321476B (zh) 基于局部敏感哈希的并行矩阵分解计算实现方法
CN114493674A (zh) 一种广告点击率预测模型及方法
Bauckhage et al. Kernel archetypal analysis for clustering web search frequency time series
Deng et al. Label propagation on k-partite graphs with heterophily
CN116975427A (zh) 确定对象对资源信息的感兴趣程度的方法、装置和计算设备
CN115456708A (zh) 推荐模型的训练方法、装置、电子设备和存储介质
WO2023060578A1 (en) Systems and methods for multi-task and multi-scene unified ranking
CN112559864B (zh) 一种基于知识图谱增强的双线性图网络推荐方法和系统
US10262021B2 (en) Methods and systems for processing data using QR factorization

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Yang Wangdong

Inventor after: Li Zixuan

Inventor after: Zhou Xu

Inventor after: Li Kenli

Inventor after: Li Keqin

Inventor before: Yang Wangdong

Inventor before: Li Zixuan

Inventor before: Zhou Xu

Inventor before: Li Kenli

Inventor before: Li Keqin

Inventor before: Liao Xiangke