CN110321476B - 基于局部敏感哈希的并行矩阵分解计算实现方法 - Google Patents
基于局部敏感哈希的并行矩阵分解计算实现方法 Download PDFInfo
- Publication number
- CN110321476B CN110321476B CN201910428131.2A CN201910428131A CN110321476B CN 110321476 B CN110321476 B CN 110321476B CN 201910428131 A CN201910428131 A CN 201910428131A CN 110321476 B CN110321476 B CN 110321476B
- Authority
- CN
- China
- Prior art keywords
- gpu
- item
- cpu
- implementation method
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004364 calculation method Methods 0.000 title claims abstract description 63
- 239000011159 matrix material Substances 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 10
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 claims abstract 2
- 230000006870 function Effects 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 16
- 206010033864 Paranoia Diseases 0.000 claims description 3
- 208000027099 Paranoid disease Diseases 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000001133 acceleration Effects 0.000 description 5
- 230000004927 fusion Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2255—Hash tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Data Mining & Analysis (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供了一种基于局部敏感哈希的并行矩阵分解计算实现方法。所述方法包括如下步骤:根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi及邻域模型因子w和隐式反馈因子c,并分配CPU和GPU的内存空间;将CPU内存数据转移到GPU的全局内存;通过GPU编程语言CUDA分别实现对每个项目的评分计算其哈希值、对多次哈希值都相等的项目两两计算相似度值,计算每个项目的最相似的TOP‑K个相似项目及对bu、bi、pu、qi、w和c进行更新;根据所需精度要求确定学习速率以及迭代次数;将GPU全局内存数据转移到CPU内存;处理结果展示。与相关技术相比,本发明的基于局部敏感哈希的并行矩阵分解计算实现方法提高计算效率。
Description
技术领域
本发明涉及信息推送技术领域,尤其涉及一种基于局部敏感哈希的并行矩阵分解计算实现方法。
背景技术
近年来,随着电子商务的兴起,推荐系统得到了更为广泛的应用,同时也为推荐系统的研究注入了新的活力,例如Amazon、eBay、淘宝网都采用了智能推荐系统来为用户提供个性化的推荐服务。高质量的推荐能够增加用户对网站的信任度,使用户产生依赖心理,提高用户的忠诚度。除了在电子商务领域的应用之外,随着个性化的信息服务逐渐成为web应用技术的热点,推荐系统在新闻、电影、书籍、微博等的个性化推荐中也取得了不同程度的成功。近两年来,在新兴的web应用中,社交网络(微博、twitter、facebook、google plus)的发展尤为迅速,社交网络实际为用户提供了一个新闻发布、即时通信和在线交友的平台。
为了建立推荐系统,其需要比较不同的对象:项目与用户。现有技术中有两种主要的方法来促进这种比较分别为:邻域方法和隐藏因子模型。
邻域方法集中于计算项目之间或者用户之间的关系。基于项目的方法为基于同一用户对相似项目的评级来评估用户对项目的偏好,在某种意义上,这些方法通过将用户看作额定项目的篮子来将用户转换到项目空间。这样,我们不再需要将用户与项目进行比较,而是直接将项目与项目相关联。
隐藏因子模型,例如奇异值分解(SVD),包括通过将项目和用户转换到相同的隐藏因子空间,从而使得它们直接可比较的替代方法。潜在空间试图通过描述产品和用户根据用户反馈自动推断的因素来解释评级。例如,当产品是电影时,因子可能是明显的维度,如喜剧与戏剧、动作片或动画片;不好理解的维度,如角色发展的深度;或者是完全不可理解的维度。
在结合两者的融合推荐系统模型中,不仅要计算项目的两两之间的相似度,这有着巨大但不必要的计算量;同时在单线程计算矩阵分解时十分耗时且有着部分冗余的计算量。
因此,有必要提供一种新的基于局部敏感哈希的并行矩阵分解计算实现方法来解决上述问题。
发明内容
针对相关技术的推荐系统由于要计算项目的两两之间的相似度,从而有着巨大但不必要的计算量,同时由于在单线程计算矩阵分解时十分耗时且有着部分冗余的计算量的技术问题,本发明提供了一种能有效缩短计算时间、提高计算效率的基于局部敏感哈希的并行矩阵分解计算实现方法。
一种基于局部敏感哈希的并行矩阵分解计算实现方法,其包括如下步骤:
S1、根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi及邻域模型因子w和隐式反馈因子c,并分配CPU和GPU的内存空间;
S2、将CPU内存数据转移到GPU的全局内存;
S3、通过GPU编程语言CUDA分别实现对每个项目的评分计算多次其哈希值、对哈希值都相等的项目两两计算相似度值,计算每个项目的最相似的TOP-K个相似项目及对bu、bi、pu、qi、w和c进行更新;
S4、根据所需精度要求确定学习速率γ以及迭代次数;
S5、迭代结束后,将GPU全局内存数据转移到CPU内存;
S6、处理结果展示。
优选的,所述步骤S3中LSH计算公式为:
优选的,所述步骤S3中相似度计算公式为:
其中ρij为Pearson相关系数,nij为项目i和项目j都有评分的用户数目。
优选的,所述步骤S3中稀疏矩阵分解更新公式为:
bu←bu+γ1(eu,i-λ1bu)
bi←bi+γ2(eu,i-λ2bi)
pu←pu+γ3(eu,i·qi-λ3pu)
qi←qi+γ4(eu,i·pu-λ4qi)
其中:λ为防止过拟合的正则化参数,γ为每个参数的学习速率,
Sk(i)为与项目i最相似的k个项目,R(u)为用户u有评分的项目,N(u)为用户u未评分的项目。
优选的,所述步骤S1中为利用Malloc函数以及cudaMalloc函数分别进行分配CPU与GPU内存空间。
优选的,所述步骤S2中为通过cudaMemcpyHostToDevice函数将CPU内存数据转移到GPU的全局内存。
优选的,所述步骤S5中为通过cudaMemcpyDeviceToHost函数将GPU全局内存数据转移到CPU内存。
优选的,所述步骤S5中将GPU全局内存数据转移到CPU内存后,还包括通过cudaFree函数释放GPU内存空间。
优选的,所述步骤S6中处理结果展示后,还包括通过free函数释放CPU内存空间。
与相关技术相比,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法可以充分利用系统的硬件资源,从实际操作层面验证了相似度计算和融合矩阵分解模型的并行化计算方式,从而显著提升了整个推荐系统的效率,也就是说,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过利用基于局部敏感哈希的并行矩阵分解计算达到高效率、高稳定和高精度的要求。
附图说明
图1为本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法的流程图;
图2为图1所示步骤S3的具体流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种基于局部敏感哈希的并行矩阵分解计算实现方法,所述基于局部敏感哈希的并行矩阵分解计算实现方法通过在GPU上应用局部敏感哈希加速相似度的计算,并行实现稀疏矩阵的分解。通过在GPU上实现哈希值的计算、相似度的计算、相似度TOP-K计算和稀疏矩阵分解,不仅大大节省了相似度的计算时间,而且能够提高整个矩阵分解的计算效率,整个方法既能满足推荐系统的一般性要求,同时也能在增加用户和项目时快速进行扩展,且适用于多种推荐系统。
可以理解的是,在融合推荐系统模型的前提下,并行算法的目标在于最小化更新每个评分的运行时间,其工作重点在通过将密集型计算过程转移到GPU上较多线程执行来优化更新每个评分的应用程序。与CPU上多线程的融合推荐系统模型并行不同,GPU上更新可以在较CPU上百倍甚至千倍的线程上进行密度函数、平衡态分布函数以及参数计算,而且CPU和GPU上的相互通信时间代价是固定的。
请结合参阅图1。本发明提供了一种基于局部敏感哈希的并行矩阵分解计算实现方法,其包括如下步骤:
步骤S1、根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi(皆为f维向量,低秩f)及邻域模型因子w和隐式反馈因子c,分配CPU和GPU的内存空间;
在本实施例中,所述评分矩阵表示用户对项目(项目可以理解为具体的商品)评分,通过预先收集数据,从而构建所述评分矩阵,所述评分矩阵的构建可通过任意现有技术实现。
具体的,所述步骤S1中分配CPU和GPU的内存空间为利用Malloc函数以及cudaMalloc函数分别进行分配CPU与GPU内存空间。
步骤S2、将CPU内存数据转移到GPU的全局内存(Global memory);
具体的,所述步骤S2中将CPU内存数据转移到GPU的全局内存为通过cudaMemcpyHostToDevice函数将CPU内存数据转移到GPU的全局内存。
步骤S3、通过GPU编程语言CUDA分别实现LSH计算内核、相似度计算内核、TOP-K计算内核和稀疏矩阵分解内核,所述LSH计算内核用于对每个项目的评分多次计算其哈希值,所述相似度计算内核用于对哈希值都相等的项目两两计算相似度值,所述TOP-K计算内核用于计算每个项目的最相似的K个相似项目,所述稀疏矩阵分解内核用于对bu、bi、pu、qi、w和c进行更新;
请结合参阅图2。具体的,所述步骤S3包括如下步骤:
步骤S3.1、对每个项目计算多次其哈希值;
所述步骤S3.1中LSH(Locality-Sensitive Hashing)计算公式为:
步骤S3.2、对哈希值都相等的项目两两计算相似度;
所述步骤S3.2中相似度计算公式为:
其中ρij为Pearson相关系数,nij为项目i和项目j都有评分的用户数目。
步骤S3.3、计算每个项目的最相似的TOP-K个相似项目;
步骤S3.4、参数更新;
所述步骤S34中稀疏矩阵分解更新公式为:
bu←bu+γ1(eu,i-λ1bu)
bi←bi+γ2(eu,i-λ2bi)
pu←pu+γ3(eu,i·qi-λ3pu)
qi←qi+γ4(eu,i·pu-λ4qi)
其中:λ为防止过拟合的正则化参数,γ为每个参数的学习速率(每个参数的学习速率不同),
Sk(i)为与项目i最相似的k个项目,R(u)为用户u有评分的项目,N(u)为用户u未评分的项目。
步骤S4、根据所需精度要求确定学习速率γ以及迭代次数。
优选的,所述步骤S4中还可以加入正则化参数λ;
所述学习效率γ影响精度提升速度。
步骤S5、迭代结束后,将GPU全局内存数据转移到CPU内存;
具体的,所述步骤S5中将GPU全局内存数据转移到CPU内存为通过cudaMemcpyDeviceToHost函数将GPU全局内存数据转移到CPU内存。
优选的,所述步骤S5中将GPU全局内存数据转移到CPU内存后,还包括通过cudaFree函数释放GPU内存空间。
S6、处理结果展示。
所述处理结果展示包括对CPU内存数据进行处理并保存到输出数据文件。
优选的,所述步骤S6中处理结果展示后还包括通过free函数释放CPU内存空间。
优选的,所述基于局部敏感哈希的并行矩阵分解计算实现方法在步骤S1之前还包括:
步骤S0、搭建CUDA运行环境。
具体的,所述步骤S0包括如下步骤:
S0.1、安装对应NVIDIA显卡驱动;
在本实施例中,采用NVIDIA的P100显卡。
S0.2、安装CUDASDK;
S0.3、配置运行时参数。
可以理解的是,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过主机端(CPU)调用设备端(GPU)的内核进行计算,实现对项目哈希值的计算、相似度的计算、TOP-K的计算以及参数更新。而对于整个并行计算的性能指标可通过加速比以及每秒钟更新评分值进行测评,具体的计算公式如下:
并行算法加速比=串行算法运算时间/并行算法运算时间;
每秒钟更新评分数=每次迭代更新评分数*迭代次数/并行计算时间;
通过分别计算局部敏感哈希下计算相似度和矩阵分解在GPU下的加速比,最终可得出的相似度计算加速比为5.1、矩阵分解的加速度比为10。
同时另一个性能指标每秒钟更新评分数,通过不同因子低秩f和不同TOP-K以及不同线程的情形下进行实际计算,可以得出对应于具体的NVIDIA显卡而言,低秩f和k以及线程数的选取将很大影响此性能指标。特别的,在本实施例中,对于NVIDIA的P100显卡而言,当低秩f为128,k为256,线程数为128时,我们可得出的每秒钟更新评分数为2.15*107。这表明程序的运行性能将得到很大的提高,从而对显卡的硬件资源也得到充分的利用。也就是说,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法极大的提升了对硬件资源的利用,同时也增加了计算效率。
为了便于理解,举例而言,本实施例中采用Netflix数据集,用户数为480189,项目数为17770,评分数为99072112,通过所述基于局部敏感哈希的并行矩阵分解计算实现方法更新。在NVIDIA的P100显卡下,当低秩为128,k为256,线程数为128时,我们每次迭代所花费的时间为4.6S。与相关技术相比,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法的效果是在达到所需精度的情况下,基于NVIDIA P100 GPU上更新速度优于CPU更新,平均加速比为10。
本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过在NVIDIA的GPU上进行运算基于局部敏感哈希的相似度计算减少了80%以上的计算量,并且应用NVIDIA显卡的GPU上统一计算设备编程架构(CUDA)相比较CPU上将所用时间减少了75%。
同时应用NVIDIA显卡的GPU上统一计算设备编程架构(CUDA)实现矩阵分解时间为CPU上矩阵分解时间的十分之一。
本发明提供的基于局部敏感哈希额并行矩阵分解计算实现方法不仅可大大节省相似度的计算时间,而且能够提高整个矩阵分解的计算效率。
与相关技术相比,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法可以充分利用系统的硬件资源,从实际操作层面验证了相似度计算和融合矩阵分解模型的并行化计算方式,从而显著提升了整个推荐系统的效率,也就是说,本发明提供的基于局部敏感哈希的并行矩阵分解计算实现方法通过利用基于局部敏感哈希的并行矩阵分解计算达到高效率、高稳定和高精度的要求。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (6)
1.一种基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,包括如下步骤:
S1、根据评分矩阵计算评分平均值u,随机初始化用户偏执项bu、项目偏执项bi、用户因子pu、项目因子qi及邻域模型因子w和隐式反馈因子c,并分配CPU和GPU的内存空间;
S2、将CPU内存数据转移到GPU的全局内存;
S3、通过GPU编程语言CUDA分别实现对每个项目的评分多次计算其哈希值、对哈希值都相等的项目两两计算相似度值,计算每个项目的最相似的TOP-K个相似项目及对bu、bi、pu、qi、w和c进行更新,其中当对每个项目计算多次其哈希值时,LSH(Locality-SensitiveHashing)计算公式为:
其中ρij为Pearson相关系数,nij为项目i和项目j都有评分的用户数目,当对参数更新时,稀疏矩阵分解更新公式为:
bu←bu+γ1(eu,i-λ1bu)
bi←bi+γ2(eu,i-λ2bi)
pu←pu+γ3(eu,i·qi-λ3pu)
qi←qi+γ4(eu,i·pu-λ4qi)
其中:λ为防止过拟合的正则化参数,γ为每个参数的学习速率(每个参数的学习速率不同),
Sk(i)为与项目i最相似的k个项目,R(u)为用户u有评分的项目,N(u)为用户u未评分的项目;
S4、根据所需精度要求确定学习速率γ以及迭代次数;
S5、迭代结束后,将GPU全局内存数据转移到CPU内存;
S6、处理结果展示。
2.根据权利要求1所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S1中为利用Malloc函数以及cudaMalloc函数分别进行分配CPU与GPU内存空间。
3.根据权利要求2所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S2中为通过cudaMemcpyHostToDevice函数将CPU内存数据转移到GPU的全局内存。
4.根据权利要求3所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S5中为通过cudaMemcpyDeviceToHost函数将GPU全局内存数据转移到CPU内存。
5.根据权利要求4所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S5中将GPU全局内存数据转移到CPU内存后,还包括通过cudaFree函数释放GPU内存空间。
6.根据权利要求5所述的基于局部敏感哈希的并行矩阵分解计算实现方法,其特征在于,所述步骤S6中处理结果展示后,还包括通过free函数释放CPU内存空间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910428131.2A CN110321476B (zh) | 2019-05-21 | 2019-05-21 | 基于局部敏感哈希的并行矩阵分解计算实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910428131.2A CN110321476B (zh) | 2019-05-21 | 2019-05-21 | 基于局部敏感哈希的并行矩阵分解计算实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110321476A CN110321476A (zh) | 2019-10-11 |
CN110321476B true CN110321476B (zh) | 2021-04-02 |
Family
ID=68113298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910428131.2A Active CN110321476B (zh) | 2019-05-21 | 2019-05-21 | 基于局部敏感哈希的并行矩阵分解计算实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110321476B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114943041B (zh) * | 2022-05-17 | 2024-07-02 | 重庆邮电大学 | 一种基于差分隐私的隐式反馈协同过滤推荐方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152614B2 (en) * | 2010-03-12 | 2015-10-06 | Local Corporation | System and method for bulk web domain generation and management |
CN106846106A (zh) * | 2017-01-16 | 2017-06-13 | 南京师范大学 | 一种图构建框架下的矩阵分解推荐方法 |
CN108600246A (zh) * | 2018-05-04 | 2018-09-28 | 浙江工业大学 | 一种基于knn算法的网络入侵检测并行化加速方法 |
-
2019
- 2019-05-21 CN CN201910428131.2A patent/CN110321476B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9152614B2 (en) * | 2010-03-12 | 2015-10-06 | Local Corporation | System and method for bulk web domain generation and management |
CN106846106A (zh) * | 2017-01-16 | 2017-06-13 | 南京师范大学 | 一种图构建框架下的矩阵分解推荐方法 |
CN108600246A (zh) * | 2018-05-04 | 2018-09-28 | 浙江工业大学 | 一种基于knn算法的网络入侵检测并行化加速方法 |
Non-Patent Citations (2)
Title |
---|
多指标推荐的全局邻域模型;吕红亮等;《西安交通大学学报》;20121130;第98-105页 * |
推荐系统中协同过滤算法及隐私保护机制研究;姚觐轲;《万方数据》;20160831;第1-65页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110321476A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11062226B2 (en) | Determining a likelihood of a user interaction with a content element | |
US10839255B2 (en) | Load-balancing training of recommender system for heterogeneous systems | |
US11531926B2 (en) | Method and apparatus for generating machine learning model by using distributed computing framework | |
US8990209B2 (en) | Distributed scalable clustering and community detection | |
US10235403B2 (en) | Parallel collective matrix factorization framework for big data | |
CN111143686B (zh) | 资源推荐方法及装置 | |
US11315032B2 (en) | Method and system for recommending content items to a user based on tensor factorization | |
US20230102337A1 (en) | Method and apparatus for training recommendation model, computer device, and storage medium | |
CN108230058A (zh) | 产品推荐方法及系统 | |
US11403700B2 (en) | Link prediction using Hebbian graph embeddings | |
US20220012306A1 (en) | Information processing device, information processing system, information processing method, and storage medium | |
US20220012307A1 (en) | Information processing device, information processing system, information processing method, and storage medium | |
WO2019019926A1 (zh) | 系统参数的优化方法、装置及设备、可读介质 | |
CN113609345B (zh) | 目标对象关联方法和装置、计算设备以及存储介质 | |
WO2023087914A1 (zh) | 推荐内容的选择方法、装置、设备、存储介质及程序产品 | |
US9785678B1 (en) | Determining taxonomy nodes for browsing | |
CN110321476B (zh) | 基于局部敏感哈希的并行矩阵分解计算实现方法 | |
CN114493674A (zh) | 一种广告点击率预测模型及方法 | |
Bauckhage et al. | Kernel archetypal analysis for clustering web search frequency time series | |
Deng et al. | Label propagation on k-partite graphs with heterophily | |
CN116975427A (zh) | 确定对象对资源信息的感兴趣程度的方法、装置和计算设备 | |
CN115456708A (zh) | 推荐模型的训练方法、装置、电子设备和存储介质 | |
WO2023060578A1 (en) | Systems and methods for multi-task and multi-scene unified ranking | |
CN112559864B (zh) | 一种基于知识图谱增强的双线性图网络推荐方法和系统 | |
US10262021B2 (en) | Methods and systems for processing data using QR factorization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CB03 | Change of inventor or designer information | ||
CB03 | Change of inventor or designer information |
Inventor after: Yang Wangdong Inventor after: Li Zixuan Inventor after: Zhou Xu Inventor after: Li Kenli Inventor after: Li Keqin Inventor before: Yang Wangdong Inventor before: Li Zixuan Inventor before: Zhou Xu Inventor before: Li Kenli Inventor before: Li Keqin Inventor before: Liao Xiangke |