CN108846479A - 基于rbm模型的推荐方法、rbm模型的训练方法及装置 - Google Patents

基于rbm模型的推荐方法、rbm模型的训练方法及装置 Download PDF

Info

Publication number
CN108846479A
CN108846479A CN201810771569.6A CN201810771569A CN108846479A CN 108846479 A CN108846479 A CN 108846479A CN 201810771569 A CN201810771569 A CN 201810771569A CN 108846479 A CN108846479 A CN 108846479A
Authority
CN
China
Prior art keywords
neuron
visible layer
hidden
offset parameter
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810771569.6A
Other languages
English (en)
Inventor
穆瑞辉
曾晓勤
相林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN201810771569.6A priority Critical patent/CN108846479A/zh
Publication of CN108846479A publication Critical patent/CN108846479A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明提供基于RBM模型的推荐方法、RBM模型的训练方法及装置,所述推荐方法包括:获取预设的用户对项目的评分区间;获取预先训练好的RBM模型;根据所述评分区间和所述预先训练好的RBM模型预测用户对与所述项目相关的项目的评分值;根据所述评分值生成与所述项目相关的项目的推荐列表。通过所述基于RBM模型的推荐方法,由于所述RBM模型能够很好的拟合数据,所以能解决个性化推荐方法中的数据稀疏性和冷启动问题,提高个性化推荐的准确度和精确度。

Description

基于RBM模型的推荐方法、RBM模型的训练方法及装置
技术领域
本发明涉及计算机技术领域,具体而言,涉及基于RBM模型的推荐方法、RBM模型的训练方法及装置。
背景技术
随着互联网和电子商务发展,个性化推荐运用于各式各样的平台或环境下,它以海量数据挖掘为基础,可以为顾客提供个性化的信息服务和决策支持。
随着个性化推荐的发展,越来越多的个性化推荐方法也随之出现,但是由于传统的个性化推荐方法中大多数基于学习的方法,存在数据稀疏性和冷启动问题,个性化推荐方法的准确度和精准度不高。
发明内容
为了克服上述现有技术中的不足,本发明提供一种基于RBM模型的推荐方法及装置、RBM模型的训练方法及装置。
为了实现上述目的,本发明实施例所提供的技术方案如下所示:
第一方面,本发明实施例提供一种基于RBM模型的推荐方法,所述方法包括:获取预设的用户对项目的评分区间;获取预先训练好的RBM模型;根据所述评分区间和所述预先训练好的RBM模型预测用户对与所述项目相关的项目的评分值;根据所述评分值生成与所述项目相关的项目的推荐列表。
通过所述基于RBM模型的推荐方法,由于所述RBM模型能够很好的拟合数据,能解决个性化推荐方法中的数据稀疏性和冷启动问题,提高个性化推荐的准确度和精确度。
进一步的,所述获取预先训练好的RBM模型,包括:
获取用户对所述项目的真实评分值;把所述真实评分值作为RBM模型中可见层神经元的输入样本对RBM模型进行训练。
进一步的,所述把所述真实评分值作为RBM模型中可见层神经元的输入样本对RBM进行训练的步骤包括:
初始化RBM模型中可见层神经元和隐层神经元之间的权重值,以及所述可见层神经元的偏置参数和所述隐层神经元的偏置参数;根据所述输入样本、所述权重值和所述偏置参数对所述隐层神经元和所述可见层神经元分别进行循环迭代;调整所述权重值、所述可见层神经元的偏置参数和所述隐层神经元的偏置参数根据调整后的所述权重值、所述可见层神经元的偏置参数和所述隐层神经元的偏置参数再次执行上述的所述循环迭代步骤。
进一步的,对所述隐层神经元和所述可见层神经元进行循环迭代的步骤包括:
循环迭代全部所述隐层神经元,计算每个所述隐层神经元的激活概率;根据循环迭代后的所述隐层神经元状态,反向循环迭代所述可见层神经元,计算每个所述可见层神经元的激活概率;根据循环迭代后的可见层神经元状态,再次反向循环迭代所述隐层神经元,计算每个所述隐层神经元的激活概率。
进一步的,所述计算每个所述隐层神经元的激活概率的步骤包括:
根据所述可见层神经元的值、所述隐层神经元的值、所述可见层神经元偏置参数、所述隐层神经元偏置参数、以及所述可见神经元和所述隐层神经元之间的权重值计算所述激活概率。
进一步的,调整所述权重值、所述可见层神经元的偏置参数和所述隐层神经元的偏置参数的步骤包括:
根据所述可见层神经元的值、所述隐层神经元的值和学习速率调整所述权重值;根据所述可见层神经元的值和学习速率调整所述可见层神经元的偏置参数;根据所述隐层神经元的值和学习速率调整所述隐层神经元的偏置参数。
所述基于RBM模型的推荐方法,解决了个性化推荐方法中的数据稀疏性和冷启动的问题,提高了推荐的准确度和精准度,降低了推荐的误差
第二方面,本发明实施例还提供一种RBM模型的训练方法,所述方法包括:
初始化模型中可见层神经元和隐层神经元之间的连接权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数;输入所述可见层神经元样本值;循环迭代所述隐层神经元,并计算所述隐层神经元的激活概率;根据所述循环迭代后的隐层神经元反向循环迭代所述可见层神经元,并计算所述可见层神经元的激活概率;根据所述反向循环迭代后的可见层神经元反向循环迭代所述隐层神经元,并计算所述反向迭代后的隐层神经元的激活概率;调整所述权重值、所述可见层神经元偏置参数和所述隐层神经元偏置参数;再次执行上述循环迭代步骤。
所述RBM模型的训练方法可以为所述个性化推荐方法提供训练好的RBM模型,提高个性化推荐方法的准确度和精确度。
通过所述RBM模型的训练方法,把所述RBM模型训练成适用于个性化推荐的模型,使个性化推荐可以基于所述RBM模型得到准确度和精确度高的个性化推荐。
第三方面,本发明实施例还提供一种基于RBM模型的推荐装置,所述装置包括:
获取模块:用于获取用户对项目的评分区间和训练好的RBM模型;处理模块:用于根据所述评分区间和所述训练好的RBM模型预测用户对与所述项目相关的项目的评分值;所述处理模块还用于根据所述评分值生成与所述项目相关的项目推荐列表。
第四方面,本发明实施例还提供一种RBM模型的训练装置,所述装置包括:
初始化模块:用于初始化模型中可见层神经元和隐层神经元之间的连接权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数;所述初始化模块还用于输入所述可见层神经元样本值;训练模块:用于循环迭代所述隐层神经元,并计算所述隐层神经元的激活概率;所述训练模块还用于根据所述循环迭代后的隐层神经元反向循环迭代所述可见层神经元,并计算所述可见层神经元的激活概率;所述训练模块还用于根据所述反向循环迭代后的可见层神经元反向循环迭代所述隐层神经元,并计算所述反向迭代后的隐层神经元的激活概率;所述训练模块还用于调整所述权重值、所述可见层神经元偏置参数和所述隐层神经元偏置参数。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举本发明实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍。应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的RBM模型的训练方法流程图;
图2为本发明实施例提供的基于RBM模型的推荐方法流程图;
图3为本发明实施例提供的RBM模型训练装置示意图;
图4为本发明实施例提供的基于RBM模型的推荐装置示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
下面结合附图,对本发明的一些实施方式作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参照图1,为本发明实施例提供的RBM模型的训练方法,通过所述训练方法,可以将所述RBM模型预先训练好,所述训练方法包括:
步骤200:获取用户对项目的真实评分值。其中,所述真实评分值表示用户对所述项目的评分值,所述用户真实评分值可以包括大量的评分数据,不同的评分数据代表用户对不同项目的评分值。
在执行所述步骤200后,把所述真实评分值作为RBM模型中可见层神经元的输入样本对RBM进行训练。所述输入样本中包含大量的评分数据,所述RBM模型中有可见层神经元和隐层神经元,所述可见层神经元连接所述隐层神经元。
可选的,把所述真实评分值作为RBM模型中可见层神经元的输入样本对RBM模型进行训练的实现方式可以有多种,为了充分利用所述RBM模型能够拟合数据的优点,本发明实施例采用其中一种可能的实现方式对所述训练方法的步骤作进一步的描述:
步骤201:初始化权重值和偏置参数。所述权重值为所述可见层神经元和所述隐层神经元之间的权重值,所述偏置参数分别为所述可见层神经元的偏置参数和所述隐层神经元的偏置参数。所述权重值可以表征所述评分数据中各评分数据所占工作量的大小及影响整体能力的大小。其中,所述可见层神经元的偏置参数可以初始化为0,所述隐层神经元的偏置参数也可以初始化为0,所述权重值也可以初始化为0。
步骤202:把用户项目的真实评分值输入到可见层神经元。
其中,在开始执行步骤202后,即为一个训练周期的开始,所述训练周期的可以依据评分数据的量确定,所述评分数据越多,可以设置较长的训练周期,以达到较好的训练结果;若所述评分数据较少,所述训练周期可以适当减小。
步骤203:隐层神经元循环迭代,计算其激活概率。
所述隐层神经元的激活概率根据所述可见层神经元的值、所述隐层神经元的值、所述隐层神经元偏置参数、以及所述权重值计算。一种可能的实现方式为:可以通过公式计算所述隐层神经元的激活概率,其中f函数是sigmoid函数,cj是隐层第j个神经元的偏置参数,wij是连接隐层神经元j和可见层神经元i之间的权重值,bi是可见层第i个神经元的偏置参数,θ={wij,bi,cj},hj是所述隐层第j个神经元的值,vi是所述可见层第i个神经元的值。
在具体的循环迭代过程中,应该注意到的是,所述计算激活概率是每一次循环迭代中计算的,循环迭代所述隐层神经元的过程相当于是将上述所述计算所述激活概率的参数不断带入所述计算公式中,从而实现一个循环迭代的过程,所述隐层神经元循环迭代的次数与所述评分数据量相关,例如所述评分数据越多,可以设置较大的迭代次数,以达到较好的训练结果;若所述评分数据较少,所述迭代次数可以适当减小。
步骤204:根据所述隐层神经元状态,反向循环迭代所述可见层神经元,计算所述可见层神经元激活概率。
所述可见层神经元的激活概率根据所述可见层神经元的值、所述隐层神经元的值、所述可见层神经元偏置参数、所述隐层神经元偏置参数、以及所述权重值计算,应该注意的是,所述根据所述隐层神经元的状态指的是根据上述循环迭代后的所述可见层神经元的值、所述隐层神经元的值、所述隐层神经元偏置参数和所述可见层神经元偏置参数和所述权重值。
一种可能的实现方式为:可以通过公式计算所述可见层神经元的偏置参数,其中,bj是可见层第j个神经元的偏置参数。
在具体的循环迭代过程中,应该注意到的是,计算所述可见层神经元的激活概率是每一次循环迭代中计算的,反向循环迭代所述可见层神经元的过程相当于是将上述计算所述可见层神经元的激活概率的参数不断带入所述计算公式中,从而实现一个反向循环迭代的过程,所述可见层神经元反向循环迭代的次数由与所述评分数据量决定相关,例如所述评分数据越多,可以设置较大的迭代次数,以达到较好的训练结果;若所述评分数据较少,所述迭代次数可以适当减小。
步骤205:根据所述可见层神经元的状态,再次反向循环迭代隐层神经元,计算其激活概率。所述可见层神经元的状态为根据步骤205循环迭代后的所述可见层神经元的状态,根据所述状态再次按照步骤203中所述隐层神经元的迭代方式和所述计算所述隐层神经元的激活概率的方式,执行所述反向循环迭代的过程。
步骤206:调整权重值和偏置参数。
其中所述偏置参数分别为所述可见层神经元偏置参数和所述隐层神经元偏置参数,所述权重值为所述可见层神经元和所述隐层神经元之间的权重值。
一种可能的实现方式为:可以通过公式:b=b+t*(v1-v2)计算所述可见层神经元偏置参数,其中,b为所述可见层神经元偏置参数,t为学习速率,所述学习速率根据所述真实评分值的数据量多少决定,所述学习速率可以表征调整所述可见层神经元偏置参数的频率和周期,v1为所述可见层神经元的输入样本值,v2为计算概率后,所述可见层神经元的值。
一种可能的实现方式为:可以通过公式:c=c+t*(P(h1=1|v1)-P(h2=1|v2))计算所述隐层神经元偏置参数,其中,c为所述隐层神经元偏置参数,t为所述学习速率,h1为所述隐层神经元计算所述激活概率前的值,h2为所述隐层神经元计算所述激活概率后的值。
一种可能的实现方式为:可以通过公式w=w+t*(P(h1=1||v1)v1'-P(h2=1|v2)v'2)计算所述权重值,其中,w为所述权重值,v1'为所述可见层神经元的输入样本值的求导值,v'2为计算所述激活概率后,所述可见层神经元的求导值。
需要注意的是,因为所述权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数为计算所述可见层神经元和所述隐层神经元的参数,而且在所述可见层神经元和所述隐层神经元循环迭代的过程中,所述权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数也会随之改变,所以所述步骤206是在步骤203-步骤205执行的过程中同步执行的,也就是在所述训练周期内,一直会执行所述步骤206。
步骤207:判断所述训练周期是否结束?若是,执行步骤208,若否,执行步骤203。
其中,判断所述训练周期是否结束的一种可能的标准为判断所述权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数是否达到预期的效果。所述预期的效果可以是经过整个所述训练过程后,经过RBM模型输出的值与所述输入的样本值基本一致。所述基本一致可以是在同一个标准下的一致,比如输入的样本值是5,那么输出的样本值也在5左右;所述基本一致也可以是在非同一个标准下的一致,比如输入的样本值是5,5代表的是满分,那么输出的样本值可以是在100左右,100也代表满分。所述训练周期也是根据所述评分数据的数据量而决定的,所述数据量越多,所述循环迭代的次数越多,训练周期越长,得到的所述RBM模型准确度和精度相应的越好。
步骤208:得到训练好的RBM模型。
通过所述训练RBM模型的方法,得到训练好的RBM模型,所述训练好的RBM模型经过了多次的循环迭代过程和计算过程,一定程度上解决了数据稀疏性和冷启动的问题,可以作为参照模型。
请参照图2,为本发明实施例提供的一种基于RBM模型的推荐方法,所述推荐方法可以基于上述所述的训练好的RBM模型,所述方法包括:
步骤100:获取预设的用户对项目的评分区间。
其中,所述评分区间可以为从一个评分最小值到一个评分最大值的区间,例如用户对项目的评分区间可以是0到5分之间,评分的最大值可以根据用户的评分习惯而定;所述用户对项目的评分区间也可以由字母代表等级评分区间,例如可以是A-D,每个字母代表的等级和每个等级代表的评分都可以根据实际情况进行设置。
步骤101:获取预先训练好的RBM模型。例如获取预先通过前述的方式训练好的RBM模型。
步骤102:预测用户对与所述项目相关的项目的评分值。
根据所述训练好的RBM模型预测用户对所述项目相关的项目的评分值,需要注意的是,所述项目相关的项目可以是不同于所述项目的新项目,即用户没有评分过的项目,所述项目相关的项目也可以是包括所述项目,因为在获取用户对项目的真实评分值时,用户对所述项目中的某些项目可能也未评分,或者需要变换评分标准来评分,所以所述项目相关的项目包括了用户已评分的项目和用户未评分的项目。
一种可能的实现方式为:可以通过公式:预测所述评分值,其中,是所述预测的评分值,k是所述评分区间,q为所述RBM模型中所述真实评分值的评分区间。
步骤103:生成与所述项目相关的项目的推荐列表。
生成所述推荐列表的方式可以为:在获取所述评分区间后,预设一个评分阈值,在得到所述预测评分值后,把预测的评分值高于所述评分阈值的项目列在所述推荐列表中推荐给用户。生成所述推荐列表的方式也可以为:得到所述预测评分值后,把所述预测评分值分级,比如若评分区间是1-100分,可以以10分为间隔划分预测评分等级,从而生成等级式的推荐列表,使用户可以查看不同等级的推荐项目,尽可能满足用户对不同项目的需求。
通过所述基于RBM模型的推荐方法,能够得到精确度和准确度都较高的个性化推荐列表,为用户提供较好的个性化服务。
请参照图3,本发明实施例还提供一种RBM模型的训练装置400,所述训练装置400包括初始化模块401和训练模块402。
初始化模块401:用于初始化模型中可见层神经元和隐层神经元之间的连接权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数;
可选的,所述初始化模块401还用于输入所述可见层神经元样本值;
通过所述初始化模块401初始化后的可见层神经元和隐层神经元之间的连接权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数,以及所述可见层神经元样本值传输给所述训练模块402。
训练模块402:用于循环迭代所述隐层神经元,并计算所述隐层神经元的激活概率。
可选的,所述训练模块402还用于根据所述循环迭代后的隐层神经元反向循环迭代所述可见层神经元,并计算所述可见层神经元的激活概率;
可选的,所述训练模块402还用于根据所述反向循环迭代后的可见层神经元反向循环迭代所述隐层神经元,并计算所述反向迭代后的隐层神经元的激活概率;
可选的,所述训练模块402还用于调整所述权重值、所述可见层神经元偏置参数和所述隐层神经元偏置参数。
通过所述RBM模型的训练装置,能得到训练好的RBM模型,所述RBM模型能够用于个性化推荐,提供个性化推荐的精确度和准确度。
请参照图4,本发明实施例还提供一种基于RBM模型的推荐装置300,所述推荐装置300包括获取模块301和处理模块302。
获取模块301:用于获取用户对项目的评分区间和训练好的RBM模型;
所述评分区间可以从用户平台获取,也可以由所述推荐装置设定。所述训练好的RBM模型由所述训练装置提供。
处理模块302:用于根据所述评分区间和所述训练好的RBM模型预测用户对与所述项目相关的项目的评分值;
可选的,所述处理模块302还用于根据所述评分值生成与所述项目相关的项目推荐列表。
通过所述推荐装置,所述推荐装置为基于RBM模型的推荐装置,能够解决个性化推荐中的数据稀疏性和冷启动问题,提高个性化推荐的准确度和精确度。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,笔记本电脑,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本发明的实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于RBM模型的推荐方法,其特征在于,包括:
获取预设的用户对项目的评分区间;
获取预先训练好的RBM模型;
根据所述评分区间和所述预先训练好的RBM模型预测用户对与所述项目相关的项目的评分值;
根据所述评分值生成与所述项目相关的项目的推荐列表。
2.根据权利要求1所述的方法,其特征在于,所述获取预先训练好的RBM模型,包括:
获取用户对所述项目的真实评分值;
把所述真实评分值作为RBM模型中可见层神经元的输入样本对RBM模型进行训练。
3.根据权利要求2所述的方法,其特征在于,所述把所述真实评分值作为RBM模型中可见层神经元的输入样本对RBM进行训练的步骤包括:
初始化RBM模型中可见层神经元和隐层神经元之间的权重值,以及所述可见层神经元的偏置参数和所述隐层神经元的偏置参数;
根据所述输入样本、所述权重值和所述偏置参数对所述隐层神经元和所述可见层神经元分别进行循环迭代;
调整所述权重值、所述可见层神经元的偏置参数和所述隐层神经元的偏置参数
根据调整后的所述权重值、所述可见层神经元的偏置参数和所述隐层神经元的偏置参数再次执行上述的所述循环迭代步骤。
4.根据权利要求3所述的方法,其特征在于,对所述隐层神经元和所述可见层神经元进行循环迭代的步骤包括:
循环迭代全部所述隐层神经元,计算每个所述隐层神经元的激活概率;
根据循环迭代后的所述隐层神经元状态,反向循环迭代所述可见层神经元,计算每个所述可见层神经元的激活概率;
根据循环迭代后的可见层神经元状态,再次反向循环迭代所述隐层神经元,计算每个所述隐层神经元的激活概率。
5.根据权利要求4所述的方法,其特征在于,所述计算每个所述隐层神经元的激活概率的步骤包括:
根据所述可见层神经元的值、所述隐层神经元的值、所述可见层神经元偏置参数、所述隐层神经元偏置参数、以及所述可见神经元和所述隐层神经元之间的权重值计算所述激活概率。
6.根据权利要求4所述的方法,其特征在于,所述计算每个所述可见层神经元的激活概率的步骤包括:
根据所述可见层神经元的值、所述隐层神经元的值、所述可见层神经元偏置参数、所述隐层神经元偏置参数、以及所述可见神经元和所述隐层神经元之间的权重值计算所述激活概率。
7.根据权利要求3所述的方法,其特征在于,调整所述权重值、所述可见层神经元的偏置参数和所述隐层神经元的偏置参数的步骤包括:
根据所述可见层神经元的值、所述隐层神经元的值和学习速率调整所述权重值;
根据所述可见层神经元的值和学习速率调整所述可见层神经元的偏置参数;
根据所述隐层神经元的值和学习速率调整所述隐层神经元的偏置参数。
8.一种RBM模型的训练方法,其特征在于,包括:
初始化模型中可见层神经元和隐层神经元之间的连接权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数;
输入所述可见层神经元样本值;
循环迭代所述隐层神经元,并计算所述隐层神经元的激活概率;
根据所述循环迭代后的隐层神经元反向循环迭代所述可见层神经元,并计算所述可见层神经元的激活概率;
根据所述反向循环迭代后的可见层神经元反向循环迭代所述隐层神经元,并计算所述反向迭代后的隐层神经元的激活概率;
调整所述权重值、所述可见层神经元偏置参数和所述隐层神经元偏置参数;
再次执行上述循环迭代步骤。
9.一种基于RBM模型的推荐装置,其特征在于,包括:
获取模块:用于获取用户对项目的评分区间和训练好的RBM模型;
处理模块:用于根据所述评分区间和所述训练好的RBM模型预测用户对与所述项目相关的项目的评分值;所述处理模块还用于根据所述评分值生成与所述项目相关的项目推荐列表。
10.一种RBM模型的训练装置,其特征在于,包括:
初始化模块:用于初始化模型中可见层神经元和隐层神经元之间的连接权重值、所述可见层神经元偏置参数、所述隐层神经元偏置参数;
所述初始化模块还用于输入所述可见层神经元样本值;
训练模块:用于循环迭代所述隐层神经元,并计算所述隐层神经元的激活概率;
所述训练模块还用于根据所述循环迭代后的隐层神经元反向循环迭代所述可见层神经元,并计算所述可见层神经元的激活概率;
所述训练模块还用于根据所述反向循环迭代后的可见层神经元反向循环迭代所述隐层神经元,并计算所述反向迭代后的隐层神经元的激活概率;
所述训练模块还用于调整所述权重值、所述可见层神经元偏置参数和所述隐层神经元偏置参数。
CN201810771569.6A 2018-07-13 2018-07-13 基于rbm模型的推荐方法、rbm模型的训练方法及装置 Pending CN108846479A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810771569.6A CN108846479A (zh) 2018-07-13 2018-07-13 基于rbm模型的推荐方法、rbm模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810771569.6A CN108846479A (zh) 2018-07-13 2018-07-13 基于rbm模型的推荐方法、rbm模型的训练方法及装置

Publications (1)

Publication Number Publication Date
CN108846479A true CN108846479A (zh) 2018-11-20

Family

ID=64197305

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810771569.6A Pending CN108846479A (zh) 2018-07-13 2018-07-13 基于rbm模型的推荐方法、rbm模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN108846479A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339428A (zh) * 2020-03-25 2020-06-26 江苏科技大学 基于受限玻尔兹曼机驱动的交互式个性化搜索方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514255A (zh) * 2013-07-11 2014-01-15 江苏谐云智能科技有限公司 一种基于项目层次类别的协同过滤推荐方法
CN105302873A (zh) * 2015-10-08 2016-02-03 北京航空航天大学 一种基于条件受限波尔兹曼机的协同过滤优化方法
CN107256494A (zh) * 2017-05-18 2017-10-17 深圳大学 一种物品推荐方法及装置
CN108122029A (zh) * 2017-12-29 2018-06-05 北京奇虎科技有限公司 一种相机特效的推荐方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103514255A (zh) * 2013-07-11 2014-01-15 江苏谐云智能科技有限公司 一种基于项目层次类别的协同过滤推荐方法
CN105302873A (zh) * 2015-10-08 2016-02-03 北京航空航天大学 一种基于条件受限波尔兹曼机的协同过滤优化方法
CN107256494A (zh) * 2017-05-18 2017-10-17 深圳大学 一种物品推荐方法及装置
CN108122029A (zh) * 2017-12-29 2018-06-05 北京奇虎科技有限公司 一种相机特效的推荐方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LUCHI007等: "受限制波尔兹曼机(RBM)用于电影推荐小例", 《HTTPS://BLOG.CSDN.NET/U010223750/ARTICLE/DETAILS/61196549》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339428A (zh) * 2020-03-25 2020-06-26 江苏科技大学 基于受限玻尔兹曼机驱动的交互式个性化搜索方法

Similar Documents

Publication Publication Date Title
Wang et al. Sentigan: Generating sentimental texts via mixture adversarial networks.
Wang et al. Factorization bandits for interactive recommendation
Bojanowski et al. Weakly supervised action labeling in videos under ordering constraints
Rao et al. Collaborative filtering with graph information: Consistency and scalable methods
Duchi et al. Estimation, optimization, and parallelism when data is sparse
US10860798B2 (en) Electronic device and method for text processing
CN108960719B (zh) 选品方法和装置以及计算机可读存储介质
Sai et al. Facial age range estimation with extreme learning machines
Ruvolo et al. Online multi-task learning via sparse dictionary optimization
Fu et al. Visualization assessment: A machine learning approach
CN109063147A (zh) 基于文本相似度的在线课程论坛内容推荐方法及系统
CN104199818A (zh) 一种基于分类的社会化推荐方法
CN110825850A (zh) 一种自然语言主题分类方法及装置
CN110110035A (zh) 数据处理方法和装置以及计算机可读存储介质
CN112084307A (zh) 一种数据处理方法、装置、服务器及计算机可读存储介质
CN110019563B (zh) 一种基于多维数据的肖像建模方法和装置
Jowaheer et al. A BINAR (1) time-series model with cross-correlated COM–Poisson innovations
Lucarini et al. Response formulae for n-point correlations in statistical mechanical systems and application to a problem of coarse graining
CN104077408B (zh) 大规模跨媒体数据分布式半监督内容识别分类方法及装置
Deng et al. Coalescing data and decision sciences for analytics
US20220405531A1 (en) Blackbox optimization via model ensembling
CN108846479A (zh) 基于rbm模型的推荐方法、rbm模型的训练方法及装置
CN105760965A (zh) 预估模型参数的训练方法、服务质量预估方法及对应装置
Bui Efficient Deterministic Approximate Bayesian Inference for Gaussian Process models
Habib et al. GAC-Text-to-Image Synthesis with Generative Models using Attention Mechanisms with Contrastive Learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181120