CN116150504A - 处理长尾分布的推荐方法、装置及计算机存储介质、终端 - Google Patents

处理长尾分布的推荐方法、装置及计算机存储介质、终端 Download PDF

Info

Publication number
CN116150504A
CN116150504A CN202310406883.5A CN202310406883A CN116150504A CN 116150504 A CN116150504 A CN 116150504A CN 202310406883 A CN202310406883 A CN 202310406883A CN 116150504 A CN116150504 A CN 116150504A
Authority
CN
China
Prior art keywords
model
network model
data set
parameters
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310406883.5A
Other languages
English (en)
Other versions
CN116150504B (zh
Inventor
何英杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terminus Technology Group Co Ltd
Original Assignee
Terminus Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terminus Technology Group Co Ltd filed Critical Terminus Technology Group Co Ltd
Priority to CN202310406883.5A priority Critical patent/CN116150504B/zh
Publication of CN116150504A publication Critical patent/CN116150504A/zh
Application granted granted Critical
Publication of CN116150504B publication Critical patent/CN116150504B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/958Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0631Item recommendations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种处理长尾分布的推荐方法、装置及计算机存储介质、终端,属于数据分析技术领域。本发明的推荐方法包括:获取第一数据集与第二数据集,第一数据集包括双塔模型中用户侧与物品侧的所有交互对,第二数据集包括双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对;基于第一数据集训练形成双塔模型中的第一网络模型,以得到第一模型参数;基于第二数据集形成双塔模型中的第二网络模型,以得到第二模型参数,第二模型参数向第一模型参数靠拢;对第一网络模型与第二网络模型加权处理,以得到用户对物品的偏爱分数。本发明尾部item训练的模型能够学习到首部item训练的参数,使得最终模型的输出结果在尾部也能获得不错的效果。

Description

处理长尾分布的推荐方法、装置及计算机存储介质、终端
技术领域
本发明属于人工智能技术领域,具体涉及一种处理长尾分布的推荐方法、装置及计算机存储介质、终端。
背景技术
目前常见的推荐方法为利用传统的双塔模型分别将用户特征编码和产品特征编码训练为用户向量和产品向量,再通过计算两个向量的相似度,来确定用户对产品的感兴趣程度,但是由于双塔模型中用户与产品缺少交互,从而无法保证产品推荐结果的准确性。
另外,还有的推荐系统虽然在用户侧与物品侧具有交互,但由于存在用户侧(user)和物品侧(item)之间交互存在长尾分布情况,一小部分的物品侧和用户侧存在大量的交互,而大量的物品侧和用户侧只有少量的交互,导致训练的模型很容易和头部item进行过拟合,即在模型在训练数据中效果良好,而在测试数据中的表现和训练数据中的表现差异很大,也就是说,在交互较少的item上表现不尽如意,最终导致头部文章会得到更多的曝光,热门文章变得更加热门。
目前迁移算法在处理这种具备长尾分布的数据的时候一般都是先在一个数据集上进行预训练,后面再在目标任务上进行微调,这种方法是假设源任务和目标任务的数据分布是一致的,但是在推荐系统中,热门item和冷门item之间的分布存在巨大的差异,因此使用这样的迁移学习方法在推荐任务中存在误差。
因此,针对上述问题,本发明提出一种新的处理长尾分布的推荐方法、装置及计算机存储介质、终端。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提供一种处理长尾分布的推荐方法、装置及计算机存储介质、终端。
本发明的一方面,提出一种处理长尾分布的推荐方法,包括下述步骤:
获取第一数据集与第二数据集,其中,所述第一数据集包括双塔模型中用户侧与物品侧的所有交互对,所述第二数据集包括所述双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对;
基于所述第一数据集训练形成所述双塔模型中的第一网络模型,以得到第一模型参数;
基于所述第二数据集形成所述双塔模型中的第二网络模型,以得到第二模型参数,所述第二模型参数向所述第一模型参数靠拢;
对所述第一网络模型与所述第二网络模型加权处理,以得到用户对物品的偏爱分数。
可选的,所述基于所述第一数据集训练形成所述双塔模型中的第一网络模型,包括:
基于所述第一数据集,将用户侧与物品侧的特征输入所述第一网络模型,所述第一网络模型输出用户侧对物品侧的偏好得分;
使用第一目标函数学习同一用户对不同物品的偏好概率分布,公式如下:
Figure SMS_1
其中,p(y i |x u ;θ)表示同一用户对不同物品的偏好概率分布;
s(x u ,y i ;θ)表示第一网络模型,其中x u 为用户侧的输入参数,y i 为物品侧的输入参数,θ为第一网络模型最初参数;
所述第一目标函数的公式如下:
Figure SMS_2
其中,
Figure SMS_3
代表第一损失函数的损失值;
r(u,i)表示如下:
Figure SMS_4
可选的,所述基于所述第二数据集训练形成所述双塔模型中的第二网络模型,包括:
基于所述第二数据集,将用户侧与物品侧的特征输入所述第二网络模型,所述第二网络模型输出用户侧对物品侧的偏好得分;
使用第二目标函数学习同一用户对不同物品的偏好概率分布;其中,
所述第二目标函数的公式如下:
Figure SMS_5
其中,
Figure SMS_6
代表第二损失函数的损失值;
Figure SMS_7
表示/>
Figure SMS_8
到第一网络模型中第一模型参数θ的距离,且θ为第一网络模型最初参数,/>
Figure SMS_9
为第一网络模型学习之后的参数,w为第二模型参数;
Figure SMS_10
Figure SMS_11
表示正则化参数。
可选的,利用下述公式计算得到用户对物品的偏爱分数,具体如下:
Figure SMS_12
其中,
Figure SMS_13
表示偏爱分数;
Figure SMS_14
表示正则化参数;/>
Figure SMS_15
表示第一网络模型;
Figure SMS_16
表示第二网络模型。
本发明的另一方面,提出一种处理长尾分布的推荐系统,包括:
数据获取模块,用于分别获取第一数据集与第二数据集,其中,所述第一数据集包括双塔模型中用户侧与物品侧的所有交互对,所述第二数据集包括所述双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对;
第一模型形成模块,用于基于所述第一数据集训练形成双塔模型中的第一网络模型,以得到第一模型参数;
第二模型形成模块,用于基于所述第二数据集形成双塔模型中的第二网络模型,以得到第二模型参数,所述第二模型参数向所述第一模型参数靠拢;
偏爱分数获取模块,用于对所述第一网络模型与所述第二网络模型加权处理,以得到用户对物品的偏爱分数。
可选的,所述第一模型形成模块,具体还用于基于所述第一数据集,将用户侧与物品侧的特征输入所述第一网络模型,所述第一网络模型输出用户侧对物品侧的偏好得分;
使用第一目标函数学习同一用户对不同物品的偏好概率分布,公式如下:
Figure SMS_17
其中,p(y i |x u ;θ)表示同一用户对不同物品的偏好概率分布;
s(x u ,y i ;θ)表示第一网络模型,其中的x u 为用户侧的输入参数,y i 为物品侧的输入参数,θ为第一网络模型最初参数;
所述第一目标函数的公式如下:
Figure SMS_18
其中,
Figure SMS_19
代表第一损失函数的损失值;
r(u,i)表示如下:
Figure SMS_20
可选的,所述第二模型形成模块,具体还用于基于所述第二数据集,将用户侧与物品侧的特征输入所述第二网络模型,所述第二网络模型输出用户侧对物品侧的偏好得分;
使用第二目标函数学习同一用户对不同物品的偏好概率分布;其中,
所述第二目标函数的公式如下:
Figure SMS_21
其中,
Figure SMS_22
代表第二损失函数的损失值;
Figure SMS_23
表示/>
Figure SMS_24
到第一网络模型中第一模型参数的距离,θ为第一网络模型最初参数,/>
Figure SMS_25
为第一网络模型学习之后的参数,w为第二模型参数;
Figure SMS_26
Figure SMS_27
表示正则化参数。
可选的,所述偏爱分数获取模块,具体还用于利用下述公式计算得到用户对物品的偏爱分数,具体如下:
Figure SMS_28
其中,
Figure SMS_29
表示偏爱分数;
Figure SMS_30
表示正则化参数;
Figure SMS_31
表示第一网络模型;
Figure SMS_32
表示第二网络模型。
本发明的另一方面,提出一种计算机存储介质,所述计算机存储介质存储有多条指令,所述指令适于处理器加载并执行如前文记载所述的方法步骤。
本发明的另一方面,提出一种终端,包括处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如前文记载的所述的方法步骤。
本发明提出一种处理长尾分布的推荐方法、系统以及一种计算机存储介质,在传统的双塔模型基础上,本发明引入了模型结构层面和数据层面的调整,不仅使得模型能够保证尾部item的效果,也能够保证首部item的推荐效果,使得最终模型的输出结果在尾部也能获得不错的效果。
附图说明
图1为本发明一实施例的处理长尾分布的推荐方法的流程框图;
图2为本发明另一实施例的双塔结构的结构示意图;
图3为本发明另一实施例的处理长尾分布的推荐系统的示意图。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明作进一步详细描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护范围。
除非另外具体说明,本发明中使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“包括”或者“包含”等既不限定所提及的形状、数字、步骤、动作、操作、构件、原件和/或它们的组,也不排除出现或加入一个或多个其他不同的形状、数字、步骤、动作、操作、构件、原件和/或它们的组。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示技术特征的数量与顺序。
如图1和图2所示,本发明的一方面,提出一种处理长尾分布的推荐方法S100,包括下述步骤S110~S140:
S110、获取第一数据集与第二数据集,其中,第一数据集包括双塔模型中用户侧与物品侧的所有交互对,所述第二数据集包括所述双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对。
本实施例通过双塔模型的用户侧和物品侧的交互日志表生成两个训练数据集,分别为第一数据集D与第二数据集D_,其中,第一数据集D包含了所有的用户侧(user)和物品侧(item)的交互对,第二数据集D_包含了user和item的交互数据中交互次数低于交互次数阈值的交互对。也就是说,本实施例的第一数据集D和第二数据集D_中除了包含有交互的正样本外,还包含没有交互的负样本,对样本的生成不作具体限定,可以通过采样的方式进行,随机抽样user和item之间没有交互过的样本作为负样本。
需要说明的是,本实施例的交互次数阈值设为k,该k值是一个超函数,需要根据实际项目情况进行手动调整,即一个item最多只有k个交互对,多余k个交互对的随机截取k个。
S120、基于第一数据集训练形成双塔模型中的第一网络模型,以得到第一模型参数。
需要说明的是,本实施例的第一网络模型为基模型(Base-learning模型),其结构为一个全连接的神经网络。
具体地,先基于第一数据集训练形成第一网络模型,模型形成过程如下:首先学习一个基模型
Figure SMS_34
,该基模型通过第一数据集D来进行训练,其中的输入参数为/>
Figure SMS_36
和/>
Figure SMS_39
,/>
Figure SMS_35
和/>
Figure SMS_37
分别为双塔模型中user和item的特征,/>
Figure SMS_40
为基模型最初的参数,模型的输出表示user对item的偏好得分,此处可以用向量内积表示来表示,公式表示为:
Figure SMS_41
;其中,/>
Figure SMS_33
和/>
Figure SMS_38
分别表示user和item经过模型之后的输出。
进一步地,本实施例将最终的推荐任务定义为一个多分类任务,使用softmax函数作为第一目标函数用来学习同一个用户对于不同的item的偏好的一个概率分布,如下述公式所示:
Figure SMS_42
其中,p(y i |x u ;θ)代表同一用户对不同物品的偏好概率分布;
s(x u ,y i ;θ)表示第一网络模型,其中x u 为用户侧的输入参数,y i 为物品侧的输入参数,θ为第一网络模型最初参数,即第一模型参数;
其次,第一目标函数(基分类器的损失函数)的公式如下所示:
Figure SMS_43
其中,
Figure SMS_44
代表第一损失函数的损失值;
r(u,i)表示如下:
Figure SMS_45
本实施例通过梯度反向传播,最终可以获得第一网络模型(基模型)经过学习(梯度更新)之后获得的基模型参数
Figure SMS_46
S130、基于第二数据集形成双塔模型中的第二网络模型,以得到第二模型参数,所述第二模型参数向所述第一模型参数靠拢。
需要说明的是,本实施例的第二网络模型为Meta-learning模型(学生网络模型),其结构与前文记载的基模型结构相同,都是全连接的神经网络,但是损失函数不同。
具体地,本实施例将第二网络模型的第二目标函数定义为
Figure SMS_47
其中,
Figure SMS_48
代表第二损失函数的损失值;
Figure SMS_49
表示正则化参数,用于平衡两部分的损失;
Figure SMS_50
,这部分和基模型的公式一样,只是它的数据来于第二数据集D_,由于这部分对应的第二数据集都是交互次数低于交互次数阈值k次的数据,因此,这部分主要是为了提高尾部item的表达能力;
Figure SMS_53
表示/>
Figure SMS_54
到第一网络模型中第一模型参数θ的距离,在这里,θ取Meta-learning模型的最后一层作为输入参数,即第一网络模型最初参数,/>
Figure SMS_56
为经过学习之后获得的基模型参数,也取最后一层作为需要拟合的参数,w为学习到的学生网络模型参数,即需要学习到的参数。总的来说,/>
Figure SMS_52
为一个全连接神经网络,/>
Figure SMS_55
为输入参数,/>
Figure SMS_57
为神经网络的第二模型参数,通过这一部分可以让第二网络模型(Meta-learning模型)学习到参数可以向第一网络模型(基模型)学习到的参数靠拢,该部分可以提高头部item的表达能力。另外,该部分中的/>
Figure SMS_58
和/>
Figure SMS_51
只取最后一层是为了减少模型最终需要学习的参数,提高模型的稳定性和鲁棒性。
应当理解的是,该步骤同样采用反向传播以对第二网络模型进行更新。
S140、对第一网络模型与第二网络模型加权处理,以得到用户对物品的偏爱分数。
具体地,通过上述步骤训练获得了最终的模型参数,本实施例还通过下述公式计算了用户对item的偏爱分数,具体公式如下所示:
Figure SMS_59
;/>
其中,
Figure SMS_60
表示用户对item的偏爱分数;
Figure SMS_61
表示正则化参数;
Figure SMS_62
表示第一网络模型;
Figure SMS_63
表示第二网络模型。
本发明基于传统的双塔模型,在其基础上引入了模型结构层面和数据层面的调整,不仅使得模型能够保证尾部item的效果,也能够保证首部item的推荐效果。
如图2和图3所示,本发明的另一方面,提出一种处理长尾分布的推荐系统200,包括:数据获取模块210,用于分别获取第一数据集与第二数据集,其中,第一数据集包括双塔模型中用户侧与物品侧的所有交互对,第二数据集包括所述双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对;第一模型形成模块220,用于基于第一数据集训练形成双塔模型中的第一网络模型,以得到第一模型参数;第二模型形成模块230,用于基于第二数据集形成双塔模型中的第二网络模型,以得到第二模型参数,第二模型参数向第一模型参数靠拢;偏爱分数获取模块240,用于对第一网络模型与第二网络模型加权处理,以得到用户对物品的偏爱分数。
需要说明的是,本实施例的第一数据集D包含了所有的user和item的交互对,数据集D_包含了user和item的交互数据中交互次数低于交互次数阈值k的交互对(即一个item最多只有k个交互对,多余k个交互队的随机截取k个,这里的k值可以根据实际情况调整)。也就是说,本实施例的第一数据集D和第二数据集D_中除了包含有交互的正样本外,还包含没有交互的负样本,对样本的生成不作具体限定,可以通过采样的方式进行,随机抽样user和item之间没有交互过的样本作为负样本。
进一步地,第一模型形成模块,具体还用于学习一个基模型
Figure SMS_64
,该基模型通过第一数据集D来进行训练,其中的输入参数为/>
Figure SMS_65
和/>
Figure SMS_66
为user和item的特征,为基模型最初的参数,模型的输出表示user对item的偏好得分,此处可以用向量内积表示来表示,公式表示为:/>
Figure SMS_67
;其中,/>
Figure SMS_68
和/>
Figure SMS_69
分布表示user和item经过模型之后的输出。之后,使用softmax函数作为最终的第一目标函数用来学习同一个用户对于不同的item的偏好的一个概率分布,如下述公式所示:
Figure SMS_70
其中,p(y i |x u ;θ)代表同一用户对不同物品的偏好概率分布;
,s(x u ,y i ;θ)表示第一网络模型,其中的x u 为用户侧的输入参数,y i 为物品侧的输入参数,θ为第一网络模型最初参数,即第一模型参数;
第一目标函数的公式如下:
Figure SMS_71
;/>
其中,
Figure SMS_72
代表第一损失函数的损失值;
r(u,i)表示如下:
Figure SMS_73
本实施例的第一模型形成模块通过梯度反向传播,最终可以获得第一网络模型的第一模型参数(基模型)经过学习(梯度更新)之后获得的基模型参数
Figure SMS_74
更进一步地,第二模型形成模块,具体还用于基于第二数据集,将用户侧与物品侧的特征输入第二网络模型,第二网络模型输出用户侧对物品侧的偏好得分;使用第二目标函数学习同一用户对不同物品的偏好概率分布;其中,
第二目标函数的公式如下:
Figure SMS_75
其中,
Figure SMS_76
代表第二损失函数的损失值;
Figure SMS_77
表示正则化参数,用于平衡两部分的损失;
Figure SMS_78
,这部分和基模型的公式一样,只是它的数据来于第二数据集D_,由于这部分对应的第二数据集都是交互次数低于交互次数阈值k次的数据,因此,这部分主要是为了提高尾部item的表达能力;
Figure SMS_80
表示/>
Figure SMS_82
到第一网络模型中第一模型参数θ的距离,在这里,θ取Meta-learning模型的最后一层作为输入参数,即第一网络模型最初参数,/>
Figure SMS_84
为经过学习之后获得的基模型参数,也取第二网络模型的最后一层作为需要拟合的参数,w为学习到的学生网络模型参数,即需要学习到的参数。总的来说,/>
Figure SMS_81
为一个全连接神经网络,/>
Figure SMS_83
为输入参数,/>
Figure SMS_85
为神经网络的第二模型参数,通过这一部分可以让第二网络模型(Meta-learning模型)学习到参数可以向第一网络模型(基模型)学习到的参数靠拢,该部分可以提高头部item的表达能力。另外,该部分中的/>
Figure SMS_86
和/>
Figure SMS_79
只取最后一层是为了减少模型最终需要学习的参数,提高模型的稳定性和鲁棒性。
应当理解的是,本实施例的第二模型形成模块同样采用反向传播以对第二网络模型进行更新。
更进一步地,本实施例的偏爱分数获取模块,具体还用于利用下述公式计算得到用户对物品的偏爱分数,具体如下:
Figure SMS_87
其中,
Figure SMS_88
表示偏爱分数;
Figure SMS_89
表示正则化参数;
Figure SMS_90
表示第一网络模型;/>
Figure SMS_91
表示第二网络模型。
本发明的推荐系统可以同时兼顾头部item和尾部item的训练,保证头部item和尾部item的效果,以提升推荐的准确度。
本发明的另一方面,提出一种计算机存储介质,该计算机存储介质存储有多条指令,指令适于处理器加载并执行前文记载的方法步骤。
需要说明的是,计算机存储介质可以是本发明的装置、设备、系统中所包含的,也可以是单独存在。
其中,计算机存储介质可是任何包含或存储程序的有形介质,其可以是电、磁、光、电磁、红外线、半导体的系统、装置、设备,更具体的例子包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、光纤、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件,或它们任意合适的组合。
另外,计算机存储介质也可包括在基带中或作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码,其具体的例子包括但不限于电磁信号、光信号,或它们任意合适的组合。
本发明的另一方面,提出一种终端,包括处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如前文记载的方法步骤。
本发明提出一种处理长尾分布的推荐方法、系统以及一种计算机存储介质与终端,相对于现有技术具有以下有益效果:本发明在传统的双塔模型基础上,引入了模型结构层面和数据层面的调整,不仅使得模型能够保证尾部item的效果,也能够保证首部item的推荐效果,使得最终模型的输出结果在尾部也能获得不错的效果,具有较高的推荐准确度。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。

Claims (10)

1.一种处理长尾分布的推荐方法,其特征在于,包括下述步骤:
获取第一数据集与第二数据集,其中,所述第一数据集包括双塔模型中用户侧与物品侧的所有交互对,所述第二数据集包括所述双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对;
基于所述第一数据集训练形成所述双塔模型中的第一网络模型,以得到第一模型参数;
基于所述第二数据集形成所述双塔模型中的第二网络模型,以得到第二模型参数,所述第二模型参数向所述第一模型参数靠拢;
对所述第一网络模型与所述第二网络模型加权处理,以得到用户对物品的偏爱分数。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一数据集训练形成所述双塔模型中的第一网络模型,包括:
基于所述第一数据集,将用户侧与物品侧的特征输入所述第一网络模型,所述第一网络模型输出用户侧对物品侧的偏好得分;
使用第一目标函数学习同一用户对不同物品的偏好概率分布,公式如下:
Figure QLYQS_1
其中,p(y i |x u ;θ)表示同一用户对不同物品的偏好概率分布;
s(x u ,y i ;θ)表示第一网络模型,其中x u 为用户侧的输入参数,y i 为物品侧的输入参数,θ为第一网络模型最初参数;
所述第一目标函数的公式如下:
Figure QLYQS_2
其中,
Figure QLYQS_3
代表第一损失函数的损失值;
r(u,i)表示如下:
Figure QLYQS_4
3.根据权利要求2所述的方法,其特征在于,所述基于所述第二数据集训练形成所述双塔模型中的第二网络模型,包括:
基于所述第二数据集,将用户侧与物品侧的特征输入所述第二网络模型,所述第二网络模型输出用户侧对物品侧的偏好得分;
使用第二目标函数学习同一用户对不同物品的偏好概率分布;其中,
所述第二目标函数的公式如下:
Figure QLYQS_5
其中,
Figure QLYQS_6
代表第二损失函数的损失值;
Figure QLYQS_7
表示/>
Figure QLYQS_8
到第一网络模型中第一模型参数的距离,且θ为第一网络模型最初参数,/>
Figure QLYQS_9
为第一网络模型学习之后的参数,w为第二模型参数;
Figure QLYQS_10
Figure QLYQS_11
表示正则化参数。
4.根据权利要求3所述的方法,其特征在于,利用下述公式计算得到用户对物品的偏爱分数,具体如下:
Figure QLYQS_12
其中,
Figure QLYQS_13
表示偏爱分数;
Figure QLYQS_14
表示正则化参数;
Figure QLYQS_15
表示第一网络模型;
Figure QLYQS_16
表示第二网络模型。
5.一种处理长尾分布的推荐系统,其特征在于,包括:
数据获取模块,用于分别获取第一数据集与第二数据集,其中,所述第一数据集包括双塔模型中用户侧与物品侧的所有交互对,所述第二数据集包括所述双塔模型中用户侧与物品侧交互次数低于交互次数阈值的交互对;
第一模型形成模块,用于基于所述第一数据集训练形成双塔模型中的第一网络模型,以得到第一模型参数;
第二模型形成模块,用于基于所述第二数据集形成双塔模型中的第二网络模型,以得到第二模型参数,所述第二模型参数向所述第一模型参数靠拢;
偏爱分数获取模块,用于对所述第一网络模型与所述第二网络模型加权处理,以得到用户对物品的偏爱分数。
6.根据权利要求5所述的系统,其特征在于,所述第一模型形成模块,具体还用于基于所述第一数据集,将用户侧与物品侧的特征输入所述第一网络模型,所述第一网络模型输出用户侧对物品侧的偏好得分;
使用第一目标函数学习同一用户对不同物品的偏好概率分布,公式如下:
Figure QLYQS_17
其中,p(y i |x u ;θ)表示同一用户对不同物品的偏好概率分布;
s(x u ,y i ;θ)表示第一网络模型,其中的x u 为用户侧的输入参数,y i 为物品侧的输入参数,θ为第一网络模型最初参数;
所述第一目标函数的公式如下:
Figure QLYQS_18
;/>
其中,
Figure QLYQS_19
代表第一损失函数的损失值;
r(u,i)表示如下:
Figure QLYQS_20
7.根据权利要求6所述的系统,其特征在于,所述第二模型形成模块,具体还用于基于所述第二数据集,将用户侧与物品侧的特征输入所述第二网络模型,所述第二网络模型输出用户侧对物品侧的偏好得分;
使用第二目标函数学习同一用户对不同物品的偏好概率分布;其中,
所述第二目标函数的公式如下:
Figure QLYQS_21
其中,
Figure QLYQS_22
代表第二损失函数的损失值;
Figure QLYQS_23
表示/>
Figure QLYQS_24
到第一网络模型中第一模型参数的距离,且θ为第一网络模型最初参数,/>
Figure QLYQS_25
为第一网络模型学习之后的参数,w为第二模型参数;
Figure QLYQS_26
Figure QLYQS_27
表示正则化参数。
8.根据权利要求7所述的系统,其特征在于,所述偏爱分数获取模块,具体还用于利用下述公式计算得到用户对物品的偏爱分数,具体如下:
Figure QLYQS_28
其中,
Figure QLYQS_29
表示偏爱分数;
Figure QLYQS_30
表示正则化参数;
Figure QLYQS_31
表示第一网络模型;
Figure QLYQS_32
表示第二网络模型。
9.一种计算机存储介质,其特征在于,所述计算机存储介质存储有多条指令,所述指令适于处理器加载并执行如权利要求1至4任一项所述的方法步骤。
10.一种终端,其特征在于,包括处理器和存储器;其中,所述存储器存储有计算机程序,所述计算机程序适于由所述处理器加载并执行如权利要求1至4任一项所述的方法步骤。
CN202310406883.5A 2023-04-17 2023-04-17 处理长尾分布的推荐方法、装置及计算机存储介质、终端 Active CN116150504B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310406883.5A CN116150504B (zh) 2023-04-17 2023-04-17 处理长尾分布的推荐方法、装置及计算机存储介质、终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310406883.5A CN116150504B (zh) 2023-04-17 2023-04-17 处理长尾分布的推荐方法、装置及计算机存储介质、终端

Publications (2)

Publication Number Publication Date
CN116150504A true CN116150504A (zh) 2023-05-23
CN116150504B CN116150504B (zh) 2023-07-04

Family

ID=86356432

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310406883.5A Active CN116150504B (zh) 2023-04-17 2023-04-17 处理长尾分布的推荐方法、装置及计算机存储介质、终端

Country Status (1)

Country Link
CN (1) CN116150504B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104899763A (zh) * 2015-05-07 2015-09-09 西安电子科技大学 基于二分网络双向扩散的个性化推荐方法
WO2016028494A1 (en) * 2014-08-20 2016-02-25 Thomson Licensing Method for detecting aversion and attraction from user rating data in a recommender system
CN112184391A (zh) * 2020-10-16 2021-01-05 中国科学院计算技术研究所 一种推荐模型的训练方法、介质、电子设备和推荐模型
CN112632403A (zh) * 2020-12-24 2021-04-09 北京百度网讯科技有限公司 推荐模型的训练方法、推荐方法、装置、设备和介质
CN113822776A (zh) * 2021-09-29 2021-12-21 中国平安财产保险股份有限公司 课程推荐方法、装置、设备及存储介质
CN114564594A (zh) * 2022-02-23 2022-05-31 浙江工业大学 一种基于双塔模型的知识图谱用户偏好实体召回方法
CN115760270A (zh) * 2022-10-27 2023-03-07 航天恒星科技有限公司 一种基于知识图谱的新颖性增强推荐方法
CN115841366A (zh) * 2022-12-30 2023-03-24 中国科学技术大学 物品推荐模型训练方法、装置、电子设备及存储介质

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016028494A1 (en) * 2014-08-20 2016-02-25 Thomson Licensing Method for detecting aversion and attraction from user rating data in a recommender system
CN104899763A (zh) * 2015-05-07 2015-09-09 西安电子科技大学 基于二分网络双向扩散的个性化推荐方法
CN112184391A (zh) * 2020-10-16 2021-01-05 中国科学院计算技术研究所 一种推荐模型的训练方法、介质、电子设备和推荐模型
CN112632403A (zh) * 2020-12-24 2021-04-09 北京百度网讯科技有限公司 推荐模型的训练方法、推荐方法、装置、设备和介质
CN113822776A (zh) * 2021-09-29 2021-12-21 中国平安财产保险股份有限公司 课程推荐方法、装置、设备及存储介质
CN114564594A (zh) * 2022-02-23 2022-05-31 浙江工业大学 一种基于双塔模型的知识图谱用户偏好实体召回方法
CN115760270A (zh) * 2022-10-27 2023-03-07 航天恒星科技有限公司 一种基于知识图谱的新颖性增强推荐方法
CN115841366A (zh) * 2022-12-30 2023-03-24 中国科学技术大学 物品推荐模型训练方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄光红等: "深度神经网络Softmax函数定点算法设计", no. 278, pages 60 - 64 *

Also Published As

Publication number Publication date
CN116150504B (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
CN110766044B (zh) 一种基于高斯过程先验指导的神经网络训练方法
CN108090510A (zh) 一种基于间隔优化的集成学习方法及装置
CN110033008B (zh) 一种基于模态变换与文本归纳的图像描述生成方法
CN107608953B (zh) 一种基于不定长上下文的词向量生成方法
CN113468227B (zh) 基于图神经网络的信息推荐方法、系统、设备和存储介质
CN114841257B (zh) 一种基于自监督对比约束下的小样本目标检测方法
WO2017092623A1 (zh) 文本向量表示方法及装置
CN111104513B (zh) 一种游戏平台用户问答业务的短文本分类方法
CN109740734B (zh) 一种利用优化神经元空间排布的卷积神经网络的图像分类方法
CN113688949B (zh) 一种基于双网络联合标签修正的网络图像数据集去噪方法
CN115374347A (zh) 一种基于知识图注意力网络的社交推荐方法
CN110909172A (zh) 一种基于实体距离的知识表示学习方法
CN116150504B (zh) 处理长尾分布的推荐方法、装置及计算机存储介质、终端
CN111126758B (zh) 一种学术团队影响力传播预测方法、设备和存储介质
CN109472307A (zh) 一种训练图像分类模型的方法和装置
CN112116072A (zh) 一种量化神经网络中多个输入变量之间相互作用的方法
CN116543259A (zh) 一种深度分类网络噪声标签建模与纠正方法、系统及存储介质
CN113723482B (zh) 基于多示例孪生网络的高光谱目标检测方法
CN114757310A (zh) 情感识别模型及其训练方法、装置、设备及可读存储介质
CN115659059A (zh) 基于图对比学习的推荐模型训练方法和装置
CN114882270A (zh) 基于粒子群优化算法的主动脉夹层ct图像分类方法
CN115035304A (zh) 一种基于课程学习的图像描述生成方法及系统
CN115544379A (zh) 基于四元数图卷积神经网络的推荐方法和装置
CN114139937A (zh) 一种室内热舒适数据生成方法、系统、设备及介质
CN109815323B (zh) 一种人机交互训练问答生成算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant