CN115841366A - 物品推荐模型训练方法、装置、电子设备及存储介质 - Google Patents

物品推荐模型训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115841366A
CN115841366A CN202211741511.XA CN202211741511A CN115841366A CN 115841366 A CN115841366 A CN 115841366A CN 202211741511 A CN202211741511 A CN 202211741511A CN 115841366 A CN115841366 A CN 115841366A
Authority
CN
China
Prior art keywords
data
training
item
model
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211741511.XA
Other languages
English (en)
Other versions
CN115841366B (zh
Inventor
何向南
傅天任
陈佳伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202211741511.XA priority Critical patent/CN115841366B/zh
Publication of CN115841366A publication Critical patent/CN115841366A/zh
Application granted granted Critical
Publication of CN115841366B publication Critical patent/CN115841366B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请提供了一种物品推荐模型训练方法、装置、电子设备及存储介质,可以应用于人工智能技术领域。该方法包括:获取用于模型训练的交互数据,其中,交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据;根据物品推荐模型的当前训练轮次确定交互数据的训练权重;将已推荐物品的物品数据输入物品推荐模型中,输出已推荐物品的偏好预测值;将交互数据、偏好预测值以及训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值;基于模型损失值对物品推荐模型进行训练。

Description

物品推荐模型训练方法、装置、电子设备及存储介质
技术领域
本申请涉及人工智能技术领域,更具体地,涉及一种物品推荐模型训练方法、装置、电子设备及存储介质。
背景技术
随着互联网应用的发展,帮助用户从大量物品中找到较为喜欢的物品成为一重大挑战,应对这一挑战的工具之一是推荐系统。在一种实现方式中,推荐系统通过推荐模型学习用户对物品的喜好,从而向用户推荐用户可能喜欢的物品。
在实现本申请构思的过程中,发明人发现相关技术中至少存在如下问题:推荐模型在训练过程中,更倾向于学习流行物品的特征,从而导致推荐模型用于物品推荐时的推荐准确率较低。
发明内容
有鉴于此,本申请实施例提供了一种物品推荐模型训练方法、装置、电子设备及存储介质。
本申请实施例的一个方面提供了一种物品推荐模型训练方法,包括:获取用于模型训练的交互数据,其中,上述交互数据包括用户针对第一已推荐物品的显式数据和/或上述用户针对第二已推荐物品的隐式数据,上述显式数据表征上述用户对上述第一已推荐物品明确表明态度的情况下,对上述已推荐物品的喜好度,上述隐式数据表征上述用户对上述第二已推荐物品未明确表明态度的情况下,对上述已推荐物品的操作状态属性;根据物品推荐模型的当前训练轮次确定上述交互数据的训练权重;将上述已推荐物品的物品数据输入上述物品推荐模型中,输出上述已推荐物品的偏好预测值;将上述交互数据、上述偏好预测值以及上述训练权重输入上述物品推荐模型的模型损失函数中,输出上述物品推荐模型的模型损失值;基于上述模型损失值对上述物品推荐模型进行训练。
根据本申请的实施例,上述根据上述当前训练轮次确定上述交互数据的训练权重,包括:将上述当前训练轮次输入加权函数中,输出上述训练权重,上述加权函数如下:
Figure 655806DEST_PATH_IMAGE001
其中,
Figure 225328DEST_PATH_IMAGE002
Figure 969293DEST_PATH_IMAGE003
表示超参数,
Figure 658769DEST_PATH_IMAGE004
表示当前训练轮次。
根据本申请的实施例,上述将上述交互数据、上述偏好预测值以及上述训练权重输入上述物品推荐模型的模型损失函数中,输出上述物品推荐模型的模型损失值,包括:根据预设处理规则对上述交互数据进行处理,生成训练数据;将上述训练数据和上述偏好预测值输入交叉熵损失函数中,输出中间值;将上述中间值和上述训练权重输入上述物品推荐模型的模型损失函数中,输出上述物品推荐模型的模型损失值。
根据本申请的实施例,上述预设处理规则包括预设转化规则和预设采样规则,上述训练数据包括第一训练数据和第二训练数据,其中,上述根据预设处理规则对上述交互数据进行处理,生成训练数据,包括:根据预设转化规则对上述显式数据进行转化,生成上述第一训练数据,上述预设转化规则为基于上述喜好度对上述显式数据进行转化,上述第一训练数据中包括上述喜好度大于预设阈值的第一数据和上述喜好度不大于上述预设阈值的第二数据;根据预设采样规则上述隐式数据进行采样,生成上述第二训练数据,上述预设采样规则为基于上述操作状态属性对上述隐式数据进行采样,上述操作状态属性包括已操作属性和未操作属性,上述第二训练数据中上述操作状态属性为上述已操作属性的已推荐物品和上述操作状态属性为上述未操作属性的已推荐物品之间的数量差值小于预设差值。
根据本申请的实施例,上述中间值包括第一中间值和第二中间值,其中,上述将上述训练数据和上述偏好预测值输入交叉熵损失函数中,输出中间值,包括:将上述第一训练数据和与上述第一训练数据对应的偏好预测值输入上述交叉熵损失函数中,输出第一中间值;将上述第二训练数据和与上述第二训练数据对应的偏好预测值输入上述交叉熵损失函数中,输出第二中间值。
根据本申请的实施例,上述模型损失函数如下所示:
Figure 852990DEST_PATH_IMAGE005
其中,
Figure 50753DEST_PATH_IMAGE006
表示模型损失值,
Figure 677037DEST_PATH_IMAGE007
表示上述第一训练数据,
Figure 502911DEST_PATH_IMAGE008
表示与上述第一训练数据 对应的偏好预测值,
Figure 117301DEST_PATH_IMAGE009
表示上述第二训练数据,
Figure 864677DEST_PATH_IMAGE010
表示与上述第二训练数据对应的偏好预 测值; CE(∙)表示交叉熵损失函数,
Figure 481603DEST_PATH_IMAGE011
表示训练权重,
Figure 178295DEST_PATH_IMAGE012
表示控制正则项强度的参数,
Figure 917581DEST_PATH_IMAGE013
表示正则项函数。
本申请实施例的另一个方面提供了一种物品推荐方法,包括:获取数据集,上述数据集中包括多个用户数据和每个用户对应的物品数据;将上述数据集输入物品推荐模型训练方法训练得到的物品推荐模型中,输出每个物品的偏好预测值;基于上述偏好预测值向用户推荐目标物品。
本申请实施例的另一个方面提供了一种物品推荐模型训练装置,包括:第一获取模块,用于获取用于模型训练的交互数据,其中,上述交互数据包括用户针对第一已推荐物品的显式数据和/或上述用户针对第二已推荐物品的隐式数据,上述显式数据表征上述用户对上述第一已推荐物品明确表明态度的情况下,对上述已推荐物品的喜好度,上述隐式数据表征上述用户对上述第二已推荐物品未明确表明态度的情况下,对上述已推荐物品的操作状态属性;权重确定模块,用于根据物品推荐模型的当前训练轮次确定上述交互数据的训练权重;预测确定模块,用于将上述已推荐物品的物品数据输入上述物品推荐模型中,输出上述已推荐物品的偏好预测值;损失确定模块,用于将上述交互数据、上述偏好预测值以及上述训练权重输入上述物品推荐模型的模型损失函数中,输出上述物品推荐模型的模型损失值;模型训练模块,用于基于上述模型损失值对上述物品推荐模型进行训练。
本申请实施例的另一个方面提供了一种物品推荐装置,包括:第二获取模块,用于获取数据集,上述数据集中包括多个用户数据和每个用户对应的物品数据;偏好预测模块,用于将上述数据集输入利用上述物品推荐模型训练方法训练得到的物品推荐模型中,输出每个物品的偏好预测值;推荐模块,用于基于上述偏好预测值向用户推荐目标物品。
本申请实施例的另一个方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如上上述的方法。
本申请实施例的另一个方面提供了一种计算机可读存储介质,存储有计算机可执行指令,上述指令在被执行时用于实现如上上述的方法。
本申请实施例的另一个方面提供了一种计算机程序产品,上述计算机程序产品包括计算机可执行指令,上述指令在被执行时用于实现如上上述的方法。
根据本申请的实施例,用于模型训练的交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据。显式数据表征用户对第一已推荐物品明确表明态度的情况下,对已推荐物品的喜好度。隐式数据表征用户对第二已推荐物品未明确表明态度的情况下,对已推荐物品的操作状态属性。显式数据和隐式数据为用户两种不同的反馈,利用显式数据和隐式数据这两种数据同时对物品推荐模型进行训练,使物品推荐模型能同时学习两种反馈,进而使得物品推荐模型在训练过程中减少数据偏差与噪声的影响。根据物品推荐模型的当前训练轮次确定交互数据的训练权重,通过合理的分配交互数据中显式数据和隐式数据的训练权重,使得物品推荐模型可以针对性训练。训练权重可以随着训练轮次的改变而发生改变,不断将训练引导到更优的参数空间,从而实现对物品推荐模型逐步优化,使得物品推荐模型用于物品推荐时的推荐准确率较高。
附图说明
通过以下参照附图对本申请实施例的描述,本申请的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示出了根据本申请实施例的物品推荐模型训练方法的示例性系统架构;
图2示出了根据本申请实施例的物品推荐模型训练方法的流程图;
图3示出了根据本申请实施例的物品推荐模型训练方法的训练框图;
图4示出了根据本申请实施例的物品推荐模型训练方法的音乐类去偏测试柱状图;
图5示出了根据本申请实施例的物品推荐模型训练方法的视频类去偏测试柱状图;
图6示出了根据本申请实施例的物品推荐方法的流程图;
图7示出了根据本申请实施例的物品推荐模型训练装置的框图;
图8示出了根据本申请实施例的物品推荐装置的框图;
图9示出了根据本申请实施例的适用于物品推荐模型训练方法的电子设备的框图。
具体实施方式
以下,将参照附图来描述本申请的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本申请的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本申请实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本申请的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本申请。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
随着互联网技术的不断发展,推荐系统也变得越来越重要。矩阵分解是当下推荐系统所采取的主要方法,它建立在评分矩阵低秩的假设上,并将用户和物品映射到低维子空间中。在该子空间中,用户对物品的评分最终被建模为用户与物品隐向量的内积。该方法广泛的成功应用证明了其有效性。
然而,尽管推荐模型已经表现出优异的推荐性能,但偏差问题也随着研究的深入凸显出来,例如:
(1)用户行为数据来自于对现有应用的观察,用户只与被推荐给他的物品产生交互,这使得观察数据被推荐机制和用户本身的选择倾向所混淆。
(2)各物品在数据集中的分布并不均匀,如流行物品显然有着更多的交互。因此,模型会更倾向于学习流行物品的特征而非不流行物品。同样的情况也发生在用户端。
(3)推荐系统的一个本质是反馈循环:它的推荐机制决定了用户的交互,而这些交互又被用作推荐系统的训练数据。这样的反馈循环不仅产生了偏差,而且会随着时间的推移而加剧,产生了“富者更富”的马太效应。
因此,要想获得令人满意的推荐效果,推荐模型不仅要关注如何更好地拟合数据,还要考虑数据偏差对推荐结果的影响。盲目拟合数据而不考虑数据偏差会产生意想不到的结果,如放大长尾效应、造成信息茧房等等。因此,如何解决数据偏差问题迫在眉睫。
现有的关于解决数据偏差的方法主要分为三类:(1)数据补全,为缺失数据分配伪标签,以减少偏差;(2)因果图方法,这是一种反事实技术,试图从已有的有偏差分布中推导出无偏的反事实数据分布;(3)对抗学习方法,通过引入对抗模型,增强推荐模型对不受欢迎物品的推荐强度和推荐效果。然而,这些方法的目的往往是解决特定任务下的特定偏差,虽然在某些场景下有效,但要么使得训练参数和训练成本大大增加,实际应用困难,要么对专家知识有额外要求,成本太高。
有鉴于此,发明人发现,可以借助多任务学习,使得物品推荐模型同时对显式数据和隐式数据进行学习,学习用户的多种反馈。且随着物品推荐模型不断地训练,改变对显式数据和隐式数据的训练权重,不断将训练引导到更优的参数空间。
具体地,本申请的实施例提供了一种物品推荐模型训练方法,包括:获取用于模型训练的交互数据,其中,交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据,显式数据表征用户对第一已推荐物品明确表明态度的情况下,对已推荐物品的喜好度,隐式数据表征用户对第二已推荐物品未明确表明态度的情况下,对已推荐物品的操作状态属性;根据物品推荐模型的当前训练轮次确定交互数据的训练权重;将已推荐物品的物品数据输入物品推荐模型中,输出已推荐物品的偏好预测值;将交互数据、偏好预测值以及训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值;基于模型损失值对物品推荐模型进行训练。
在本申请的技术方案中,所涉及的数据(例如,包括但不限于用户信息)的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
图1示出了根据本申请实施例的可以应用一种物品推荐模型训练方法的示例性系统架构100。需要注意的是,图1所示仅为可以应用本申请实施例的系统架构的示例,以帮助本领域技术人员理解本申请的技术内容,但并不意味着本申请实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线和/或无线通信链路等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送交互数据和物品数据等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端和/或社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本申请实施例所提供的一种物品推荐模型训练方法一般可以由服务器105执行。相应地,本申请实施例所提供的一种物品推荐模型训练装置一般可以设置于服务器105中。本申请实施例所提供的一种物品推荐模型训练方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本申请实施例所提供的一种物品推荐模型训练装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。或者,本申请实施例所提供的一种物品推荐模型训练方法也可以由终端设备101、102、或103执行,或者也可以由不同于终端设备101、102、或103的其他终端设备执行。相应地,本申请实施例所提供的一种物品推荐模型训练装置也可以设置于终端设备101、102、或103中,或设置于不同于终端设备101、102、或103的其他终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
需要注意的是,以下方法中各个操作的序号仅作为该操作的表征以便描述,而不应被看作表征该各个操作的执行顺序。除非明确指出,否则该方法不需要完全按照所示顺序来执行。
图2示出了根据本申请实施例的物品推荐模型训练方法的流程图。
如图2所示,该方法包括操作S201~S205。
在操作S201,获取用于模型训练的交互数据,其中,交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据,显式数据表征用户对第一已推荐物品明确表明态度的情况下,对已推荐物品的喜好度,隐式数据表征用户对第二已推荐物品未明确表明态度的情况下,对已推荐物品的操作状态属性。
在操作S202,根据物品推荐模型的当前训练轮次确定交互数据的训练权重。
在操作S203,将已推荐物品的物品数据输入物品推荐模型中,输出已推荐物品的偏好预测值。
在操作S204,将交互数据、偏好预测值以及训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值。
在操作S205,基于模型损失值对物品推荐模型进行训练。
根据本申请的实施例,可以从数据库中获取用于模型训练的交互数据,也可以从云服务器中获取交互数据,在此不做限定。其中,交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据。第一已推荐物品和第二已推荐物品均可以为一个或多个。用户与已推荐物品的交互既有包括喜好度的明确表达,又有不包括喜好度的一般交互,因此针对同一个已推荐物品,交互数据可以包括显式数据或隐式数据。
根据本申请的实施例,显式数据为用户对已推荐物品明确表明态度时,推荐系统或人工对用户针对已推荐物品的感兴趣程度的评分,也就是喜好度。其中,喜好度可以为1到5分。
根据本申请的实施例,隐式数据为用户对已推荐物品未明确表明态度时,对已推荐物品的操作状态属性。用户对已推荐物品未明确表明态度时,难以直接确定用户对该已推荐物品的喜好程度,因此,会存在两种情况:用户与已推荐物品存在交互,也就是操作状态属性为已操作,生成的操作状态属性为1;用户未对已推荐物品不存在交互,也就是操作状态属性为未操作,生成的操作状态属性为-1。
根据本申请的实施例,物品推荐模型在每轮训练的过程中,会生成本轮交互数据对应的训练权重。随着轮次的增加,训练权重逐渐增大。通过设置训练权重,进而对交互数据中显式数据和隐式数据合理分配,使得物品推荐模型可以先在容易样本上训练,然后再对困难样本进行训练,实现由易到难的学习过程。
根据本申请的实施例,可以从数据库中获取已推荐物品的物品数据,也可以从云服务器中获取物品数据,在此不做限定。其中,物品数据可以是短视频或者音乐等。将物品数据输入物品推荐模型中,进而得到已推荐物品的偏好预测值,偏好预测值能够直观地体现用户对该物品喜好的程度。其中,偏好预测值的范围为-1到1,越接近1则说明用于喜欢该已推荐物品的可能性越大。
根据本申请的实施例,将交互数据、偏好预测值以及训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值。基于模型损失值通过反向传播得到模型参数,进而基于模型参数对物品推荐模型进行训练。
根据本申请的实施例,用于模型训练的交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据。显式数据表征用户对第一已推荐物品明确表明态度的情况下,对已推荐物品的喜好度。隐式数据表征用户对第二已推荐物品未明确表明态度的情况下,对已推荐物品的操作状态属性。显式数据和隐式数据为用户两种不同的反馈,利用显式数据和隐式数据这两种数据同时对物品推荐模型进行训练,使物品推荐模型能同时学习两种反馈,进而使得物品推荐模型在训练过程中减少数据偏差与噪声的影响。根据物品推荐模型的当前训练轮次确定交互数据的训练权重,通过合理的分配交互数据中显式数据和隐式数据的训练权重,使得物品推荐模型可以针对性训练。训练权重可以随着训练轮次的改变而发生改变,不断将训练引导到更优的参数空间,从而实现对物品推荐模型逐步优化,使得物品推荐模型用于物品推荐时的推荐准确率较高。
图3示出了根据本申请实施例的物品推荐模型训练方法的训练框图。
根据本申请的实施例,根据当前训练轮次确定交互数据的训练权重,可以包括如下操作。
将当前训练轮次输入加权函数中,输出训练权重,加权函数如下:
Figure 932679DEST_PATH_IMAGE001
其中,
Figure 822138DEST_PATH_IMAGE002
Figure 91445DEST_PATH_IMAGE003
表示超参数,
Figure 549102DEST_PATH_IMAGE004
表示当前训练轮次。
根据本申请的实施例,
Figure 5491DEST_PATH_IMAGE002
Figure 72542DEST_PATH_IMAGE003
均可以根据具体训练任务的具体情况而调整。 如图3所示,在每一个训练周期均会生成一个训练权重。在物品推荐模型开始训练时,对训 练轮次进行初始化,
Figure 868460DEST_PATH_IMAGE014
表示第一轮。M为本次对物理推荐模型训练设置的 最大训练轮次,可以基于训练精度对其设置。例如,M设为100次。
根据本申请的实施例,在物品推荐的当前训练轮次n小于M的情况下,根据物品推荐模型的当前训练轮次确定交互数据的训练权重,并基于训练权重对物品推荐模型进行训练,进而得到当前阶段模型。令n=n+1,生成新的当前训练轮次,并基于新的当前训练轮次计算训练权重,直至n不小于M,则停止计算训练权重,完成对物品训练模型的训练。
根据本申请的实施例,通过计算交互数据的训练权重,对显式数据和隐式数据进行合理分配。在训练的开始阶段降低有噪的隐式数据权重,使得模型可以先在容易样本上训练,然后再对困难有噪样本进行训练,这可以使模型在后面的训练阶段更抗噪声,从而减少后续噪声影响。
根据本申请的实施例,将交互数据、偏好预测值以及训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值,可以包括如下操作。
根据预设处理规则对交互数据进行处理,生成训练数据;将训练数据和偏好预测值输入交叉熵损失函数中,输出中间值;将中间值和训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值。
根据本申请的实施例,预设处理规则中包括对显式数据的处理规则和对隐式数据的处理规则。分别对显式数据和隐式数据处理后,进而生成训练数据。将训练数据和偏好预测值输入交叉熵损失函数中,交叉熵损失函数CE(∙)用以衡量训练数据与偏好预测值之间的差距,差距越大,损失函数越大。将中间值和训练权重输入物品推荐模型的模型损失函数中,进而得到物品推荐模型的模型损失值。物品推荐模型训练的目标是最小化该损失函数,即使得偏好预测的结果尽可能接近训练数据的实际情况。
根据本申请的实施例,预设处理规则包括预设转化规则和预设采样规则,训练数据包括第一训练数据和第二训练数据,其中,根据预设处理规则对交互数据进行处理,生成训练数据,可以包括如下操作。
根据预设转化规则对显式数据进行转化,生成第一训练数据,预设转化规则为基于喜好度对显式数据进行转化,第一训练数据中包括喜好度大于预设阈值的第一数据和喜好度不大于预设阈值的第二数据;根据预设采样规则隐式数据进行采样,生成第二训练数据,预设采样规则为基于操作状态属性对隐式数据进行采样,操作状态属性包括已操作属性和未操作属性,第二训练数据中操作状态属性为已操作属性的已推荐物品和操作状态属性为未操作属性的已推荐物品之间的数量差值小于预设差值。
根据本申请的实施例,基于喜好度对显式数据进行转化,喜好度的范围为1到5分,可以将预设阈值设置为3分。根据预设转化规则对显式数据进行转化,生成显式数据的正样本训练数据和负样本训练数据。例如,将喜好度大于3分的显式数据转化为正样本训练数据,并将其赋值为1。将喜好度不大于3分的显式数据转化为负样本训练数据,并将其赋值为-1。
根据本申请的实施例,基于操作状态属性对隐式数据进行采样,由于隐式数据中,操作状态属性为未操作属性的已推荐物品数量庞大,训练过程中难以全部数据进行训练。因此,通过预设采样规则对隐式数据进行采样,进而确定隐式数据的正样本训练数据和负样本训练数据,并将正样本训练数据赋值为1,负样本训练数据赋值为-1。对隐式数据中操作状态属性为未操作属性的已推荐物品进行随机采样,或者有规律的间隔采样,使得操作状态属性为已操作属性的已推荐物品和操作状态属性为未操作属性的已推荐物品之间的数量差值小于预设差值。
根据本申请的实施例,中间值包括第一中间值和第二中间值,其中,将训练数据和偏好预测值输入交叉熵损失函数中,输出中间值,可以包括如下操作。
将第一训练数据和与第一训练数据对应的偏好预测值输入交叉熵损失函数中,输出第一中间值;将第二训练数据和与第二训练数据对应的偏好预测值输入交叉熵损失函数中,输出第二中间值。
根据本申请的实施例,第一中间值x=,其中
Figure 746286DEST_PATH_IMAGE007
表示第一训练数据,
Figure 706283DEST_PATH_IMAGE008
表示与第一训 练数据对应的偏好预测值。第一中间值y=
Figure 203123DEST_PATH_IMAGE015
,其中,
Figure 243761DEST_PATH_IMAGE009
表示第二训练数据,
Figure 948280DEST_PATH_IMAGE010
表示 与第二训练数据对应的偏好预测值。第一中间值和第二中间值能够体现训练数据和偏好预 测值之间的差距。
根据本申请的实施例,模型损失函数如下所示:
Figure 707158DEST_PATH_IMAGE005
其中,
Figure 742110DEST_PATH_IMAGE006
表示模型损失值,
Figure 591248DEST_PATH_IMAGE007
表示第一训练数据,
Figure 545298DEST_PATH_IMAGE008
表示与第一训练数据对应的偏 好预测值,
Figure 666838DEST_PATH_IMAGE009
表示第二训练数据,
Figure 879382DEST_PATH_IMAGE010
表示与第二训练数据对应的偏好预测值; CE(∙)表示交 叉熵损失函数,
Figure 301136DEST_PATH_IMAGE011
表示训练权重,
Figure 442398DEST_PATH_IMAGE012
表示控制正则项强度的参数,
Figure 847972DEST_PATH_IMAGE013
表示正则项函数。
根据本申请的实施例,
Figure 490306DEST_PATH_IMAGE012
为控制正则项强度的参数,需人为设定,该参数越大,正则 项约束越强。
Figure 609309DEST_PATH_IMAGE013
为正则项函数,这里选用常用的L2正则。第一中间值和第二中间值权 重设置的不同,使得训练过程中从模型损失函数平滑的显式数据开始,然后变换到粗糙的 隐式数据,这是学习目标层面的“由易到难”。此训练方法不断将训练引导到更优的参数空 间,同时从显式数据中学习到的局部最小值具有更好的泛化能力,更有可能在后续的隐式 数据中逼近全局最小值,最终得到所需的去偏的物品推荐模型。
根据本申请的实施例,物品推荐模型训练完成后,将测试数据输入至物品推荐模型中对其进行检测。例如,如表1所示,测试数据包括多个用户数据和每个用户对应的物品数据,以及用户与物品的交互数据和测试数据的稠密度。需要说明的是,这些测试数据是通过各种公开、合法合规的方式获取得到的,例如可以来自于公开数据集,或者是经过了用户授权得到的数据。其中,Yahoo!R3来源于某音乐服务所收集的用户行为数据,物品是音乐,该数据集被广泛得应用于推荐去偏研究中。KuaiRand来源于某视频分享手机应用的推荐日志,物品是短视频,该数据集数据量大、发布时间晚,相比前者更加先进。这两个数据集都包括一组来自平台用户正常交互的有偏数据,即已经对用户和物品训练后所得到的交互数据。以及一组来自随机实验的无偏数据,即没有对用户和物品训练的交互数据,分别用于模型训练与评估。
表1测试数据
Figure 46107DEST_PATH_IMAGE016
根据本申请的实施例,将基于本方法生成的物品推荐模型与现有的流行推荐方法进行对比,分别测试推荐性能和去偏性能。现有的流行推荐方法中包括基于显式反馈的矩阵分解方法(matrix factorization(explicit),简称MF(显式))、逆倾向加权方法(Inverse propensity score,简称IPS)、双重鲁棒方法(Doubly robust,简称DR)、反事实变分信息瓶颈方法(Counterfactual variational information bottleneck,简称CVIB)、基于隐式反馈的矩阵分解方法(matrix factorization(implicit),简称MF(隐式))、基于最大相关的矩阵分解方法(matrix factorization based on relevance,简称Rel-MF)以及基于浏览数据的增强采样推荐方法(View-enhanced sampler,简称View)。
根据本申请的实施例,在对推荐性能测试的过程中,将测试数据通过各个流行推荐方法对物品进行推荐,并生成推荐结果。如表2所示,在归一化折损累积增益(NormalizedDiscounted Cumulative Gain,简称NDCG)指标上,本实施例基于本方法生成的物品推荐模型在两个数据集上都超越了其它流行推荐方法,分别增长了1.8%和1%。对于指标ROC曲线下的面积(Area under the ROC Curve,简称AUC),基于本实施例方法生成的物品推荐模型在Yahoo!R3数据集上更高,而在KuaiRand数据集上较低,这是因为AUC基于整体排名而不是各个用户分别计算。而KuaiRand测试集上各个用户的交互次数不同,导致各用户正样本虽然在用户物品中排名较高,但在整个数据集中排名靠后,从而拉低了本实施例的方法在AUC上的表现。这一结果表明基于本实施例方法生成的物品推荐模型在用户端推荐有更好的表现。
表 2 本方法与流行推荐方法的推荐性能对比
Figure 938977DEST_PATH_IMAGE017
根据本申请的实施例,在对去偏性能测试的过程中,根据已推荐物品的流行度将测试数据分成四个子集,依次分为最不流行组、不流行组、流行组、最流行组,然后评估推荐模型在各组上的推荐性能。其中,流行度可以是基于用户的操作次数确定的,对已推荐物品操作次数越高,流行度越高;流行度也可以是基于该已推荐物品被搜索时生成的搜索结果的数量确定的,搜索结果的数量越大,流行度越高。通过设置多个分组阈值,对测试数据进行分组。在测试过程中,仅保留目标组正样本而屏蔽其余三组的正样本,并选取表2中对比方法的优胜者作为对比,正样本包括显式数据的正样本训练数据和隐式数据的正样本训练数据。
图4示出了根据本申请实施例的物品推荐模型训练方法的音乐类去偏测试柱状图。
根据本申请的实施例, 如图4所示,可以发现本实施例方法在保持流行组性能的同时,在非流行组上对性能有明显的改善。在Yahoo!R3中,最不流行组的表现提高了28%,不流行组的表现提高了9%。
图5示出了根据本申请实施例的物品推荐模型训练方法的视频类去偏测试柱状图
根据本申请的实施例, 如图5所示,在KuaiRand上,最不流行组的表现提高了19%,不流行组的表现提高了7%。相比于对比方法,本物品推荐模型训练方法去偏效果更加稳定,更擅长处理长尾数据,本方法对于去偏更加地有效。
图6示出了根据本申请实施例的物品推荐方法的流程图。
如图6所示,该方法包括操作S601~S603。
在操作S601,获取数据集,数据集中包括多个用户数据和每个用户对应的物品数据。
在操作S602,将数据集输入经过物品推荐模型训练方法训练得到的物品推荐模型中,输出每个物品的偏好预测值。
在操作S603,基于偏好预测值向用户推荐目标物品。
根据本申请的实施例,可以从数据库中获取数据集,也可以从云服务器中获取数据集,在此不做限定。用户数据中包括用户的ID或者IP地址等,物品可以是电影和音乐等。将获取的数据集输入经过训练的物品推荐模型,该物品推荐模型是基于操作S201~S205所训练得到的物品推荐模型。输入物品推荐模型后,输出每个物品的偏好预测值。然后基于偏好预测值向用户推荐目标物品,偏好预测值的范围为-1到1,将偏好预测值贴近1的物品推荐给用户。
图7示出了根据本申请实施例的物品推荐模型训练装置的框图。
如图7所示,物品推荐模型训练装置700可以包括第一获取模块701、权重确定模块702、预测确定模块703、损失确定模块704以及模型训练模块705。
第一获取模块701,用于获取用于模型训练的交互数据,其中,交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据,显式数据表征用户对第一已推荐物品明确表明态度的情况下,对已推荐物品的喜好度,隐式数据表征用户对第二已推荐物品未明确表明态度的情况下,对已推荐物品的操作状态属性。
权重确定模块702,用于根据物品推荐模型的当前训练轮次确定交互数据的训练权重。
预测确定模块703,用于将已推荐物品的物品数据输入物品推荐模型中,输出已推荐物品的偏好预测值。
损失确定模块704,用于将交互数据、偏好预测值以及训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值。
模型训练模块705,用于基于模型损失值对物品推荐模型进行训练。
根据本申请的实施例,用于模型训练的交互数据包括用户针对第一已推荐物品的显式数据和/或用户针对第二已推荐物品的隐式数据。显式数据表征用户对第一已推荐物品明确表明态度的情况下,对已推荐物品的喜好度。隐式数据表征用户对第二已推荐物品未明确表明态度的情况下,对已推荐物品的操作状态属性。显式数据和隐式数据为用户两种不同的反馈,利用显式数据和隐式数据这两种数据同时对物品推荐模型进行训练,使物品推荐模型能同时学习两种反馈,进而使得物品推荐模型在训练过程中减少数据偏差与噪声的影响。根据物品推荐模型的当前训练轮次确定交互数据的训练权重,通过合理的分配交互数据中显式数据和隐式数据的训练权重,使得物品推荐模型可以针对性训练。训练权重可以随着训练轮次的改变而发生改变,不断将训练引导到更优的参数空间,从而实现对物品推荐模型逐步优化,使得物品推荐模型用于物品推荐时的推荐准确率较高。
根据本申请实施例,权重确定模块702包括权重计算单元。
权重计算单元,用于将当前训练轮次输入加权函数中,输出训练权重。
根据本申请实施例,损失确定模块704包括数据处理单元、中间值生成单元以及损失值生成单元。
数据处理单元,用于根据预设处理规则对交互数据进行处理,生成训练数据。
中间值生成单元,用于将训练数据和偏好预测值输入交叉熵损失函数中,输出中间值。
损失值生成单元,用于将中间值和训练权重输入物品推荐模型的模型损失函数中,输出物品推荐模型的模型损失值。
根据本申请实施例,数据处理单元包括转化子单元和采样子单元。
转化子单元,用于根据预设转化规则对显式数据进行转化,生成第一训练数据,预设转化规则为基于喜好度对显式数据进行转化,第一训练数据中包括喜好度大于预设阈值的第一数据和喜好度不大于预设阈值的第二数据。
采样子单元,用于根据预设采样规则隐式数据进行采样,生成第二训练数据,预设采样规则为基于操作状态属性对隐式数据进行采样,操作状态属性包括已操作属性和未操作属性,第二训练数据中操作状态属性为已操作属性的已推荐物品和操作状态属性为未操作属性的已推荐物品之间的数量差值小于预设差值。
根据本申请实施例,中间值生成单元包括第一子单元和第二子单元。
第一子单元,用于将第一训练数据和与第一训练数据对应的偏好预测值输入交叉熵损失函数中,输出第一中间值。
第二子单元,用于将第二训练数据和与第二训练数据对应的偏好预测值输入交叉熵损失函数中,输出第二中间值。
图8示出了根据本申请实施例的物品推荐装置的框图。
如图8所示,物品推荐装置800可以包括第二获取模块801、偏好预测模块802以及推荐模块803。
第二获取模块801,用于获取数据集,数据集中包括多个用户数据和每个用户对应的物品数据。
偏好预测模块802,用于将数据集输入物品推荐模型训练方法训练得到的物品推荐模型中,输出每个物品的偏好预测值。
推荐模块803,用于基于偏好预测值向用户推荐目标物品。
根据本申请的实施例的模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本申请实施例的模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本申请实施例的模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(Field ProgrammableGate Array ,FPGA)、可编程逻辑阵列(Programmable Logic Arrays ,PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(Application Specific Integrated Circuit,ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本申请实施例的模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一获取模块701、权重确定模块702、预测确定模块703、损失确定模块704以及模型训练模块705,第二获取模块801、偏好预测模块802以及推荐模块803中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本申请的实施例,第一获取模块701、权重确定模块702、预测确定模块703、损失确定模块704以及模型训练模块705,第二获取模块801、偏好预测模块802以及推荐模块803中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一获取模块701、权重确定模块702、预测确定模块703、损失确定模块704以及模型训练模块705,第二获取模块801、偏好预测模块802以及推荐模块803中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
需要说明的是,本申请的实施例中物品推荐模型训练装置部分与本申请的实施例中物品推荐模型训练方法部分是相对应的,物品推荐模型训练装置部分的描述具体参考物品推荐模型训练方法部分,在此不再赘述。
图9示出了根据本申请实施例的适于实现上文描述的方法的电子设备的框图。图9示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图9所示,根据本申请实施例的电子设备900包括处理器901,其可以根据存储在只读存储器(Read-Only Memory,ROM)902中的程序或者从存储部分908加载到随机访问存储器(Random Access Memory,RAM)903中的程序而执行各种适当的动作和处理。处理器901例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器901还可以包括用于缓存用途的板载存储器。处理器901可以包括用于执行根据本申请实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 903中,存储有电子设备900操作所需的各种程序和数据。处理器 901、ROM902以及RAM 903通过总线904彼此相连。处理器901通过执行ROM 902和/或RAM 903中的程序来执行根据本申请实施例的方法流程的各种操作。需要注意,程序也可以存储在除ROM902和RAM 903以外的一个或多个存储器中。处理器901也可以通过执行存储在一个或多个存储器中的程序来执行根据本申请实施例的方法流程的各种操作。
根据本申请的实施例,电子设备900还可以包括输入/输出(I/O)接口905,输入/输出(I/O)接口905也连接至总线904。系统900还可以包括连接至I/O接口905的以下部件中的一项或多项:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
根据本申请的实施例,根据本申请实施例的方法流程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被处理器901执行时,执行本申请实施例的系统中限定的上述功能。根据本申请的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本申请实施例的方法。
根据本申请的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质。例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM(Erasable Programmable Read Only Memory,EPROM)或闪存)、便携式紧凑磁盘只读存储器(Computer Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
例如,根据本申请的实施例,计算机可读存储介质可以包括上文描述的ROM 902和/或RAM 903和/或ROM 902和RAM 903以外的一个或多个存储器。
本申请的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本申请实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本申请实施例所提供的物品推荐模型训练方法。
在该计算机程序被处理器901执行时,执行本申请实施例的系统/装置中限定的上述功能。根据本申请的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分909被下载和安装,和/或从可拆卸介质911被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本申请的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本申请实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。本领域技术人员可以理解,本申请的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本申请中。特别地,在不脱离本申请精神和教导的情况下,本申请的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本申请的范围。
以上对本申请的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本申请的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本申请的范围由所附权利要求及其等同物限定。不脱离本申请的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本申请的范围之内。

Claims (10)

1.一种物品推荐模型训练方法,包括:
获取用于模型训练的交互数据,其中,所述交互数据包括用户针对第一已推荐物品的显式数据和/或所述用户针对第二已推荐物品的隐式数据,所述显式数据表征所述用户对所述第一已推荐物品明确表明态度的情况下,对所述已推荐物品的喜好度,所述隐式数据表征所述用户对所述第二已推荐物品未明确表明态度的情况下,对所述已推荐物品的操作状态属性;
根据物品推荐模型的当前训练轮次确定所述交互数据的训练权重;
将所述已推荐物品的物品数据输入所述物品推荐模型中,输出所述已推荐物品的偏好预测值;
将所述交互数据、所述偏好预测值以及所述训练权重输入所述物品推荐模型的模型损失函数中,输出所述物品推荐模型的模型损失值;
基于所述模型损失值对所述物品推荐模型进行训练。
2.根据权利要求1所述的方法,其中,所述根据所述当前训练轮次确定所述交互数据的训练权重,包括:
将所述当前训练轮次输入加权函数中,输出所述训练权重,所述加权函数如下:
Figure 155941DEST_PATH_IMAGE001
其中,
Figure 712562DEST_PATH_IMAGE002
Figure 226720DEST_PATH_IMAGE003
表示超参数,
Figure 215405DEST_PATH_IMAGE004
表示当前训练轮次。
3.根据权利要求1所述的方法,其中,所述将所述交互数据、所述偏好预测值以及所述训练权重输入所述物品推荐模型的模型损失函数中,输出所述物品推荐模型的模型损失值,包括:
根据预设处理规则对所述交互数据进行处理,生成训练数据;
将所述训练数据和所述偏好预测值输入交叉熵损失函数中,输出中间值;
将所述中间值和所述训练权重输入所述物品推荐模型的模型损失函数中,输出所述物品推荐模型的模型损失值。
4.根据权利要求3所述的方法,所述预设处理规则包括预设转化规则和预设采样规则,所述训练数据包括第一训练数据和第二训练数据,其中,所述根据预设处理规则对所述交互数据进行处理,生成训练数据,包括:
根据预设转化规则对所述显式数据进行转化,生成所述第一训练数据,所述预设转化规则为基于所述喜好度对所述显式数据进行转化,所述第一训练数据中包括所述喜好度大于预设阈值的第一数据和所述喜好度不大于所述预设阈值的第二数据;
根据预设采样规则所述隐式数据进行采样,生成所述第二训练数据,所述预设采样规则为基于所述操作状态属性对所述隐式数据进行采样,所述操作状态属性包括已操作属性和未操作属性,所述第二训练数据中所述操作状态属性为所述已操作属性的已推荐物品和所述操作状态属性为所述未操作属性的已推荐物品之间的数量差值小于预设差值。
5.根据权利要求4所述的方法,所述中间值包括第一中间值和第二中间值,其中,所述将所述训练数据和所述偏好预测值输入交叉熵损失函数中,输出中间值,包括:
将所述第一训练数据和与所述第一训练数据对应的偏好预测值输入所述交叉熵损失函数中,输出第一中间值;
将所述第二训练数据和与所述第二训练数据对应的偏好预测值输入所述交叉熵损失函数中,输出第二中间值。
6.根据权利要求4或5所述的方法,其中,所述模型损失函数如下所示:
Figure 46089DEST_PATH_IMAGE005
其中,
Figure 727606DEST_PATH_IMAGE006
表示模型损失值,
Figure 463481DEST_PATH_IMAGE007
表示所述第一训练数据,
Figure 3659DEST_PATH_IMAGE008
表示与所述第一训练数据对应 的偏好预测值,
Figure 141379DEST_PATH_IMAGE009
表示所述第二训练数据,
Figure 931481DEST_PATH_IMAGE010
表示与所述第二训练数据对应的偏好预测值; CE(∙)表示交叉熵损失函数,
Figure 764438DEST_PATH_IMAGE011
表示训练权重,
Figure 94926DEST_PATH_IMAGE012
表示控制正则项强度的参数,
Figure 664316DEST_PATH_IMAGE013
表示 正则项函数。
7.一种物品推荐方法,包括:
获取数据集,所述数据集中包括多个用户数据和每个用户对应的物品数据;
将所述数据集输入权利要求1~6中任一项所述的物品推荐模型训练方法训练得到的物品推荐模型中,输出每个物品的偏好预测值;
基于所述偏好预测值向用户推荐目标物品。
8.一种物品推荐模型训练装置,包括:
第一获取模块,用于获取用于模型训练的交互数据,其中,所述交互数据包括用户针对第一已推荐物品的显式数据和/或所述用户针对第二已推荐物品的隐式数据,所述显式数据表征所述用户对所述第一已推荐物品明确表明态度的情况下,对所述已推荐物品的喜好度,所述隐式数据表征所述用户对所述第二已推荐物品未明确表明态度的情况下,对所述已推荐物品的操作状态属性;
权重确定模块,用于根据物品推荐模型的当前训练轮次确定所述交互数据的训练权重;
预测确定模块,用于将所述已推荐物品的物品数据输入所述物品推荐模型中,输出所述已推荐物品的偏好预测值;
损失确定模块,用于将所述交互数据、所述偏好预测值以及所述训练权重输入所述物品推荐模型的模型损失函数中,输出所述物品推荐模型的模型损失值;
模型训练模块,用于基于所述模型损失值对所述物品推荐模型进行训练。
9.一种物品推荐装置,包括:
第二获取模块,用于获取数据集,所述数据集中包括多个用户数据和每个用户对应的物品数据;
偏好预测模块,用于将所述数据集输入权利要求1~6中任一项所述的物品推荐模型训练方法训练得到的物品推荐模型中,输出每个物品的偏好预测值;
推荐模块,用于基于所述偏好预测值向用户推荐目标物品。
10.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1~6中任一项,或权利要求7所述的方法。
CN202211741511.XA 2022-12-30 2022-12-30 物品推荐模型训练方法、装置、电子设备及存储介质 Active CN115841366B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211741511.XA CN115841366B (zh) 2022-12-30 2022-12-30 物品推荐模型训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211741511.XA CN115841366B (zh) 2022-12-30 2022-12-30 物品推荐模型训练方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN115841366A true CN115841366A (zh) 2023-03-24
CN115841366B CN115841366B (zh) 2023-08-29

Family

ID=85577695

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211741511.XA Active CN115841366B (zh) 2022-12-30 2022-12-30 物品推荐模型训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115841366B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116150504A (zh) * 2023-04-17 2023-05-23 特斯联科技集团有限公司 处理长尾分布的推荐方法、装置及计算机存储介质、终端
CN117522532A (zh) * 2024-01-08 2024-02-06 浙江大学 一种流行度纠偏推荐方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241440A (zh) * 2018-09-29 2019-01-18 北京工业大学 一种基于深度学习的面向隐式反馈推荐方法
CN113987358A (zh) * 2021-11-15 2022-01-28 中国科学技术大学 一种推荐模型的训练方法、推荐方法及推荐系统
CN114463090A (zh) * 2022-01-29 2022-05-10 桂林远望智能通信科技有限公司 一种物品推荐数据处理方法、装置以及存储介质
CN114491266A (zh) * 2022-01-29 2022-05-13 桂林电子科技大学 一种物品推荐方法、装置以及存储介质
US20220198289A1 (en) * 2019-09-11 2022-06-23 Huawei Technologies Co., Ltd. Recommendation model training method, selection probability prediction method, and apparatus
CN114661999A (zh) * 2022-03-31 2022-06-24 腾讯音乐娱乐科技(深圳)有限公司 一种推荐方法、推荐模型的训练方法以及相关装置
CN114912030A (zh) * 2022-06-27 2022-08-16 平安银行股份有限公司 权益模型训练方法、推荐方法及电子终端和计算机介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109241440A (zh) * 2018-09-29 2019-01-18 北京工业大学 一种基于深度学习的面向隐式反馈推荐方法
US20220198289A1 (en) * 2019-09-11 2022-06-23 Huawei Technologies Co., Ltd. Recommendation model training method, selection probability prediction method, and apparatus
CN113987358A (zh) * 2021-11-15 2022-01-28 中国科学技术大学 一种推荐模型的训练方法、推荐方法及推荐系统
CN114463090A (zh) * 2022-01-29 2022-05-10 桂林远望智能通信科技有限公司 一种物品推荐数据处理方法、装置以及存储介质
CN114491266A (zh) * 2022-01-29 2022-05-13 桂林电子科技大学 一种物品推荐方法、装置以及存储介质
CN114661999A (zh) * 2022-03-31 2022-06-24 腾讯音乐娱乐科技(深圳)有限公司 一种推荐方法、推荐模型的训练方法以及相关装置
CN114912030A (zh) * 2022-06-27 2022-08-16 平安银行股份有限公司 权益模型训练方法、推荐方法及电子终端和计算机介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116150504A (zh) * 2023-04-17 2023-05-23 特斯联科技集团有限公司 处理长尾分布的推荐方法、装置及计算机存储介质、终端
CN116150504B (zh) * 2023-04-17 2023-07-04 特斯联科技集团有限公司 处理长尾分布的推荐方法、装置及计算机存储介质、终端
CN117522532A (zh) * 2024-01-08 2024-02-06 浙江大学 一种流行度纠偏推荐方法、装置、电子设备及存储介质
CN117522532B (zh) * 2024-01-08 2024-04-16 浙江大学 一种流行度纠偏推荐方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN115841366B (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
US11625494B2 (en) Data privacy policy based network resource access controls
US10706325B2 (en) Method and apparatus for selecting a network resource as a source of content for a recommendation system
US10430481B2 (en) Method and apparatus for generating a content recommendation in a recommendation system
WO2022041979A1 (zh) 一种信息推荐模型的训练方法和相关装置
US9064212B2 (en) Automatic event categorization for event ticket network systems
US11250322B2 (en) Self-healing machine learning system for transformed data
CN115841366B (zh) 物品推荐模型训练方法、装置、电子设备及存储介质
US20240127058A1 (en) Training neural networks using priority queues
US20140282493A1 (en) System for replicating apps from an existing device to a new device
US20150309988A1 (en) Evaluating Crowd Sourced Information Using Crowd Sourced Metadata
US20200265317A1 (en) Neural episodic control
CN115917535A (zh) 推荐模型的训练方法、推荐方法、装置及计算机可读介质
CN113688310B (zh) 一种内容推荐方法、装置、设备及存储介质
CN113486989B (zh) 基于知识图谱的对象识别方法、装置、可读介质和设备
CN112650841A (zh) 信息处理方法、装置和电子设备
CN114036398A (zh) 内容推荐和排序模型训练方法、装置、设备以及存储介质
CN109829117A (zh) 用于推送信息的方法和装置
US20140129694A1 (en) Evaluating information retrieval systems in real-time across dynamic clusters of evidence
US20230229896A1 (en) Method and computing device for determining optimal parameter
CN109299351B (zh) 内容推荐方法和装置、电子设备及计算机可读介质
CN115700548A (zh) 用户行为预测的方法、设备和计算机程序产品
CN113094584A (zh) 推荐学习资源的确定方法和装置
CN116720003B (zh) 排序处理方法、装置、计算机设备、及存储介质
CN116561735B (zh) 一种基于多认证源的互信认证方法、系统及电子设备
CN113010784B (zh) 用于生成预测信息的方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant