CN113901327A - 一种目标推荐模型训练方法、推荐方法、装置及电子设备 - Google Patents

一种目标推荐模型训练方法、推荐方法、装置及电子设备 Download PDF

Info

Publication number
CN113901327A
CN113901327A CN202111265649.2A CN202111265649A CN113901327A CN 113901327 A CN113901327 A CN 113901327A CN 202111265649 A CN202111265649 A CN 202111265649A CN 113901327 A CN113901327 A CN 113901327A
Authority
CN
China
Prior art keywords
user
similarity
sample
preset
loss function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111265649.2A
Other languages
English (en)
Inventor
常超
宋金波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202111265649.2A priority Critical patent/CN113901327A/zh
Publication of CN113901327A publication Critical patent/CN113901327A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开关于一种目标推荐模型训练方法、装置、电子设备及存储介质。方法包括:获取第一样本集,第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本,将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度,基于第一相似度和预设阈值确定预设损失函数,预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数,基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。这样,通过以用户为中心排序或者多中心排序的预设损失函数得到的目标推荐模型,可以避免现有技术中忽略掉一些用户事实上感兴趣的对象的状况,进而提高对象推荐的准确率。

Description

一种目标推荐模型训练方法、推荐方法、装置及电子设备
技术领域
本公开涉及互联网技术领域,尤其涉及一种目标推荐模型训练方法、推荐方法、装置及电子设备。
背景技术
随机计算机网络技术的发展,目标推荐模型训练的工作由于越来越受到大家的关注,其也得到大力的发展。
相关技术中,现有的目标推荐模型训练技术大多仅仅以用户为中心进行模型的构建,在此基础上推断用户的感兴趣的对象,然而这种目标推荐模型训练的结果不尽如人意,存在忽略掉一些用户事实上感兴趣的对象的状况,进而使得在后续对用户进行对象推荐的时候,推荐的准确度有待提高。
发明内容
本公开提供一种目标推荐模型训练方法、推荐方法、装置及电子设设,本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种目标推荐模型训练方法,包括:
获取第一样本集;第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本;第一正样本表征在历史时段被推荐至用户且用户对应的反馈信息满足反馈条件的样本;第一负样本表征在历史时段被推荐至用户且用户对应的反馈信息不满足反馈条件的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本;
将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度;
基于第一相似度和预设阈值确定预设损失函数;预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数;
基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。
在一些可能的实施例中,基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型包括:
计算每个用户和对应的第一负样本之间的第二相似度;
计算每个用户和对应的第一正样本之间的第三相似度;
基于预设损失函数、第一相似度、第二相似度和第三相似度确定每个用户对应的损失值;
基于每个用户对应的损失值对预设机器学习模型进行训练,得到目标推荐模型。
在一些可能的实施例中,
预设损失函数的表达式为:
Figure BDA0003326894050000021
其中,L′为损失值,xui为第三相似度,xuj为第二相似度,xij为第一相似度,γ为预设阈值,λ为多中心排序的权重,B包括用户,正样本和负样本,其中,用户和正样本之间存在交互信息,用户和负样本之间不存在交互信息。
在一些可能的实施例中,在预设阈值包括多种阈值时,且多种阈值包括第二相似度,第三相似度和预设值,预设损失函数的表达式为:
Figure BDA0003326894050000022
其中,L″为综合损失值,综合损失值表征当预设阈值包括多种阈值时,多种阈值中各个阈值对应的损失值的和;θ为模型参数,η为L2损失模型的权重。
在一些可能的实施例中,当预设阈值为第二相似度时,基于第一相似度和预设阈值确定预设损失函数包括:
基于第一相似度和第二相似度确定预设损失函数。
在一些可能的实施例中,基于第一相似度和第二相似度确定预设损失函数包括:
当第一相似度大于第二相似度时,确定多中心排序的第二预设损失函数。
在一些可能的实施例中,基于第一相似度和第二相似度确定预设损失函数包括:
当第一相似度小于等于第二相似度时,确定以用户为中心排序的第一预设损失函数。
在一些可能的实施例中,方法还包括:
计算每个用户和对应的第一负样本之间的第二相似度;
在设阈值为第二相似度时,基于第一相似度和预设阈值确定预设损失函数包括:
当第一相似度大于第二相似度时,确定以正样本为中心排序的第三预设损失函数。
在一些可能的实施例中,获取第一样本集包括:
确定多个用户;
基于用户的交互数据确定多个用户中的每个用户对应的第一正样本;
根据随机采样规则确定每个用户对应的第一负样本;
其中,第一正样本和第一负样本为不同的样本。
在一些可能的实施例中,反馈条件表征用户对在历史时段被推荐的样本表示满意。
根据本公开实施例的第二方面,提供一种推荐方法,包括:
获取目标用户的标识信息;
将目标用户的标识信息输入目标推荐模型训练方法训练得到的目标推荐模型,得到目标对象的标识信息对应的推荐对象的标识信息。
根据本公开实施例的第三方面,提供一种目标推荐模型训练装置,包括:
样本集获取模块,被配置为执行获取第一样本集;第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本;第一正样本表征在历史时段被推荐至用户且用户对应的反馈信息满足反馈条件的样本;第一负样本表征在历史时段被推荐至用户且用户对应的反馈信息不满足反馈条件的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本;
相似度确定模块,被配置为执行将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度;
损失函数确定模块,被配置为执行基于第一相似度和预设阈值确定预设损失函数;预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数;
模型训练模块,被配置为执行基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。
在一些可能的实施例中,模型训练模块,被配置为执行:
计算每个用户和对应的第一负样本之间的第二相似度;
计算每个用户和对应的第一正样本之间的第三相似度;
基于预设损失函数、第一相似度、第二相似度和第三相似度确定每个用户对应的损失值;
基于每个用户对应的损失值对预设机器学习模型进行训练,得到目标推荐模型。
在一些可能的实施例中,预设损失函数的表达式为:
Figure BDA0003326894050000041
其中,L′为损失值,xui为第三相似度,xuj为第二相似度,xij为第一相似度,γ为预设阈值,λ为多中心排序的权重,B包括用户,正样本和负样本,其中,用户和正样本之间存在交互信息,用户和负样本之间不存在交互信息。
在一些可能的实施例中,在预设阈值包括多种阈值时,且多种阈值包括第二相似度,第三相似度和预设值,预设损失函数的表达式为:
Figure BDA0003326894050000042
其中,L″为综合损失值,综合损失值表征当预设阈值包括多种阈值时,多种阈值中各个阈值对应的损失值的和;θ为模型参数,η为L2损失模型的权重。
在一些可能的实施例中,当预设阈值为第二相似度时,损失函数确定模块,被配置为执行:
基于第一相似度和第二相似度确定预设损失函数。
在一些可能的实施例中,损失函数确定模块,被配置为执行:
当第一相似度大于第二相似度时,确定多中心排序的第二预设损失函数。
在一些可能的实施例中,基损失函数确定模块,被配置为执行:
当第一相似度小于等于第二相似度时,确定以用户为中心排序的第一预设损失函数。
在一些可能的实施例中,相似度确定模块,被配置为执行:
计算每个用户和对应的第一负样本之间的第二相似度;
在设阈值为第二相似度时,损失函数确定模块,被配置为执行:
当第一相似度大于第二相似度时,确定以正样本为中心排序的第三预设损失函数。
在一些可能的实施例中,样本集获取模块,被配置为执行:
确定多个用户;
基于用户的交互数据确定多个用户中的每个用户对应的第一正样本;
根据随机采样规则确定每个用户对应的第一负样本;
其中,第一正样本和第一负样本为不同的样本。
在一些可能的实施例中,反馈条件表征用户对在历史时段被推荐的样本表示满意。
根据本公开实施例的第四方面,提供一种推荐装置,包括:
目标用户获取模块,被配置为执行获取目标用户的标识信息;
推荐对象确定模块,被配置为执行将目标用户的标识信息输入目标推荐模型训练方法训练得到的目标推荐模型,得到目标对象的标识信息对应的推荐对象的标识信息。
根据本公开实施例的第五方面,提供一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,处理器被配置为执行指令,以实现如上的图像识别模型训练方法,或推荐方法。
根据本公开实施例的第六方面,提供一种存储介质,当存储介质中的指令由服务器的处理器执行时,使得服务器能够执行如上的图像识别模型训练方法,或推荐方法。
根据本公开实施例的第七方面,提供一种计算机程序产品,计算机程序产品包括计算机程序,计算机程序存储在可读存储介质中,计算机设备的至少一个处理器从可读存储介质读取并执行计算机程序,使得设备执行上述的图像识别模型训练方法,或推荐方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
获取第一样本集,第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本,第一正样本表征在历史时段被推荐至用户且用户对应的反馈信息满足反馈条件的样本,第一负样本表征在历史时段被推荐至用户且用户对应的反馈信息不满足反馈条件的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本,将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度,基于第一相似度和预设阈值确定预设损失函数,预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数,基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。这样,通过以用户为中心排序或者多中心排序的预设损失函数得到的目标推荐模型,可以避免现有技术中忽略掉一些用户事实上感兴趣的对象的状况,进而提高对象推荐的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种应用环境的示意图;
图2是根据一示例性实施例示出的一种目标推荐模型训练方法的流程图;
图3是根据一示例性实施例示出的一种第一样本集获取方法的流程图;
图4是根据一示例性实施例示出的一种目标推荐模型训练方法的流程图;
图5是根据一示例性实施例示出的一种目标推荐模型调参方法的流程图;
图6是根据一示例性实施例示出的一种第二样本集获取方法的流程图;
图7是根据一示例性实施例示出的一种推荐方法的流程图;
图8是根据一示例性实施例示出的一种目标推荐模型训练装置框图;
图9是根据一示例性实施例示出的一种推荐装置框图;
图10是根据一示例性实施例示出的一种用于目标推荐模型训练或者用于推荐的电子设备的电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的第一对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
请参阅图1,图1是根据一示例性实施例示出的一种应用环境的示意图,如图1所示,该应用环境可以包括服务器01和终端02。
在一个可选的实施例中,服务器01可以用于训练可以进行对象推荐的目标推荐模型。包括:获取第一样本集,第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本,第一正样本表征在历史时段被推荐至用户且用户对应的反馈信息满足反馈条件的样本,第一负样本表征在历史时段被推荐至用户且用户对应的反馈信息不满足反馈条件的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本,将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度,基于第一相似度和预设阈值确定预设损失函数,预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数,基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。
具体的,服务器01可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。
在一个可选的实施例中,终端02可以结合服务器01训练出的目标推荐模型进行对象推荐处理。具体的,终端02可以包括但不限于智能手机、台式计算机、平板电脑、笔记本电脑、智能音箱、数字助理、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、智能可穿戴设备等类型的电子设备。可选的,电子设备上运行的操作系统可以包括但不限于安卓系统、IOS系统、linux系统、windows系统、Unix系统等。
本说明书实施例中,上述服务器01以及终端02可以通过有线或无线通信方式进行直接或间接地连接,本公开在此不做限制。
此外,需要说明的是,图1所示的仅仅是本公开提供的目标推荐模型训练方法的一种应用环境,在实际应用中,还可以包括其他应用环境,例如,在实际应用中,可以只存在承载有目标推荐模型训练系统的服务器,这是因为该实施例可以是服务器上的应用程序实施的。
图2是根据一示例性实施例示出的一种目标推荐模型训练方法的流程图,如图2所示,目标推荐模型训练方法可以应用于服务器,也可以应用于客户端,包括以下步骤:
在步骤S201中,获取第一样本集;第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本;第一正样本表征在历史时段被推荐至用户且用户对应的反馈信息满足反馈条件的样本;第一负样本表征在历史时段被推荐至用户且用户对应的反馈信息不满足反馈条件的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本。
本申请实施例中,每个用户对应的第一正样本可以存在多个,每个用户对应的第一负样本也可以存在多个。下面以每个用户对应的一个第一正样本和一个第一负样本为例进行模型训练的说明。其他的第一正样本和第一负样本对于模型的训练不在赘述。
本申请实施例中,反馈条件可以表征用户对在历史时段被推荐的样本表示满意。因此,第一正样本可以在历史时段被推荐至用户且用户对在历史时段被推荐的样本表示满意的样本。第一负样本可以表征在历史时段被推荐至用户且用户对在历史时段被推荐的样本表示不满意的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本。
图3是根据一示例性实施例示出的一种第一样本集获取方法的流程图,如图3所示,包括以下步骤:
在步骤S2011中,确定多个用户。
可选的,服务器可以从任一推荐系统中获取多个用户,用户可以以用户账号,用户手机号和用户邮箱表示。
在步骤S2013中,基于用户的交互数据确定多个用户中的每个用户对应的第一正样本。
可选的,当推荐系统是为终端设备上的音乐应用提供推荐的推荐系统,则对象可以是该推荐系统中的任一一首歌。其中,第一正样本可以是基于用户的用户交互数据确定出的正样本。正样本可以理解为:给用户推荐过的且被确定是该用户感兴趣的样本。当推荐系统为音乐推荐系统,则正样本可以理解为:给用户推荐过的且被确定是该用户感兴趣(用户使用终端播放过)的音乐。
服务器可以从用户对应的正样本确定出一个第一正样本或者多个第一正样本。
在步骤S2015中,根据随机采样规则确定每个用户对应的第一负样本;其中,第一正样本和第一负样本为不同的样本。
可选的,服务器可以根据随机采样规则确定每个用户对应的第一负样本。
可选的,负样本包括以下两种情况:一,给用户推荐过的且被确定不是该用户感兴趣的样本。当推荐系统为音乐推荐系统,第一种情况可以理解为:给用户推荐过的且被确定不是该用户感兴趣(出现在用户的终端界面上但是用户并未播放)的音乐。二,没有向用户推荐过的样本,该种情况中,可能包括用户不感兴趣的样本,也可能包括用户感兴趣的样本。
服务器可以从用户对应的负样本确定出一个第一负样本或者多个第一负样本。
在步骤S203中,将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度。
本申请实施例中,以一个用户对应的一个第一正样本和一个第一负样本为例进行说明。在一个可选的实施例中,服务器将第一样本集输入神经网络模型,可以得到用户的第一向量空间表达数据(user ID embedding),第一正样本的第二向量空间表达数据(positive item embedding)和第一负样本的第三向量空间表达数据(negative itemembedding)。随后,基于第二向量空间表达数据和第三向量空间表达数据确定第一正样本和第一负样本之间的第一相似度,基于第一向量空间表达数据和第二向量空间表达数据确定用户和第一正样本之间的第三相似度,基于第一向量空间表达数据和第三向量空间表达数据确定用户和第一负样本之间的第二相似度。
一种可选的实施例中,可以基于欧式距离公式计算相似度。具体的,服务器可以在欧式距离公式的基础上根据第一向量空间表达数据和第二向量空间表达数据确定第三相似度,根据第一向量空间表达数据和第三向量空间表达数据确定第二相似度,根据第二向量空间表达数据和第三向量空间表达数据确定第一相似度。
另一种可选的实施例中,上述的欧式距离公式在计算相似度的时候,是存在局限性的,为了克服欧式距离公式带来的局限性,服务器可以在內积公式的基础上根据第一向量空间表达数据和第二向量空间表达数据确定第三相似度,根据第一向量空间表达数据和第三向量空间表达数据确定第二相似度,根据第二向量空间表达数据和第三向量空间表达数据确定第一相似度。
本公开实施例中,上述的神经网络模型可以是基于机器学习、深度学习构建的,机器学习和深度学习通常包括人工神经网络、迁移学习、归纳学习等技术。机器学习可以包括有监督的机器学习,无监督的机器学习和半监督的机器学习。上述的预设机器学习模型可以包括但不限于采用卷积神经网络、残差神经网络、循环神经网络、递归神经网络、图卷积神经网络等机器学习模型。
其中,这是因为现实生活中,其实有很多不规则的数据结构,典型的就是拓扑结构,如社交网络、化学分子结构、知识图谱等等;即使是语言,实际上其内部也是复杂的树形结构,也是一种拓扑结构。在作对象推荐的时候,我们关注的实际上只是对象的部分关键点,这些点组成的也是一个图的结构。图的结构一般来说是十分不规则的,可以认为是无限维的一种数据,所以它没有平移不变性。每一个节点的周围结构可能都是独一无二的,这种结构的数据,就让传统的卷积神经网络在此的应用效果不佳,而图卷积神经网络精妙地设计了一种从对象数据中提取特征的方法,从而让我们可以使用这些特征去对对象数据进行节点分类(node classification)、对象分类(item classification)、边预测(linkprediction),还可以顺便得到对象的嵌入表示(item embedding),用途广泛且合适。
本申请实施例中,服务器可以构建图卷积神经网络,确定该图卷积神经网络的学习率,优化器类型和层数。上文中的学习率是指作为监督学习以及深度学习中重要的超参,其决定着目标函数能否收敛到局部最小值以及何时收敛到最小值。合适的学习率能够使目标函数在合适的时间内收敛到局部最小值。当学习率设置的过小时,收敛过程将变得十分缓慢。而当学习率设置的过大时,梯度可能会在最小值附近来回震荡,甚至可能无法收敛。在固定学习率的情况下,当到达收敛状态时,会在最优值附近一个较大的区域内摆动;而当随着迭代轮次的增加而减小学习率,会使得在收敛时,在最优值附近一个更小的区域内摆动。因此,选择一个合适的学习率,对于模型的训练将至关重要。本公开实施例中图卷积神经网络的学习率可以是设置的固定值,也可以是随着迭代轮次的增加而变动的值。可选的,学习率可以是一个固定值0.001,其可以是一个实验值。
上文中的优化器是用来更新和计算影响模型训练和模型输出的网络参数,使其逼近或达到最优值,从而最小化(或最大化)损失函数,优化器类型可以是Radam优化器,还可以是adam优化器,也可以是其他合适的优化器。
在步骤S205中,基于第一相似度和预设阈值确定预设损失函数;预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数。
上文已经说明,第一负样本包括以下两种情况:一,给用户推荐过的且被确定不是该用户感兴趣的样本。二,没有向用户推荐过的样本,该种情况中,可能包括用户不感兴趣的样本,也可能包括用户感兴趣的样本。
尤其第二种情况,可能存在如下状况:没有向用户推荐过的第一负样本实际是该用户感兴趣的对象,且该第一负样本和第一正样本之间的相似度(基于第二向量空间表达数据和第三向量空间表达数据确定的第一相似度)甚至大于用户和第一正样本之间的相似度(基于第一向量空间表达数据和第二向量空间表达数据确定第三相似度)。此种情况下,如果继续将该第一负样本当作真正的用户不感兴趣的样本,则必然会出现推荐误差,降低模型的性能,基于此,预设损失函数可以包含多中心排序思想,多中心包括以用户为中心进行排序和以正样本为中心进行排序。
下面对多中心排序思想进行详细说明,对于以用户为中心的三个参数(用户u,第一正样本i,第一负样本j),本申请希望用户和第一正样本之间的相似度(第三相似度xui)大于用户和第一负样本之间的相似度(第二相似度xuj),如此,可以得到以用户为中心的期望得到的表达式(1):
xut>xuj
……表达式(1)
对于以正样本为中心的三个参数(第一正样本i,用户u,第一负样本j),本申请希望第一正样本和用户之间的相似度(第四相似度xiu)大于第一正样本和第一负样本之间的相似度(第一相似度xij),如此,可以得到以正样本为中心的期望得到的表达式(2):
xiu>xij
……表达式(2)
由于第三相似度,第二相似度,第一相似度和第四相似度都是基于內积公式计算得到的,而內积公式满足交换原则,因此,第三相似度xui等于第四相似度xiu
基于上述的两个表达式,本申请希望用户和第一正样本之间的相似度(第三相似度xui)大于用户和第一负样本之间的相似度(第二相似度xuj),同时用户和第一正样本之间的相似度(第三相似度xui)大于第一正样本和第一负样本之间的相似度(第一相似度xij),如此,可以得到表达式(3):
xui>max(xuj,xij)
……表达式(3)
通过对表达式(3)的变形,本申请实施例可以得到表达式(4):
xut-xuf>max(0,xtf-xuf)
……表达式(4)
如此,本申请可以得到以用户为中心和以正样本为中心的多中心下的综合度量,如表达式(5):
x=xui-xuj-max(0,xij-xuj)
……表达式(5)
在表达式(5)的基础上,如果将第一正样本和第一负样本之间的相似度(第一相似度xij)和用户和第一负样本之间的相似度(第二相似度xuj)做比对,可以将上述的综合相似度进行变化,得到表达式(6):
Figure BDA0003326894050000121
其中,表达式(6)的第一个子表达式表明,当第一正样本和第一负样本之间的相似度(第一相似度xij)大于用户和第一负样本之间的相似度(第二相似度xuj)时,综合度量是用户和第一正样本之间的相似度(第三相似度xuj)与第一正样本和第一负样本之间的相似度(第一相似度xij)之间的差值。表达式(6)的第二个子表达式表明,当第一正样本和第一负样本之间的相似度(第一相似度xij)小于等于用户和第一负样本之间的相似度(第二相似度xuj)时,综合度量是用户和第一正样本之间的相似度(第三相似度xui)与用户和第一负样本之间的相似度(第二相似度xuj)之间的差值。
若本申请实施例中,将第二相似度xuj作为一个预设阈值,当第一正样本和第一负样本之间的相似度(第一相似度xij)大于用户和第一负样本之间的相似度(第二相似度xuj)时,按照表达式(6)所示,目标推荐模型将以正样本为中心。然而,以用户为中心进行排序是一个很重要的组成部分,同时,当第一正样本和第一负样本之间的相似度(第一相似度xij)大于用户和第一负样本之间的相似度(第二相似度xuj)时,并不能保证该第一负样本是真的是被推荐过的且被确定不是该用户感兴趣的样本,还是没有被推荐过的样本,因此,本申请可以加入一个比例值,或者说多中心排序的权重λ∈[0,1]来确定以用户为中心和以正样本为中心的比重,如此,得到表达式(7):
x=xui-xuj-λmax(0,xij-xuj)
……表达式(7)
在表达式(7)的基础上,如果将第一正样本和第一负样本之间的相似度(第一相似度xij)和用户和第一负样本之间的相似度(第二相似度xuj)做比对,可以将上述的综合度量进行变化,得到表达式(8):
Figure BDA0003326894050000131
从上述表达式(8)可以得到,第一正样本和第一负样本之间的相似度(第一相似度xij)大于用户和第一负样本之间的相似度(第二相似度xuj)时,需要考虑多中心排序(以用户为中心和以正样本为中心),当第一正样本和第一负样本之间的相似度(第一相似度xij)小于等于用户和第一负样本之间的相似度(第二相似度xuj)时,可以考虑以用户为中心排序进行模型的构建。
本申请实施例中,上述的第二相似度xuj是一个可选的预设阈值,可选的,还可以设置不同的预设阈值,如此,可以将上述的表达式(7)替换为表达式(9):
x=xui-xuj-λmax(0,xij-γ)
……表达式(9)
其中,上述的γ为预设阈值。本申请实施例中,预设阈值的选择可以有很多,下面介绍除了第二相似度xuj之外的两种预设阈值。
一种可选的实施例中,当r=xui,可以得到表达式(10):
x=xut-xuf-λmax(0,xif-xui)
……表达式(10)
在此实施例中,当第一正样本和第一负样本之间的相似度(第一相似度xij)大于用户和第一正样本之间的相似度(第三相似度xui),可以考虑多中心进行模型的构建。
另一种可选的实施例中,当γ=0,可以得到表达式(11):
x=xui-xuj-λmax(0,xij)
……表达式(11)
在此实施例中,只要第一正样本和第一负样本之间的相似度(第一相似度xij)大于0,可以考虑多中心进行模型的构建。
如此,本申请可以构建多中心成对排序的预设损失函数的表达式,如表达式(12):
Figure BDA0003326894050000141
其中,L′为损失值,xui为第三相似度,xuj为第二相似度,xij为第一相似度,γ为预设阈值,λ为多中心排序的权重,B包括用户,正样本和负样本,其中,用户和正样本之间存在交互信息,用户和负样本之间不存在交互信息。
在步骤S207中,基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。
由表达式(12)可以看出,当预设阈值为第二相似度xuj时,服务器可以基于第一相似度和第二相似度确定预设损失函数。
可选的,在预设阈值为第二相似度xuj的前提下,即将第二相似度xuj代入预设阈值,当第一相似度大于第二相似度时,确定多中心排序的第二预设损失函数为:
Figure BDA0003326894050000151
可选的,在预设阈值为第二相似度xuj的前提下,即将第二相似度xuj代入预设阈值,当第一相似度小于等于第二相似度时,确定以用户为中心排序的第一预设损失函数为:
Figure BDA0003326894050000152
可选的,若可以不考虑以用户为中心进行排序,则在预设阈值为第二相似度xuj的前提下,即将第二相似度xuj代入预设阈值,当第一相似度大于第二相似度时,确定以正样本为中心排序的第三预设损失函数为:
Figure BDA0003326894050000153
图4是根据一示例性实施例示出的一种目标推荐模型训练方法的流程图,如图4所示,包括以下步骤:
在步骤S2071中,基于预设损失函数、第一相似度、第二相似度和第三相似度确定每个用户对应的损失值。
由于服务器已经根据第一相似度和第二相似度确定了以用户为中心排序的第一预设损失函数,或者多中心排序的第二预设损失函数,或者以正样本为中心排序的第三预设损失函数。然后,服务器可以根据以用户为中心排序的第一预设损失函数,或者多中心排序的第二预设损失函数,或者以正样本为中心排序的第三预设损失函数和其需要的第一相似度、第二相似度和第三相似度确定出损失值。
在步骤S2073中,基于每个用户对应的损失值对预设机器学习模型进行训练,得到目标推荐模型。
本申请实施例中,当预设阈值包括多种阈值时,且多种阈值包括第二相似度,第三相似度和预设值,预设损失函数的表达式为:
Figure BDA0003326894050000161
其中,L″为综合损失值,综合损失值表征当预设阈值包括多种阈值时,多种阈值中各个阈值对应的损失值的和;θ为模型参数,η为L2损失模型的权重,用来控制L2损失函数的正则化权要来防止过拟合。
上述的第一样本集可以用来训练得到目标推荐模型,然而,在训练过程中,如果始终使用第一样本集,则可能出现模型过度学习,因此,为了防止模型泛化,可以获取第二样本集,并利用第二样本集对模型进行调参,得到更新后的目标推荐模型,其中,第一样本集中的用户可以是第一用户。
图5是根据一示例性实施例示出的一种目标推荐模型调参方法的流程图,如图5所示,包括以下步骤:
在步骤S501中,获取第二样本集;第二样本集包括多个第二用户,多个第二用户中每个第二用户对应的第二正样本的和第二负样本的,第二正样本表征在历史时段被推荐至第二用户且第二用户对应的反馈信息满足反馈条件的样本;第二负样本表征在历史时段被推荐至第二用户且第二用户对应的反馈信息不满足反馈条件的样本,或者,第二负样本表征在历史时段未被推荐至第二用户的样本。
图6是根据一示例性实施例示出的一种第二样本集获取方法的流程图,如图6所示,包括以下步骤:
在步骤S5011中,确定多个第二用户。
在步骤S5013中,基于第二用户的交互数据确定多个第二用户中的每个第二用户对应的第二正样本。
在步骤S5015中,根据随机采样规则确定每个第二用户对应的第二负样本;其中,第二正样本和第二负样本为不同的样本。
本申请获取第二样本集的具体实施例可以参考本申请获取第一样本集的具体实施例,在这里不在赘述。
本申请实施例中,每个第二用户对应的第二正样本可以存在多个,每个第二用户对应的第二负样本也可以存在多个。
在步骤S503中,将第二样本集输入目标推荐模型,得到每个第二用户对应的第二正样本和第二负样本之间的第一相似度。
在步骤S505中,基于第一相似度和预设阈值确定预设损失函数;预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数。
在步骤S507中,基于预设损失函数对目标推荐模型进行训练,得到更新后的目标推荐模型。
本申请实施例中,根据第二样本集确定更新后的目标推荐模型可以参考根据第一样本集确定目标推荐模型,这里不再赘述。
在得到更新后的目标推荐模型后,还可以获取第三样本集,其中,第三样本集可以包括多个第三用户,多个第三用户中每个第三用户对应的第三正样本的和第三负样本的。或者,第三样本集可以包括多个第三用户,多个第三用户中每个第三用户对应的第三正样本的。
随后,将多个第三用户输入更新后的目标推荐模型,得到多个推荐对象的,将多个推荐对象的和第三正样本的作比对,测试更新后的目标推荐模型的推荐精准度。
如此,申请实施例以多中心为损失函数构建基础,通过第一样本集的训练,第二样本集的调参和第三样本集的测试最终可以确定一个推荐精准度较高的目标推荐模型。
基于上述目标推荐模型训练方法的实施例,以下介绍本公开一种推荐方法的实施例中,图7是根据一示例性实施例示出的一种推荐方法的流程图,参照图7,该方法可以应用于服务器、终端、边缘计算节点等电子设备中,包括以下步骤。
在步骤S701中,获取目标用户的标识信息;
在步骤S703中,将目标用户的标识信息输入目标推荐模型训练方法训练得到的目标推荐模型,得到目标对象的标识信息对应的推荐对象的标识信息。
图8是根据一示例性实施例示出的一种目标推荐模型训练装置框图。参照图8,该装置包括样本集获取模块801,相似度确定模块802、损失函数确定模块803和模型训练模块804。
样本集获取模块801,被配置为执行获取第一样本集;第一样本集包括多个用户,多个用户中每个用户对应的第一正样本和第一负样本;第一正样本表征在历史时段被推荐至用户且用户对应的反馈信息满足反馈条件的样本;第一负样本表征在历史时段被推荐至用户且用户对应的反馈信息不满足反馈条件的样本,或者,第一负样本表征在历史时段未被推荐至用户的样本;
相似度确定模块802,被配置为执行将第一样本集输入神经网络模型,得到每个用户对应的第一正样本和第一负样本之间的第一相似度;
损失函数确定模块803,被配置为执行基于第一相似度和预设阈值确定预设损失函数;预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数;
模型训练模块804,被配置为执行基于预设损失函数对预设机器学习模型进行训练,得到目标推荐模型。
在一些可能的实施例中,模型训练模块,被配置为执行:
计算每个用户和对应的第一负样本之间的第二相似度;
计算每个用户和对应的第一正样本之间的第三相似度;
基于预设损失函数、第一相似度、第二相似度和第三相似度确定每个用户对应的损失值;
基于每个用户对应的损失值对预设机器学习模型进行训练,得到目标推荐模型。
在一些可能的实施例中,预设损失函数的表达式为:
Figure BDA0003326894050000181
其中,L′为损失值,xui为第三相似度,xuj为第二相似度,xij为第一相似度,γ为预设阈值,λ为多中心排序的权重,B包括用户,正样本和负样本,其中,用户和正样本之间存在交互信息,用户和负样本之间不存在交互信息。
在一些可能的实施例中,在预设阈值包括多种阈值时,且多种阈值包括第二相似度,第三相似度和预设值,预设损失函数的表达式为:
Figure BDA0003326894050000191
其中,L″为综合损失值,综合损失值表征当预设阈值包括多种阈值时,多种阈值中各个阈值对应的损失值的和;θ为模型参数,η为L2损失模型的权重。
在一些可能的实施例中,当预设阈值为第二相似度时,损失函数确定模块,被配置为执行:
基于第一相似度和第二相似度确定预设损失函数。
在一些可能的实施例中,损失函数确定模块,被配置为执行:
当第一相似度大于第二相似度时,确定多中心排序的第二预设损失函数。
在一些可能的实施例中,基损失函数确定模块,被配置为执行:
当第一相似度小于等于第二相似度时,确定以用户为中心排序的第一预设损失函数。
在一些可能的实施例中,相似度确定模块,被配置为执行:
计算每个用户和对应的第一负样本之间的第二相似度;
在设阈值为第二相似度时,损失函数确定模块,被配置为执行:
当第一相似度大于第二相似度时,确定以正样本为中心排序的第三预设损失函数。
在一些可能的实施例中,样本集获取模块,被配置为执行:
确定多个用户;
基于用户的交互数据确定多个用户中的每个用户对应的第一正样本;
根据随机采样规则确定每个用户对应的第一负样本;
其中,第一正样本和第一负样本为不同的样本。
在一些可能的实施例中,反馈条件表征用户对在历史时段被推荐的样本表示满意。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图9是根据一示例性实施例示出的一种推荐装置框图。参照图9,该装置包括目标用户获取模块901和推荐对象推荐模块902,其中,
目标用户获取模块901,被配置为执行获取目标用户的标识信息;
推荐对象确定模块902,被配置为执行将目标用户的标识信息输入目标推荐模型训练方法训练得到的目标推荐模型,得到目标对象的标识信息对应的推荐对象的标识信息。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图10是根据一示例性实施例示出的一种用于目标推荐模型训练或者用于推荐的电子设备1000的框图。该电子设备可以是服务器,还可以是终端设备,其内部结构图可以如图10所示。该电子设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该电子设备的处理器用于提供计算和控制能力。该电子设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该电子设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种目标推荐模型训练方法或者用于推荐方法。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本公开方案相关的部分结构的框图,并不构成对本公开方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在示例性实施例中,还提供了一种电子设备,包括:处理器;用于存储该处理器可执行指令的存储器;其中,该处理器被配置为执行该指令,以实现如本公开实施例中的目标推荐模型训练方法或者用于推荐方法。
在示例性实施例中,还提供了一种计算机可读存储介质,当该计算机可读存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行本公开实施例中的目标推荐模型训练方法或者用于推荐方法。
在示例性实施例中,还提供了一种计算机程序产品,计算机程序产品包括计算机程序,计算机程序存储在可读存储介质中,计算机设备的至少一个处理器从可读存储介质读取并执行计算机程序,使得计算机设备执行本公开实施例的目标推荐模型训练方法或者用于推荐方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (10)

1.一种目标推荐模型的训练方法,其特征在于,包括:
获取第一样本集;所述第一样本集包括多个用户,所述多个用户中每个用户对应的第一正样本和第一负样本;所述第一正样本表征在历史时段被推荐至所述用户且所述用户对应的反馈信息满足反馈条件的样本;所述第一负样本表征在所述历史时段被推荐至所述用户且所述用户对应的反馈信息不满足所述反馈条件的样本,或者,所述第一负样本表征在所述历史时段未被推荐至所述用户的样本;
将所述第一样本集输入神经网络模型,得到所述每个用户对应的第一正样本和第一负样本之间的第一相似度;
基于所述第一相似度和预设阈值确定预设损失函数;所述预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数;
基于所述预设损失函数对所述预设机器学习模型进行训练,得到目标推荐模型。
2.根据权利要求1所述的目标推荐模型的训练方法,其特征在于,所述基于所述预设损失函数对所述预设机器学习模型进行训练,得到目标推荐模型包括:
计算所述每个用户和对应的第一负样本之间的第二相似度;
计算所述每个用户和对应的第一正样本之间的第三相似度;
基于所述预设损失函数、所述第一相似度、所述第二相似度和所述第三相似度确定所述每个用户对应的损失值;
基于所述每个用户对应的损失值对所述预设机器学习模型进行训练,得到所述目标推荐模型。
3.根据权利要求1-2任一所述的目标推荐模型的训练方法,其特征在于,用户用户所述预设损失函数的表达式为:
Figure FDA0003326894040000011
其中,L′为损失值,xui为所述第三相似度,xuj为所述第二相似度,xij为所述第一相似度,γ为所述预设阈值,λ为多中心排序的权重,B包括用户,正样本和负样本,其中,所述用户和所述正样本之间存在交互信息,所述用户和所述负样本之间不存在交互信息。
4.根据权利要求3所述的目标推荐模型的训练方法,其特征在于,在所述预设阈值包括多种阈值时,且所述多种阈值包括所述第二相似度,所述第三相似度和预设值,所述预设损失函数的表达式为:
Figure FDA0003326894040000021
其中,L′′为综合损失值,所述综合损失值表征当所述预设阈值包括多种阈值时,所述多种阈值中各个阈值对应的损失值的和;θ为模型参数,η为L2损失模型的权重。
5.一种推荐方法,其特征在于,包括:
获取目标用户的标识信息;
将所述目标用户的标识信息输入根据权利要求1至4任一目标推荐模型训练方法训练得到的目标推荐模型,得到所述目标对象的标识信息对应的推荐对象的标识信息。
6.一种目标推荐模型训练装置,其特征在于,包括:
样本集获取模块,被配置为执行获取第一样本集;所述第一样本集包括多个用户,所述多个用户中每个用户对应的第一正样本和第一负样本;所述第一正样本表征在历史时段被推荐至所述用户且所述用户对应的反馈信息满足反馈条件的样本;所述第一负样本表征在所述历史时段被推荐至所述用户且所述用户对应的反馈信息不满足所述反馈条件的样本,或者,所述第一负样本表征在所述历史时段未被推荐至所述用户的样本;
相似度确定模块,被配置为执行将所述第一样本集输入神经网络模型,得到所述每个用户对应的第一正样本和第一负样本之间的第一相似度;
损失函数确定模块,被配置为执行基于所述第一相似度和预设阈值确定预设损失函数;所述预设损失函数包括以用户为中心排序的第一预设损失函数,或者,多中心排序的第二预设损失函数;
模型训练模块,被配置为执行基于所述预设损失函数对所述预设机器学习模型进行训练,得到目标推荐模型。
7.一种推荐装置,其特征在于,包括:
目标用户获取模块,被配置为执行获取目标用户的标识信息;
推荐对象确定模块,被配置为执行将所述目标用户的标识信息输入根据权利要求1至4任一目标推荐模型训练方法训练得到的目标推荐模型,得到所述目标对象的标识信息对应的推荐对象的标识信息。
8.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至4中任一项所述的目标推荐模型训练方法,或实现如权利要求5所述的推荐方法。
9.一种计算机可读存储介质,其特征在于,当所述计算机可读存储介质中的指令由电子设备的处理器执行时,使得所述电子设备能够执行如权利要求1至4中任一项所述的目标推荐模型训练方法,或执行如权利要求5所述的推荐方法。
10.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,计算机设备的至少一个处理器从所述可读存储介质读取并执行所述计算机程序,使得所述计算机设备执行如权利要求1至4中任一项所述的目标推荐模型训练方法,或执行如权利要求5所述的推荐方法。
CN202111265649.2A 2021-10-28 2021-10-28 一种目标推荐模型训练方法、推荐方法、装置及电子设备 Pending CN113901327A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111265649.2A CN113901327A (zh) 2021-10-28 2021-10-28 一种目标推荐模型训练方法、推荐方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111265649.2A CN113901327A (zh) 2021-10-28 2021-10-28 一种目标推荐模型训练方法、推荐方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN113901327A true CN113901327A (zh) 2022-01-07

Family

ID=79027387

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111265649.2A Pending CN113901327A (zh) 2021-10-28 2021-10-28 一种目标推荐模型训练方法、推荐方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN113901327A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114417156A (zh) * 2022-01-19 2022-04-29 北京达佳互联信息技术有限公司 内容推荐模型的训练方法、装置、服务器及存储介质
CN114491268A (zh) * 2022-02-07 2022-05-13 聚好看科技股份有限公司 一种基于热度排序的降采样方法
CN114817742A (zh) * 2022-05-18 2022-07-29 平安科技(深圳)有限公司 基于知识蒸馏的推荐模型配置方法、装置、设备、介质
CN114898266A (zh) * 2022-05-12 2022-08-12 北京百度网讯科技有限公司 训练方法、图像处理方法、装置、电子设备以及存储介质
CN114936323A (zh) * 2022-06-07 2022-08-23 北京百度网讯科技有限公司 图表示模型的训练方法、装置及电子设备
CN115545121A (zh) * 2022-11-25 2022-12-30 北京红棉小冰科技有限公司 一种模型训练方法及装置
CN116151353A (zh) * 2023-04-14 2023-05-23 中国科学技术大学 一种序列推荐模型的训练方法和对象推荐方法
CN116204567A (zh) * 2023-04-28 2023-06-02 京东科技控股股份有限公司 用户挖掘及模型的训练方法、装置、电子设备和存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114417156A (zh) * 2022-01-19 2022-04-29 北京达佳互联信息技术有限公司 内容推荐模型的训练方法、装置、服务器及存储介质
CN114417156B (zh) * 2022-01-19 2022-09-30 北京达佳互联信息技术有限公司 内容推荐模型的训练方法、装置、服务器及存储介质
CN114491268A (zh) * 2022-02-07 2022-05-13 聚好看科技股份有限公司 一种基于热度排序的降采样方法
CN114898266A (zh) * 2022-05-12 2022-08-12 北京百度网讯科技有限公司 训练方法、图像处理方法、装置、电子设备以及存储介质
CN114898266B (zh) * 2022-05-12 2023-12-08 北京百度网讯科技有限公司 训练方法、图像处理方法、装置、电子设备以及存储介质
CN114817742A (zh) * 2022-05-18 2022-07-29 平安科技(深圳)有限公司 基于知识蒸馏的推荐模型配置方法、装置、设备、介质
CN114936323A (zh) * 2022-06-07 2022-08-23 北京百度网讯科技有限公司 图表示模型的训练方法、装置及电子设备
CN114936323B (zh) * 2022-06-07 2023-06-30 北京百度网讯科技有限公司 图表示模型的训练方法、装置及电子设备
CN115545121A (zh) * 2022-11-25 2022-12-30 北京红棉小冰科技有限公司 一种模型训练方法及装置
CN116151353A (zh) * 2023-04-14 2023-05-23 中国科学技术大学 一种序列推荐模型的训练方法和对象推荐方法
CN116204567A (zh) * 2023-04-28 2023-06-02 京东科技控股股份有限公司 用户挖掘及模型的训练方法、装置、电子设备和存储介质
CN116204567B (zh) * 2023-04-28 2023-09-05 京东科技控股股份有限公司 用户挖掘及模型的训练方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN113901327A (zh) 一种目标推荐模型训练方法、推荐方法、装置及电子设备
Zhang et al. A cross-domain recommender system with kernel-induced knowledge transfer for overlapping entities
CN110147551B (zh) 多类别实体识别模型训练、实体识别方法、服务器及终端
CN108229986B (zh) 信息点击预测中的特征构建方法、信息投放方法和装置
CN112434183B (zh) 一种搜索结果的排序方法、装置、设备和存储介质
US10621137B2 (en) Architecture for predicting network access probability of data files accessible over a computer network
CN111651671A (zh) 用户对象推荐方法、装置、计算机设备和存储介质
CN112905876A (zh) 基于深度学习的信息推送方法、装置和计算机设备
CN111695084A (zh) 模型生成方法、信用评分生成方法、装置、设备及存储介质
CN110874638B (zh) 面向行为分析的元知识联邦方法、装置、电子设备及系统
CN113536105A (zh) 推荐模型训练方法和装置
CN113128526B (zh) 图像识别方法、装置、电子设备和计算机可读存储介质
CN113742580A (zh) 目标类型数据的召回方法、装置、电子设备及存储介质
CN116910357A (zh) 一种数据处理方法及相关装置
CN113935251B (zh) 用户行为预测模型的生成方法、用户行为预测方法及装置
CN113610215B (zh) 任务处理网络生成、任务处理方法、装置及电子设备
CN113947185B (zh) 任务处理网络生成、任务处理方法、装置、电子设备及存储介质
CN111400413B (zh) 一种确定知识库中知识点类目的方法及系统
CN114328995A (zh) 内容推荐方法、装置、设备及存储介质
CN118043802A (zh) 一种推荐模型训练方法及装置
CN113590720A (zh) 数据分类方法、装置、计算机设备和存储介质
CN111091198A (zh) 一种数据处理方法及装置
CN113792163B (zh) 多媒体推荐方法、装置、电子设备及存储介质
CN113468389B (zh) 一种基于特征序列比对的用户画像建立方法和装置
US20230013748A1 (en) Artificial Intelligence (AI) Framework to Identify Object-Relational Mapping Issues in Real-Time

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination