CN117743673A - 资源召回方法 - Google Patents
资源召回方法 Download PDFInfo
- Publication number
- CN117743673A CN117743673A CN202310171866.8A CN202310171866A CN117743673A CN 117743673 A CN117743673 A CN 117743673A CN 202310171866 A CN202310171866 A CN 202310171866A CN 117743673 A CN117743673 A CN 117743673A
- Authority
- CN
- China
- Prior art keywords
- interest
- target object
- term
- long
- short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012512 characterization method Methods 0.000 claims abstract description 238
- 230000007774 longterm Effects 0.000 claims abstract description 214
- 239000013598 vector Substances 0.000 claims abstract description 148
- 230000003542 behavioural effect Effects 0.000 claims abstract description 100
- 230000006399 behavior Effects 0.000 claims description 345
- 238000012549 training Methods 0.000 claims description 148
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000005457 optimization Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 8
- 230000007246 mechanism Effects 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 6
- 230000006403 short-term memory Effects 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 2
- 230000014509 gene expression Effects 0.000 abstract description 5
- 230000015654 memory Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000005065 mining Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例公开了资源召回方法。该方法包括:基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征,长期行为序列包括目标对象在第一预设时间段内的至少一个长期行为特征;基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征,短期行为序列包括目标对象在第二预设时间段内的至少一个短期行为特征,第一预设时间段指示的时长大于第二预设时间段指示的时长;对长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量;基于目标对象的兴趣表征向量,确定目标对象的召回资源。采用本申请实施例能够更好地平衡对象的长短期兴趣表达,以准确地挖掘对象在不同时间段的兴趣偏好,从而提高资源召回的准确性。
Description
技术领域
本申请涉及计算机应用技术领域,尤其涉及资源召回方法。
背景技术
随着计算技术的快速发展,在各种社交应用、搜索场景中为用户推荐资源(如资源召回)成为一大研究的热点。目前,针对目标用户进行资源召回,通常是通过目标用户的交互行为计算目标用户和资源的匹配度来确定召回资源。实际应用中,如果用户的长期行为较多,那么传统的推荐召回算法无法对用户的实时兴趣的迁移做出及时的响应。同样的,在用户的短期行为较多时,长期兴趣会很快被遗忘。因此,传统的推荐召回算法无法平衡用户的长短期兴趣表达,也就无法准确地挖掘用户在不同时间段的兴趣偏好,从而导致资源召回的准确性较低。
发明内容
本申请实施例提供了资源召回方法,能够更好地平衡对象的长短期兴趣表达,以准确地挖掘对象在不同时间段的兴趣偏好,从而提高资源召回的准确性。
一方面,本申请实施例提供一种资源召回方法,该方法包括:
基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征;其中,所述长期行为序列包括所述目标对象在第一预设时间段内的至少一个长期行为特征;
基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征;其中,所述短期行为序列包括所述目标对象在第二预设时间段内的至少一个短期行为特征,所述第一预设时间段指示的时长大于所述第二预设时间段指示的时长;
对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量;
基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源。
在一个实施例中,所述基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征,包括:
获取各个长期行为特征的权重;
基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
在一个实施例中,所述基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述至少一个长期行为特征进行注意力计算,得到处理后的至少一个长期行为特征;
基于所述各个长期行为特征的权重,对所述处理后的至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
在一个实施例中,所述基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一个实施例中,所述方法还包括:
调用长短期记忆网络LSTM,对所述至少一个短期行为特征进行特征筛选,得到筛选后的短期行为特征;
通过多头自注意力机制,对所述筛选后的短期行为特征进行注意力计算,得到高阶的短期行为特征;
所述使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述高阶的短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一个实施例中,所述对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量,包括:
通过门控网络生成身长期行为兴趣表征和短期行为兴趣表征的权重;
基于所述长期行为兴趣表征和短期行为兴趣表征的权重,对所述长期行为兴趣表征和短期行为兴趣表征进行加权运算,得到所述目标对象的兴趣表征向量。
在一个实施例中,所述基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源,包括:
基于兴趣表征向量和资源的对应关系,获取所述兴趣表征向量对应的资源;
将获取到的资源作为所述目标对象的召回资源。
在一个实施例中,所述方法还包括:
获取候选集合,所述候选集合包括多个资源;
对所述候选集合中的各个资源进行特征提取,得到各个资源的资源特征向量;
基于所述兴趣表征向量和所述各个资源的资源特征向量的空间距离,建立兴趣表征向量和资源的对应关系。
在一个实施例中,所述兴趣表征向量是基于兴趣表征模型得到的,所述方法还包括:
获取训练样本;其中,所述训练样本包括正样本和负样本,所述正样本包括在历史时间段内被推送至训练对象,且被所述训练对象点击的第一训练资源,所述负样本包括在所述历史时间段内未被推送至所述训练对象的第二训练资源;
获取所述训练对象关于所述第一训练资源的长期行为序列和短期行为序列;
调用初始兴趣表征模型,基于所述训练对象的长期行为序列,生成所述训练对象的长期行为兴趣表征,以及基于所述训练对象的短期行为序列,生成所述训练对象的短期行为兴趣表征;
对所述训练对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述训练对象的兴趣表征向量;
以减小所述训练对象的兴趣表征向量和所述第一训练资源的空间距离,且增大所述训练对象的兴趣表征向量和所述第二训练资源的空间距离为训练目标,对所述初始兴趣表征模型进行训练,得到所述兴趣表征模型。
在一个实施例中,所述方法还包括:
每间隔第三预设时间段对上一次优化得到的兴趣表征模型的稠密参数和稀疏参数进行优化,得到所述兴趣表征模型;
每间隔第四预设时间段对上一次优化得到的兴趣表征模型的稀疏参数进行优化,得到所述兴趣表征模型,所述第三预设时间段指示的时长大于所述第四预设时间段指示的时长。
另一方面,本申请实施例提供了一种资源召回装置,该资源召回装置包括:
第一生成单元,用于基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征;其中,所述长期行为序列包括所述目标对象在第一预设时间段内的至少一个长期行为特征;
第二生成单元,用于基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征;其中,所述短期行为序列包括所述目标对象在第二预设时间段内的至少一个短期行为特征,所述第一预设时间段指示的时长大于所述第二预设时间段指示的时长;
融合单元,用于对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量;
确定单元,用于基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源。
另一方面,本申请实施例提供一种计算机设备,包括处理器、存储装置和通信接口,处理器、存储装置和通信接口相互连接,其中,存储装置用于存储支持计算机设备执行上述方法的计算机程序,计算机程序包括程序指令,处理器被配置用于调用程序指令,执行如下步骤:
基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征;其中,所述长期行为序列包括所述目标对象在第一预设时间段内的至少一个长期行为特征;
基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征;其中,所述短期行为序列包括所述目标对象在第二预设时间段内的至少一个短期行为特征,所述第一预设时间段指示的时长大于所述第二预设时间段指示的时长;
对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量;
基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源。
另一方面,本申请实施例提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序包括程序指令,程序指令当被处理器执行时使处理器执行上述资源召回方法。
另一方面,本申请实施例提供了一种计算机程序产品,所述计算机程序产品包括计算机程序,所述计算机程序适于由处理器加载并执行上述资源召回方法。
本申请实施例中,基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征,另外,基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征,然后对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量,可通过拆分目标对象的不同行为序列(即长期行为序列和短期行为序列),提取目标对象在不同时间窗口内的兴趣表征向量,有利于学习目标对象的不同时间段的兴趣,从而能够更好地平衡对象的长短期兴趣表达,以准确地挖掘对象在不同时间段的兴趣偏好。进一步的,基于上述方式得到的目标对象的兴趣表征向量,确定目标对象的召回资源,可提高资源召回的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种资源召回方法的流程示意图;
图2是本申请实施例提供的一种兴趣表征模型的架构示意图;
图3是本申请实施例提供的一种用户注意力机制的结构示意图;
图4是本申请实施例提供的另一种资源召回方法的流程示意图;
图5是本申请实施例提供的一种资源召回装置的结构示意图;
图6是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在推荐系统的整个链路体系中,召回是最为基础的模块,它的意义在于缩小候选集的计算范围,负责从海量候选集中挑选出用户可能感兴趣的集合,召回资源越贴近用户的兴趣,整体推荐系统的精度越高。但是,传统的推荐召回算法无法平衡用户的长短期兴趣表达,例如,如果用户的长期行为较多,那么无法对用户的实时兴趣的迁移做出及时的响应。同样的,在用户的短期行为较多时,长期兴趣会很快被遗忘。因此,传统的推荐召回算法无法准确地挖掘用户在不同时间段的兴趣偏好,从而导致资源召回的准确性较低。
基于此,本申请提出了一种基于序列化建模的资源召回方法,该方法通过拆分用户长短期不同行为序列,并提取用户在不同时间窗口内的兴趣表征向量,学习用户不同时间段的兴趣。同时,通过将长期行为兴趣表征和短期行为兴趣表征进行融合,可以个性化地学习不同对象的行为习惯,在不同条件下捕捉用户对长期和短期的兴趣偏好,更好地平衡用户长短期的兴趣表达,因此对召回资源的多样性也能起到积极的带动作用。另外,提取对象在不同时间窗口内的兴趣表征向量,相对于单一时间段的兴趣表征,能够更好的记录对象的稀疏的长尾兴趣,例如某个对象在很久之前浏览了一个关于车辆的笔记,并且对该笔记进行了收藏,但是该对象最近浏览更多的是关于穿搭的笔记,如果采用传统的资源召回算法,该对象关于穿搭的笔记就会将关于车辆的笔记淹没,从而无法识别该对象不仅对穿搭感兴趣,也对车辆感兴趣,因此本申请实施例可对长尾分发也能起到积极的带动作用。
目标对象,可以指的是用户,具体可以指的是至少一个用户,或者至少一类用户。
资源,指的是内容发布平台发布的资源,例如电子资源或者实体资源等。资源可以包括广告、视频、音频、文本、图像或者商品等。示例性的,资源具体可以包括笔记或者短视频等。
在本申请的具体实施方式中,涉及到对象相关的数据,例如目标对象在预设时间段内产生交互行为的种子资源,当本申请实施例运用到具体产品或技术中时,需要获得对象许可或者同意,且相关数据的收集、使用和处理需要遵守当地法律法规和标准。
本申请实施例提供的资源召回方法可以应用在资源召回装置中,资源召回装置可以安装或者集成在内容发布平台中,内容发布平台可以运行在计算机设备中,计算机设备可以包括终端设备或者服务器等,计算机设备包括但不限定于智能手机、车载设备、可穿戴设备或者电脑等。
请参见图1,图1是本申请实施例提供的一种资源召回方法的流程示意图,该资源召回方法可以由资源召回装置或者计算机设备执行;如图1所示的资源召回方案包括但不限于步骤S101~步骤S104,其中:
S101,基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征。
其中,长期行为序列可以包括目标对象在第一预设时间段内的至少一个长期行为特征。示例性的,长期行为特征指的是目标对象在第一预设时间段内的行为特征。
行为特征可以包括如下一种或者多种:目标对象在第一预设时间段内浏览的资源的资源标识,该资源的发布作者的身份标识,该资源的实体,该资源的品类,该资源的关键词,该资源的话题。
举例来说,目标对象向内容发布平台提交访问请求之后,内容发布平台可以将确定的资源推送给目标对象,目标对象可以对部分或者所有资源进行浏览,例如,若检测到目标对象对目标资源的点击操作,则内容发布平台可以播放目标资源,进而可以统计目标对象浏览的资源的资源标识,资源的发布作者的身份标识,资源的实体,资源的品类,资源的关键词,资源的话题中的一种或者多种。
本申请实施例中,第一预设时间段指示的时长可以是研发人员根据经验设置的,也可以是通过神经网络学习到的,具体不受本申请实施例的限制。例如,假设第一预设时间段为一个月,那么可以统计目标对象在最近一个月内的行为特征,以生成目标对象的长期行为序列,该长期行为序列可以包括目标对象在最近一个月内的行为特征。
可选的,长期行为序列可以包括至少一个行为序列,每个行为序列可以用于指示目标对象在第一预设时间段内浏览的资源的资源标识,或者目标对象在第一预设时间段内浏览的资源的发布作者的身份标识,或者目标对象在第一预设时间段内浏览的资源的实体,或者目标对象在第一预设时间段内浏览的资源的品类,或者目标对象在第一预设时间段内浏览的资源的关键词,或者目标对象在第一预设时间段内浏览的资源的话题。
其中,可以按照时间顺序对统计到的某个行为序列对应的至少一个行为特征进行排序,得到该行为序列,例如,假设目标对象在第一预设时间段内浏览了五个资源,对于用于指示目标对象在第一预设时间段内浏览的资源的资源标识的行为序列,可以获取这五个资源的资源标识,并基于目标对象对各个资源标识对应资源的浏览时间点,对这五个资源标识进行排序,得到一个行为序列。
在一种实现方式中,基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征的方式,可以包括:获取各个长期行为特征的权重;基于各个长期行为特征的权重,对至少一个长期行为特征进行多层感知机运算,得到长期行为兴趣表征。
其中,各个长期行为特征的权重可以是研发人员基于经验设置的,也可以是通过神经网络学习到的,具体不受本申请实施例的限定。例如,至少一个长期行为特征包括资源标识,资源的发布作者的身份标识,资源的实体,资源的品类这四个维度的行为特征,那么可以设置各个维度的长期行为特征的权重。
在一种实现方式中,基于各个长期行为特征的权重,对至少一个长期行为特征进行多层感知机运算,得到长期行为兴趣表征的方式,可以包括:使用目标对象的身份特征,对至少一个长期行为特征进行注意力计算,得到处理后的至少一个长期行为特征;基于各个长期行为特征的权重,对处理后的至少一个长期行为特征进行多层感知机运算,得到长期行为兴趣表征。
其中,目标对象的身份特征可以用于标识目标对象的身份信息,例如身份特征可以包括如下一种或者多种:年龄,性别,职业,所处地理区域,兴趣爱好等。
具体的,可以将目标对象的长期行为序列输入到用户自注意力网络(attentionnet)中,联合用户信息计算注意力得分,输出结果经过全连接神经网络,获得长期行为兴趣表征。
示例性的,基于各个长期行为特征的权重,对至少一个长期行为特征进行多层感知机运算,即对目标对象的长期行为序列的多兴趣表征进行抽取,可以通过如下公式(1)计算得到长期行为序列的长期行为兴趣表征。
pu=tanh(Wpzu+b) 公式(1)
其中,pu可以表示长期行为兴趣表征,zu可以表示目标对象多个长期行为序列的向量表达之和。Wp和b为预先设置的参数。zu可以通过公式(2)计算得到,可以表示目标对象的一个行为序列的向量,/>可以表示长期行为序列包括的行为序列的数量。/>可以通过公式(3)计算得到,ak可以表示使用目标对象的身份特征,对第k个行为特征进行注意力计算,得到处理后的第k个行为特征,/>可以表示目标对象的第k个行为特征的向量,/>可以表示目标对象的某个行为序列包括的行为特征的数量。ak可以通过公式(4)计算得到,eu可以表示目标对象的身份特征,T表示矩阵转置。
可以理解为,若目标对象的长期行为序列包括6个行为序列,即用于指示目标对象在第一预设时间段内浏览的资源的资源标识的行为序列,用于指示目标对象在第一预设时间段内浏览的资源的发布作者的身份标识的行为序列,用于指示目标对象在第一预设时间段内浏览的资源的实体的行为序列,用于指示目标对象在第一预设时间段内浏览的资源的品类的行为序列,用于指示目标对象在第一预设时间段内浏览的资源的关键词的行为序列,用于指示目标对象在第一预设时间段内浏览的资源的话题的行为序列。那么可以将这6个行为序列分别输入到用户自注意力网络中,联合目标对象的身份特征计算注意力得分,输出结果拼接起来经过全连接神经网络,获得长期行为兴趣表征。其中,将任一行为序列输入到用户自注意力网络中,联合目标对象的身份特征计算注意力得分,得到目标对象在该行为序列上的向量,然后基于目标对象在该行为序列上的向量,对目标对象在该行为序列的兴趣表征进行抽取,进而将目标对象在上述6个行为序列的兴趣表征进行融合,得到目标对象的长期行为兴趣表征。
S102,基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征。
其中,短期行为序列包括目标对象在第二预设时间段内的至少一个短期行为特征。示例性的,短期行为特征指的是目标对象在第二预设时间段内的行为特征。行为特征的具体内容可以参见上述步骤S101的描述,本申请实施例不再赘述。
其中,第一预设时间段指示的时长大于第二预设时间段指示的时长。第二预设时间段指示的时长可以是研发人员根据经验设置的,也可以是通过神经网络学习到的,具体不受本申请实施例的限制。例如,假设第二预设时间段为一天,那么可以统计目标对象在最近一天内的行为特征,以生成目标对象的短期行为序列,该短期行为序列可以包括目标对象在最近一天内的行为特征。
可选的,短期行为序列可以包括至少一个行为序列,每个行为序列可以用于指示目标对象在第二预设时间段内浏览的资源的资源标识,或者目标对象在第二预设时间段内浏览的资源的发布作者的身份标识,或者目标对象在第二预设时间段内浏览的资源的实体,或者目标对象在第二预设时间段内浏览的资源的品类,或者目标对象在第二预设时间段内浏览的资源的关键词,或者目标对象在第二预设时间段内浏览的资源的话题。
其中,可以按照时间顺序对统计到的某个行为序列对应的至少一个行为特征进行排序,得到该行为序列,例如,假设目标对象在第二预设时间段内浏览了三个资源,对于用于指示目标对象在第二预设时间段内浏览的资源的资源标识的行为序列,可以获取这三个资源的资源标识,并基于目标对象对各个资源标识对应资源的浏览时间点,对这三个资源标识进行排序,得到一个行为序列。
在一种实现方式中,基于目标对象的短期行为特征,生成目标对象的短期行为兴趣表征的方式,可以包括:使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一种实现方式中,可以调用长短期记忆网络(Long Short-Term Memory,LSTM),对至少一个短期行为特征进行特征筛选,得到筛选后的短期行为特征,通过多头自注意力机制,对筛选后的短期行为特征进行注意力计算,得到高阶的短期行为特征,使用目标对象的身份特征,对高阶的短期行为特征进行注意力计算,得到短期行为兴趣表征。
可以理解为,目标对象的短期行为兴趣表征可以通过如下三个步骤处理得到:
一、将目标对象的短期行为序列通过全连接层得到资源向量为了捕捉和描述短期行为序列中的行为特征的全局时间依赖,采用了LSTM,LSTM描述如下,其中/> 分别表示输入、遗忘和输出门。然后将通过LSTM得到的/>传递给更高层注意力网络中,以此来得到更高阶的表示。
示例性的,LSTM的输出,即筛选后的短期行为特征可以通过如下公式(5)计算得到。
其中,可以表示LSTM的输出,/>可以表示LSTM的输出门,/>可以表示目标对象在时间t的单元状态向量。/>可以通过公式(6)计算得到,/>可以表示LSTM的遗忘门,/>可以表示目标对象在时间t-1的单元状态向量,/>可以表示LSTM的输入门,/>可以表示短期行为序列的资源向量,/>可以表示时间t-1的隐藏状态向量,/>和bc均为预先设置的参数。/>可以通过公式(7)计算得到,/>和bin均为预先设置的参数。/>可以通过公式(8)计算得到,/>和bf均为预先设置的参数。/>可以通过公式(9)计算得到,和bo均为预先设置的参数。
二、将LSTM的输出作为注意力attention的输入xu,计算多头自注意力(multi-head self-attention),得到高阶的短期行为特征。
示例性的,高阶的短期行为特征可以通过如下公式(10)计算得到。
其中,可以表示目标对象的高阶的短期行为特征,Xu可以表示LSTM的输出,和/>均为预先设置的参数。具体的,高阶的短期行为特征可以通过公式(13)计算得到,/>可以表示目标对象的短期行为线性变化后的特征值/> 可以表示对目标对象的查询向量和注意力向量的相似度进行标准化缩放结果。/>可以通过公式(12)计算得到,/>可以表示目标对象的查询向量和注意力向量的相似度公式。可以通过公式(11)计算得到,/>可以表示目标对象的查询向量 可以表示标对象的注意力中的键key向量/>
三、引入用户注意力(user Attention)结构,用于挖掘更加细粒度的个性化信息,即使用目标对象的身份特征,对高阶的短期行为特征进行注意力计算,得到短期行为兴趣表征。
示例性的,短期行为兴趣表征可以通过如下公式(14)计算得到。
其中,可以表示目标对象的短期行为兴趣表征,ak可以表示目标对象的查询向量和注意力向量的相似度进行标准化缩放结果,/>可以表示目标对象的查询向量。ak可以通过公式(15)计算得到,eu可以表示目标对象的身份特征,T表示矩阵转置。
S103,对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量。
在一种实现方式中,可以通过门控网络生成身长期行为兴趣表征和短期行为兴趣表征的权重,基于长期行为兴趣表征和短期行为兴趣表征的权重,对长期行为兴趣表征和短期行为兴趣表征进行加权运算,得到目标对象的兴趣表征向量。
具体的,可以融合目标对象的两种行为序列(即长期行为序列和短期行为序列)各自生成的兴趣表征,利用门控网络(Gate)融合目标对象的长期行为兴趣表征和短期行为兴趣表征。门控网络可以为每种表征产出一个权重,最后多种表征加权合并成目标对象的兴趣表征向量。示例性的,可以通过如下公式(3)计算得到目标对象的兴趣表征向量。
其中,可以表示目标对象的兴趣表征向量,/>可以表示短期行为兴趣表征的权重,/>可以表示短期行为兴趣表征,pu可以表示长期行为兴趣表征。其中,/>可以通过上述公式(17)计算得到,eu可以表示目标对象的身份表征,W1、W2、W3和b均为预设参数。
S104,基于目标对象的兴趣表征向量,确定目标对象的召回资源。
在一种方式中,可以基于目标对象的兴趣表征向量,实时确定目标对象的召回资源。例如,获取候选集合,候选集合包括多个资源,对候选集合中的各个资源进行特征提取,得到各个资源的资源特征向量,针对多个资源中的任一资源,基于目标对象的兴趣表征向量和任一资源的资源特征向量的空间距离,将空间距离小于距离阈值的资源作为目标对象的召回资源。
在一种实现方式中,基于目标对象的兴趣表征向量,确定目标对象的召回资源的方式,可以包括:基于兴趣表征向量和资源的对应关系,获取兴趣表征向量对应的资源,将获取到的资源作为目标对象的召回资源。
在一个示例中,在获取到目标对象的兴趣表征向量之后,目标对象可以提交对资源的在线访问请求,在接收到目标对象的在线访问请求之后,可以基于兴趣表征向量和资源的对应关系,获取目标对象的兴趣表征向量对应的资源,将获取到的资源作为目标对象的召回资源,进而基于目标对象的召回资源向目标对象推送资源。
在另一个示例中,目标对象可以提交对资源的在线访问请求,在接收到目标对象的在线访问请求之后,可以通过本申请实施例提供的方式实时获取目标对象的兴趣表征向量,然后基于兴趣表征向量和资源的对应关系,获取兴趣表征向量对应的资源,将获取到的资源作为目标对象的召回资源,进而基于目标对象的召回资源向目标对象推送资源。
可选的,若目标对象通过账号成功登录客户端,则自动提交对资源的在线访问请求。或者,若检测到目标对象在显示页面中进行上滑操作,则自动提交对资源的在线访问请求。或者,若检测到目标对象切换至某个页面的切换操作,则自动提交对资源的在线访问请求。或者,目标对象在搜索栏中提交对资源的在线访问请求。
本申请实施例中,由于兴趣向量和资源的对应关系是预先建立的,在获取到目标对象的兴趣表征向量之后,可以直接基于兴趣表征向量和资源的对应关系,获取目标对象的兴趣表征向量对应的资源,将获取到的资源作为目标对象的召回资源,可提升资源召回的效率。
在一种实现方式中,可以获取候选集合,候选集合包括多个资源,对候选集合中的各个资源进行特征提取,得到各个资源的资源特征向量,基于兴趣表征向量和各个资源的资源特征向量的空间距离,建立兴趣表征向量和资源的对应关系。
其中,若存在兴趣表征向量与某个资源的空间距离最小,那么表明具有该兴趣表征向量指示的兴趣信号的对象,极有可能对该资源感兴趣。
其中,推荐系统线上作用时,召回目标对象的兴趣表征向量,这样可以充分地学习到目标对象不同的行为偏好,最终达到提升系统交互率、资源分发多样性的效果。
本申请实施例中,基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征,基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征,对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量,基于目标对象的兴趣表征向量,确定目标对象的召回资源,能够更好地平衡对象的长短期兴趣表达,以准确地挖掘对象在不同时间段的兴趣偏好,从而提高资源召回的准确性。
本申请实施例中目标对象的兴趣表征向量可以基于兴趣表征模型得到,兴趣表征模型的架构示意图如图2所示。该兴趣表征模型采用双塔结构学习对象和资源的相似度,其中对象侧建模结构如图2所示,先对短期行为单独进行LSTM建模,同时长期行为通过自注意力网络(attention net)进行序列建模,然后融合两者的兴趣范式得到对象的兴趣表征向量。
具体的,对象的长期行为序列(Long term module)可以作为输入,传输至兴趣表征模型。其中长期行为序列可以包括资源标识,资源的发布作者的身份标识,资源的实体,资源的品类,资源的关键词,资源的话题这六个行为序列。具体的,这六个行为序列可以分别输入到自注意力网络(Attn Net)中,联合对象的身份特征计算注意力得分,输出结果(即上述实施例中的)拼接起来经过全连接神经网络(Dense),获得长期行为兴趣表征(即上述实施例中的pu)。
同时,可以将对象的短期行为序列(Near term module)作为输入,传输至兴趣表征模型。其中短期行为序列可以包括资源标识,资源的发布作者的身份标识,资源的实体,资源的品类,资源的关键词,资源的话题这六个行为序列。具体的,可以将这六个行为序列通过全连接层得到资源向量(即上述实施例中的)。为了捕捉和描述序列特征的全局时间依赖,可以将这六个行为序列的资源向量分别输入至LSTM,然后将各个LSTM的输出(即上述实施例中的/>)传递给更高层注意力网络中,以此来得到更高阶的表示,即将LSTM的输出作为注意力attention的输入xu,计算多头自注意力(multi-head self-attention),最后联合对象的身份特征引入用户注意力机制(Attn Net)结构,用于挖掘更加细粒度的个性化信息,获得短期行为兴趣表征(即上述实施例中的/>)。
在获取到对象的长期行为兴趣表征以及短期行为兴趣表征之后,可以利用门控网络(Gate)融合长期行为兴趣表征和短期行为兴趣表征。门控网络为每种表征产出一个权重(即短期行为兴趣表征的权重为长期行为兴趣表征的权重为/>),最后多种表征加权合并,得到对象的兴趣表征向量(即上述实施例中的/>)。
可选的,本申请实施例中的Attn Net的结构图可以如图3所示,Attn Net至少可以包括score模块和softmax模块。
基于上述描述,请参见图4,图4是本申请实施例提供的另一种资源召回方法的流程示意图,该资源召回方法可以由资源召回装置或者计算机设备执行;如图4所示的资源召回方案包括但不限于步骤S401~步骤S409,其中:
S401,获取训练样本,训练样本包括正样本和负样本,正样本包括在历史时间段内被推送至训练对象,且被训练对象点击的第一训练资源,负样本包括在历史时间段内未被推送至训练对象的第二训练资源。
举例来说,可以获取预设时间段内的曝光样本,例如第一预设时间段为一个月,那么可以获取最近一个月内被推送至训练对象,且被训练对象点击的第一训练资源,表明第一训练资源是该训练对象感兴趣的资源,因此将第一训练资源作为正样本,还可以获取最近一个月内未被推送至训练对象的第二训练资源,表明第二训练资源不是该训练对象感兴趣的资源,因此将第二训练资源作为负样本。例如,负样本可以为批处理窗口中的随机负样本。
S402,获取训练对象关于第一训练资源的长期行为序列和短期行为序列。
S403,调用初始兴趣表征模型,基于训练对象的长期行为序列,生成训练对象的长期行为兴趣表征,以及基于训练对象的短期行为序列,生成训练对象的短期行为兴趣表征。
S404,对训练对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到训练对象的兴趣表征向量。
S405,以减小训练对象的兴趣表征向量和第一训练资源的空间距离,且增大训练对象的兴趣表征向量和第二训练资源的空间距离为训练目标,对初始兴趣表征模型进行训练,得到兴趣表征模型。
举例来说,可以利用argmax分别计算出与各个训练资源最匹配的兴趣向量,即与各个训练资源的空间距离最小的兴趣向量。示例性的,与任一训练资源的空间距离最小的兴趣向量可以通过如下公式(18)计算得到。
其中,可以表示训练对象u与训练资源i的的空间距离最小的兴趣向量,Ou可以表示对象u的兴趣表征向量,/>可以表示训练对象的兴趣表征向量矩阵转置,ei可以表示训练资源i的表征向量,T可以指的是转置计算,u可以指的是任一训练对象,i可以指的是任一训练资源。
示例性的,对初始兴趣表征模型进行训练时计算得到的损失值,可以通过似然函数计算得到,即可以通过如下公式(19)计算得到。
其中,p(xi|u)可以表示给定训练对象u时与训练资源i的空间距离最小的概率,xi可以表示第一训练资源,可以表示训练对象u与第二训练资源j的空间距离。
示例性的,最大化似然函数用于计算损失值,可以通过如下公式(20)计算得到。
其中,L可以表示对初始兴趣表征模型进行训练时计算得到的损失值,U可以表示所有训练对象,Iu可以表示任一训练对象u对应的第一训练资源。
在一种实现方式中,可以每间隔第三预设时间段对上一次优化得到的兴趣表征模型的稠密参数和稀疏参数进行优化,得到兴趣表征模型。举例来说,假设第三预设时间段为一天,若在2023年1月6日对兴趣表征模型的稠密参数和稀疏参数进行优化,那么在2023年1月7日可以对最近一次优化得到的兴趣表征模型的稠密参数和稀疏参数进行优化,得到兴趣表征模型。
在一种实现方式中,可以每间隔第四预设时间段对上一次优化得到的兴趣表征模型的稀疏参数进行优化,得到兴趣表征模型,第三预设时间段指示的时长大于第四预设时间段指示的时长。举例来说,假设第四预设时间段为一小时,若在2023年1月7日9:00对兴趣表征模型的稀疏参数进行优化,那么在2023年1月7日10:00可以对最近一次优化得到的兴趣表征模型的稀疏参数进行优化,得到兴趣表征模型。
S406,调用兴趣表征模型,基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征。
S407,基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征。
S408,对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量。
S409,基于目标对象的兴趣表征向量,确定目标对象的召回资源。
其中,步骤S406至步骤S409可以参见上述实施例中步骤S101至步骤S104的具体描述,本申请实施例不再赘述。
本申请实施例中,获取训练对象关于第一训练资源的长期行为序列和短期行为序列,调用初始兴趣表征模型,基于训练对象的长期行为序列,生成训练对象的长期行为兴趣表征,以及基于训练对象的短期行为序列,生成训练对象的短期行为兴趣表征,对训练对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到训练对象的兴趣表征向量,以减小训练对象的兴趣表征向量和第一训练资源的空间距离,且增大训练对象的兴趣表征向量和第二训练资源的空间距离为训练目标,对初始兴趣表征模型进行训练,得到兴趣表征模型。然后,调用兴趣表征模型,基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征,基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征,对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量,基于目标对象的兴趣表征向量,确定目标对象的召回资源,能够准确地挖掘对象的兴趣偏好,从而提高资源召回的准确性。
本申请实施例还提供了一种计算机存储介质,该计算机存储介质中存储有程序指令,该程序指令被执行时,用于实现上述实施例中描述的相应方法。
再请参见图5,图5是本申请实施例的提供一种资源召回装置的结构示意图。
本申请实施例的资源召回装置的一个实现方式中,资源召回装置包括如下结构。
第一生成单元501,用于基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征;其中,所述长期行为序列包括所述目标对象在第一预设时间段内的至少一个长期行为特征;
第二生成单元502,用于基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征;其中,所述短期行为序列包括所述目标对象在第二预设时间段内的至少一个短期行为特征,所述第一预设时间段指示的时长大于所述第二预设时间段指示的时长;
融合单元503,用于对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量;
确定单元504,用于基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源。
在一个实施例中,所述第一生成单元501基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征,包括:
获取各个长期行为特征的权重;
基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
在一个实施例中,所述第一生成单元501基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述至少一个长期行为特征进行注意力计算,得到处理后的至少一个长期行为特征;
基于所述各个长期行为特征的权重,对所述处理后的至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
在一个实施例中,所述第二生成单元502基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一个实施例中,所述第二生成单元502,还用于调用LSTM,对所述至少一个短期行为特征进行特征筛选,得到筛选后的短期行为特征;通过多头自注意力机制,对所述筛选后的短期行为特征进行注意力计算,得到高阶的短期行为特征;
所述第二生成单元502使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述高阶的短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一个实施例中,所述融合单元503对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量,包括:
通过门控网络生成身长期行为兴趣表征和短期行为兴趣表征的权重;
基于所述长期行为兴趣表征和短期行为兴趣表征的权重,对所述长期行为兴趣表征和短期行为兴趣表征进行加权运算,得到所述目标对象的兴趣表征向量。
在一个实施例中,所述确定单元504基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源,包括:
基于兴趣表征向量和资源的对应关系,获取所述兴趣表征向量对应的资源;
将获取到的资源作为所述目标对象的召回资源。
在一个实施例中,所述资源召回装置还可以包括:
获取单元505,用于获取候选集合,所述候选集合包括多个资源;
特征提取单元506,用于对所述候选集合中的各个资源进行特征提取,得到各个资源的资源特征向量;
关系建立单元507,用于基于所述兴趣表征向量和所述各个资源的资源特征向量的空间距离,建立兴趣表征向量和资源的对应关系。
在一个实施例中,所述兴趣表征向量是基于兴趣表征模型得到的,所述资源召回装置还可以包括:
获取单元505,用于获取训练样本;其中,所述训练样本包括正样本和负样本,所述正样本包括在历史时间段内被推送至训练对象,且被所述训练对象点击的第一训练资源,所述负样本包括在所述历史时间段内未被推送至所述训练对象的第二训练资源;
获取单元505,还用于获取所述训练对象关于所述第一训练资源的长期行为序列和短期行为序列;
第一生成单元501,还用于调用初始兴趣表征模型,基于所述训练对象的长期行为序列,生成所述训练对象的长期行为兴趣表征;
第二生成单元502,还用于基于所述训练对象的短期行为序列,生成所述训练对象的短期行为兴趣表征;
融合单元503,还用于对所述训练对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述训练对象的兴趣表征向量;
训练单元508,用于以减小所述训练对象的兴趣表征向量和所述第一训练资源的空间距离,且增大所述训练对象的兴趣表征向量和所述第二训练资源的空间距离为训练目标,对所述初始兴趣表征模型进行训练,得到所述兴趣表征模型。
在一个实施例中,所述资源召回装置还可以包括:
优化单元509,用于每间隔第三预设时间段对上一次优化得到的兴趣表征模型的稠密参数和稀疏参数进行优化,得到所述兴趣表征模型;
优化单元509,还用于每间隔第四预设时间段对上一次优化得到的兴趣表征模型的稀疏参数进行优化,得到所述兴趣表征模型,所述第三预设时间段指示的时长大于所述第四预设时间段指示的时长。
本申请实施例中,第一生成单元501基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征,第二生成单元502基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征,融合单元503对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量,确定单元504基于目标对象的兴趣表征向量,确定目标对象的召回资源,能够准确地挖掘对象的兴趣偏好,从而提高资源召回的准确性。
再请参见图6,图6是本申请实施例提供的一种计算机设备的结构示意图,本申请实施例的计算机设备包括供电模块等结构,并包括处理器601、存储装置602以及通信接口603。处理器601、存储装置602以及通信接口603之间可以交互数据,由处理器601实现相应的目标检测方法。
存储装置602可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储装置602也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),固态硬盘(solid-state drive,SSD)等;存储装置602还可以包括上述种类的存储器的组合。
处理器601可以是中央处理器(central processing unit,CPU)。处理器601也可以是由CPU和GPU的组合。在服务器中,可以根据需要包括多个CPU和GPU进行相应的数据处理。在一个实施例中,存储装置602用于存储程序指令。处理器601可以调用程序指令,实现如本申请实施例中上述涉及的各种方法。
在第一个可能的实施方式中,计算机设备的处理器601,调用存储装置602中存储的程序指令,用于基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征;其中,所述长期行为序列包括所述目标对象在第一预设时间段内的至少一个长期行为特征;基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征;其中,所述短期行为序列包括所述目标对象在第二预设时间段内的至少一个短期行为特征,所述第一预设时间段指示的时长大于所述第二预设时间段指示的时长;对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量;基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源。
在一个实施例中,所述处理器601在基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征时,可以执行以下操作:
获取各个长期行为特征的权重;
基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
在一个实施例中,所述处理器601在基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行加权运算,得到所述长期行为兴趣表征时,可以执行以下操作:
使用所述目标对象的身份特征,对所述至少一个长期行为特征进行注意力计算,得到处理后的至少一个长期行为特征;
基于所述各个长期行为特征的权重,对所述处理后的至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
在一个实施例中,所述处理器601在基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征时,可以执行以下操作:
使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一个实施例中,所述处理器601还用于执行以下操作:
调用LSTM,对所述至少一个短期行为特征进行特征筛选,得到筛选后的短期行为特征;
通过多头自注意力机制,对所述筛选后的短期行为特征进行注意力计算,得到高阶的短期行为特征;
所述处理器601在使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征时,可以执行以下操作:
使用所述目标对象的身份特征,对所述高阶的短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
在一个实施例中,所述处理器601在对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量时,可以执行以下操作:
通过门控网络生成身长期行为兴趣表征和短期行为兴趣表征的权重;
基于所述长期行为兴趣表征和短期行为兴趣表征的权重,对所述长期行为兴趣表征和短期行为兴趣表征进行加权运算,得到所述目标对象的兴趣表征向量。
在一个实施例中,所述处理器601在基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源时,可以执行以下操作:
基于兴趣表征向量和资源的对应关系,获取所述兴趣表征向量对应的资源;
将获取到的资源作为所述目标对象的召回资源。
在一个实施例中,所述处理器601还可以执行以下操作:
获取候选集合,所述候选集合包括多个资源;
对所述候选集合中的各个资源进行特征提取,得到各个资源的资源特征向量;
基于所述兴趣表征向量和所述各个资源的资源特征向量的空间距离,建立兴趣表征向量和资源的对应关系。
在一个实施例中,所述兴趣表征向量是基于兴趣表征模型得到的,所述处理器601还可以执行以下操作:
获取训练样本;其中,所述训练样本包括正样本和负样本,所述正样本包括在历史时间段内被推送至训练对象,且被所述训练对象点击的第一训练资源,所述负样本包括在所述历史时间段内未被推送至所述训练对象的第二训练资源;
获取所述训练对象关于所述第一训练资源的长期行为序列和短期行为序列;
调用初始兴趣表征模型,基于所述训练对象的长期行为序列,生成所述训练对象的长期行为兴趣表征;
基于所述训练对象的短期行为序列,生成所述训练对象的短期行为兴趣表征;
对所述训练对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述训练对象的兴趣表征向量;
以减小所述训练对象的兴趣表征向量和所述第一训练资源的空间距离,且增大所述训练对象的兴趣表征向量和所述第二训练资源的空间距离为训练目标,对所述初始兴趣表征模型进行训练,得到所述兴趣表征模型。
在一个实施例中,所述处理器601还可以执行以下操作:
每间隔第三预设时间段对上一次优化得到的兴趣表征模型的稠密参数和稀疏参数进行优化,得到所述兴趣表征模型;
每间隔第四预设时间段对上一次优化得到的兴趣表征模型的稀疏参数进行优化,得到所述兴趣表征模型,所述第三预设时间段指示的时长大于所述第四预设时间段指示的时长。
本申请实施例中,处理器601基于目标对象的长期行为序列,生成目标对象的长期行为兴趣表征,基于目标对象的短期行为序列,生成目标对象的短期行为兴趣表征,对目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到目标对象的兴趣表征向量,基于目标对象的兴趣表征向量,确定目标对象的召回资源,能够准确地挖掘对象的兴趣偏好,从而提高资源召回的准确性。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。的计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
以上所揭露的仅为本申请的部分实施例而已,当然不能以此来限定本申请之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本申请权利要求所作的等同变化,仍属于本发明所涵盖的范围。
Claims (10)
1.一种资源召回方法,其特征在于,包括:
基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征;其中,所述长期行为序列包括所述目标对象在第一预设时间段内的至少一个长期行为特征;
基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征;其中,所述短期行为序列包括所述目标对象在第二预设时间段内的至少一个短期行为特征,所述第一预设时间段指示的时长大于所述第二预设时间段指示的时长;
对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量;
基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源。
2.根据权利要求1所述的方法,其特征在于,所述基于目标对象的长期行为序列,生成所述目标对象的长期行为兴趣表征,包括:
获取各个长期行为特征的权重;
基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
3.根据权利要求2所述的方法,其特征在于,所述基于所述各个长期行为特征的权重,对所述至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述至少一个长期行为特征进行注意力计算,得到处理后的至少一个长期行为特征;
基于所述各个长期行为特征的权重,对所述处理后的至少一个长期行为特征进行多层感知机运算,得到所述长期行为兴趣表征。
4.根据权利要求1所述的方法,其特征在于,所述基于所述目标对象的短期行为序列,生成所述目标对象的短期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
调用长短期记忆网络LSTM,对所述至少一个短期行为特征进行特征筛选,得到筛选后的短期行为特征;
通过多头自注意力机制,对所述筛选后的短期行为特征进行注意力计算,得到高阶的短期行为特征;
所述使用所述目标对象的身份特征,对所述至少一个短期行为特征进行注意力计算,得到所述短期行为兴趣表征,包括:
使用所述目标对象的身份特征,对所述高阶的短期行为特征进行注意力计算,得到所述短期行为兴趣表征。
6.根据权利要求1所述的方法,其特征在于,所述对所述目标对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述目标对象的兴趣表征向量,包括:
通过门控网络生成身长期行为兴趣表征和短期行为兴趣表征的权重;
基于所述长期行为兴趣表征和短期行为兴趣表征的权重,对所述长期行为兴趣表征和短期行为兴趣表征进行加权运算,得到所述目标对象的兴趣表征向量。
7.根据权利要求1所述的方法,其特征在于,所述基于所述目标对象的兴趣表征向量,确定所述目标对象的召回资源,包括:
基于兴趣表征向量和资源的对应关系,获取所述兴趣表征向量对应的资源;
将获取到的资源作为所述目标对象的召回资源。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取候选集合,所述候选集合包括多个资源;
对所述候选集合中的各个资源进行特征提取,得到各个资源的资源特征向量;
基于所述兴趣表征向量和所述各个资源的资源特征向量的空间距离,建立兴趣表征向量和资源的对应关系。
9.根据权利要求1所述的方法,其特征在于,所述兴趣表征向量是基于兴趣表征模型得到的,所述方法还包括:
获取训练样本;其中,所述训练样本包括正样本和负样本,所述正样本包括在历史时间段内被推送至训练对象,且被所述训练对象点击的第一训练资源,所述负样本包括在所述历史时间段内未被推送至所述训练对象的第二训练资源;
获取所述训练对象关于所述第一训练资源的长期行为序列和短期行为序列;
调用初始兴趣表征模型,基于所述训练对象的长期行为序列,生成所述训练对象的长期行为兴趣表征,以及基于所述训练对象的短期行为序列,生成所述训练对象的短期行为兴趣表征;
对所述训练对象的长期行为兴趣表征和短期行为兴趣表征进行融合,得到所述训练对象的兴趣表征向量;
以减小所述训练对象的兴趣表征向量和所述第一训练资源的空间距离,且增大所述训练对象的兴趣表征向量和所述第二训练资源的空间距离为训练目标,对所述初始兴趣表征模型进行训练,得到所述兴趣表征模型。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
每间隔第三预设时间段对上一次优化得到的兴趣表征模型的稠密参数和稀疏参数进行优化,得到所述兴趣表征模型;
每间隔第四预设时间段对上一次优化得到的兴趣表征模型的稀疏参数进行优化,得到所述兴趣表征模型,所述第三预设时间段指示的时长大于所述第四预设时间段指示的时长。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310171866.8A CN117743673A (zh) | 2023-02-25 | 2023-02-25 | 资源召回方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310171866.8A CN117743673A (zh) | 2023-02-25 | 2023-02-25 | 资源召回方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117743673A true CN117743673A (zh) | 2024-03-22 |
Family
ID=90259765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310171866.8A Pending CN117743673A (zh) | 2023-02-25 | 2023-02-25 | 资源召回方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117743673A (zh) |
-
2023
- 2023-02-25 CN CN202310171866.8A patent/CN117743673A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5454357B2 (ja) | 情報処理装置および方法、並びに、プログラム | |
JP7160980B2 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
CN114265979B (zh) | 确定融合参数的方法、信息推荐方法和模型训练方法 | |
EP4181026A1 (en) | Recommendation model training method and apparatus, recommendation method and apparatus, and computer-readable medium | |
CN109766557B (zh) | 一种情感分析方法、装置、存储介质及终端设备 | |
CN113590948B (zh) | 信息推荐方法、装置、设备以及计算机存储介质 | |
CN113761359B (zh) | 数据包推荐方法、装置、电子设备和存储介质 | |
WO2024002167A1 (zh) | 一种操作预测方法及相关装置 | |
CN112989182A (zh) | 信息处理方法、装置、信息处理设备及存储介质 | |
CN114817692A (zh) | 确定推荐对象的方法、装置和设备及计算机存储介质 | |
CN116204709A (zh) | 一种数据处理方法及相关装置 | |
CN116361643A (zh) | 实现对象推荐的模型训练方法及对象推荐方法及相关装置 | |
WO2023050143A1 (zh) | 一种推荐模型训练方法及装置 | |
CN111177493B (zh) | 数据处理方法、装置、服务器和存储介质 | |
CN116541517A (zh) | 文本信息处理方法、装置、设备、软件程序以及存储介质 | |
CN117743673A (zh) | 资源召回方法 | |
Dong et al. | A hierarchical network with user memory matrix for long sequence recommendation | |
CN117743675A (zh) | 资源召回方法 | |
CN114048826B (zh) | 一种推荐模型训练方法、装置、设备及介质 | |
CN117786234B (zh) | 一种基于两阶段对比学习的多模态资源推荐方法 | |
CN110197056B (zh) | 关系网络和关联身份识别方法、装置、设备和存储介质 | |
Zhang et al. | Generative-Adversarial-Based Feature Compensation to Predict Quality of Service | |
CN116628236A (zh) | 多媒体信息的投放方法、装置、电子设备及存储介质 | |
Aramuthakannan et al. | Movie recommendation system using taymon optimized deep learning network | |
CN117743674A (zh) | 资源召回方法、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |