CN117688390A - 内容匹配方法、装置、计算机设备、存储介质和程序产品 - Google Patents

内容匹配方法、装置、计算机设备、存储介质和程序产品 Download PDF

Info

Publication number
CN117688390A
CN117688390A CN202211047081.1A CN202211047081A CN117688390A CN 117688390 A CN117688390 A CN 117688390A CN 202211047081 A CN202211047081 A CN 202211047081A CN 117688390 A CN117688390 A CN 117688390A
Authority
CN
China
Prior art keywords
content
vector
feature
interaction
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211047081.1A
Other languages
English (en)
Inventor
陈昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202211047081.1A priority Critical patent/CN117688390A/zh
Publication of CN117688390A publication Critical patent/CN117688390A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种内容匹配方法、装置、计算机设备、存储介质和计算机程序产品。所述方法包括:获取目标对象的对象原始特征;获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;基于所述对象原始特征和所述第一交互特征,构建对象综合特征;获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。采用本方法能够提高内容匹配准确性。

Description

内容匹配方法、装置、计算机设备、存储介质和程序产品
技术领域
本申请涉及神经网络技术领域,特别是涉及一种内容匹配方法、装置、计算机设备、存储介质和程序产品。
背景技术
媒体数据的传播使得人们的工作和生活变得日益丰富,其也慢慢成为人们社交需求的一个重要组成部分。与此同时,如何针对海量数据进行有质量的召回和推送也成为了媒体数据传播过程中非常重要的环节。
传统技术中,常常使用双塔模型来实现媒体数据的召回。其中,双塔模型是一种广泛用于推荐和搜索领域的神经网络结构,模型将特征划分为user(代表某个对象,可以是某个用户)特征和item(物品)特征,分别输入两个独立的神经网络并输出user embedding(对象特征)和item embedding(物品特征),之后计算两个特征间的相似度,最后返回距离最近的K个item作为个性化的召回结果。
然而,传统方式中采用双塔模型实现数据召回,都是独立使用各自塔的特征后再进行匹配,这种匹配方式所能使用到的信息量有限,存在匹配召回结果不准确的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高匹配召回准确性的内容匹配方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
一方面,本申请提供了一种内容匹配方法。所述方法包括:
获取目标对象的对象原始特征;
获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
另一方面,本申请还提供了一种内容匹配装置。所述装置包括:
获取模块,用于获取目标对象的对象原始特征;
所述获取模块,还用于获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
构建模块,用于基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
所述获取模块,还用于获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
筛选模块,用于根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
另一方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取目标对象的对象原始特征;
获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
另一方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取目标对象的对象原始特征;
获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
另一方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:
获取目标对象的对象原始特征;
获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
上述内容匹配方法、装置、计算机设备、存储介质和计算机程序产品,获取目标对象的对象原始特征,还获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,该第一交互特征反映了对象侧与内容侧的交互情况,这些交互情况隐含了具有交互关系的对象与内容之间的交互信息。进而再基于对象原始特征和第一交互特征,构建对象综合特征。该对象综合特征既能反映该目标对象的个性化特征,又能体现不同对象与不同内容间的交互信息,所含有的信息量非常丰富。同样地,对于每个候选内容而言,也构建对应的内容综合特征,进而再基于对象综合特征与各内容综合特征间的相似程度,来召回目标内容,就可以利用多个维度的信息,准确地从大量的候选内容中召回与目标对象相匹配的目标内容。
附图说明
图1为一个实施例中内容匹配方法的应用环境图;
图2为一个实施例中内容匹配方法的流程示意图;
图3为一个实施例中常规双塔模型的模型结构示意图;
图4为一个实施例中目标内容召回的原理图的流程示意图;
图5为一个实施例中第一增广向量和第二增广向量的获取方式的流程示意图;
图6为一个实施例中第二双塔模型的训练步骤的流程示意图;
图7为一个实施例中基于预测融合特征与参考交叉特征间的差异,构建第二损失函数的步骤的流程示意图;
图8为一个实施例中内容匹配方法的原理示意图;
图9为一个实施例中内容匹配装置的结构框图;
图10为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在对本申请的技术方案进行说明之前,便于理解,先对本申请涉及到的一些技术术语做解释:
双塔模型:一种广泛用于推荐和搜索领域的神经网络结构,双塔模型将特征划分为user特征和item特征,分别输入两个独立的神经网络并分别输出user embedding和itemembedding,最后计算user embedding和item embedding的相似度得到模型输出。
需要说明的是,本申请中涉及到的一些双塔模型,具体可以包括属于对象侧的网络和属于内容侧的网络,其中,对象侧相当于user侧,内容侧相当于item侧。
知识蒸馏:知识蒸馏指的是一个比小模型拥有更多信息的大模型的信息转移到小模型上的过程。
交互特征:指没法单独使用user侧的信息或者item侧的信息来获取到的特征信息,例如当user侧对应对象,item侧对应视频时,则对象是否关注这个视频的发布者,可以认为是交互特征。
本申请实施例提供的内容匹配方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储系统可以存储服务器104需要处理的数据。数据存储系统可以集成在服务器104上,也可以放在云上或其他网络服务器上。终端102和服务器104可单独用于执行本申请的各实施例,也可以协同用于执行本申请的各实施例。以服务器104单独执行本申请为例进行说明,服务器104可从终端102处获取目标对象的对象信息,进而根据对象信息确定目标对象的对象原始特征,获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,该第一交互特征反映了对象侧与内容侧的交互情况。服务器104可基于对象原始特征和第一交互特征,构建对象综合特征。服务器104可预先基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征,构建得到各候选内容的内容综合特征,进而再根据对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
其中,终端102可以但不限于是各种台式计算机、笔记本电脑、智能手机、平板电脑、物联网设备和便携式可穿戴设备,物联网设备可为智能音箱、智能电视、智能空调、智能车载设备等。便携式可穿戴设备可为智能手表、智能手环、头戴设备等。服务器104可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云计算服务的云服务器。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。。
在一个实施例中,如图2所示,提供了一种内容匹配方法,以该方法应用于计算机设备(该计算机设备具体可以是图1中的终端或服务器)为例进行说明,包括以下步骤:
步骤202,获取目标对象的对象原始特征。
其中,目标对象是待进行内容匹配和推送的对象,可以是众多对象中的任一对象,或者是发起内容获取请求的对象等,本申请实施例对此不作限定。对象具体可以是自然人,也可以是计算机用户,还可以是某个组织或团体等,本申请实施例对此不作限定。目标对象的对象原始特征是基于目标对象的对象信息提取出的特征。其中,对象信息具体可以包括对象属性信息和历史操作信息。对象属性信息比如对象标识、目标对象所在区域等;历史操作信息比如历史浏览记录、历史点击信息、历史播放记录、或者历史互动信息等。
具体地,计算机设备可在接收到终端发送的内容获取请求时,基于该内容获取请求中携带的对象标识,获取目标对象的对象信息。或者,计算机设备可从历史对象标识库中找到当前待进行内容匹配和推送的对象标识,从而获得目标对象的对象信息。进而计算机设备再对该对象信息进行特征提取,得到对象原始特征。其中,对象标识是用于唯一标识某个对象的信息,具体可以是用户账号或身份信息等,通过字母、数字、字符串等表示。
在一些实施例中,计算机设备可通过训练完成的常规的双塔模型中属于对象侧的网络对对象信息进行特征提取,得到对象原始特征。具体可以是先对对象进行编码处理,得到对象编码特征,再通过属于对象侧的网络对对象编码特征进行特征提取,输出对象原始特征。其中,双塔模型中属于对象侧的网络具体可以是DNN网络(Deep Neural Networks,深度神经网络)。
常规双塔模型的模型结构请参考图3,图3中左侧为属于对象侧的网络,也就是DNN网络,可以对目标对象的对象信息今天特征提取,得到对象原始特征。图3中右侧为属于内容侧的网络,也可以是DNN网络,可以对各候选内容的内容进行特征提取,得到内容原始特征。其中,属于对象侧的网络和属于内容侧的网络,网络结构相同,但是网络参数不同。
在一些实施例中,计算机设备也可直接使用单独的特征提取网络对目标对象的对象信息进行特征提取,得到对象原始特征。其中,特征提取网络具体可以是VSM(向量空间模型)、GoogleNet(谷歌网络)、或ResNet(残差网络)等,本申请实施例对此不作限定。
步骤204,获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,第一交互特征反映了对象侧与内容侧的交互情况。
其中,样本对包括样本对象和样本内容,具有交互关系的样本对指该样本对中的样本对象和样本内容之间具有交互关系,也就是存在互动信息。比如该样本对象点击过或浏览过该样本内容,该样本对象关注了该样本内容的发布方,或者,该样本内容所对应的内容类别为该样本对象的偏好类别等。
具体地,计算机设备可预先基于具有交互关系的样本对,挖掘出偏向于内容侧的第一交互特征。需要说明的是,计算机设备可基于同样的方式,挖掘出偏向于对象侧的第二交互特征,该第二交互特征会用于构建候选内容的内容综合特征。
在一些实施例中,该第一交互特征包括第一增广向量或第一交叉特征中的至少一种。第二交互特征包括第二增广向量或第二交叉特征中的至少一种。也就是说,第一增广向量和第一交叉特征是与对象侧对应的,且都可以反映出对象侧与内容侧间的交互情况。第二增广向量和第二交叉特征是与内容侧对应的,且都可以反映出对象侧与内容侧间的交互情况。
下面对第一增广向量、第二增广向量、第一交叉特征、以及第二交叉特征各自的获取步骤分别进行说明:
在一些实施例中,第一增广向量的获取步骤包括:获取第一增广向量,第一增广向量为通过第一样本对在训练第一双塔模型的过程中训练得到的、且用于拟合属于内容侧的正交互信息的向量,其中,第一样本对中包括有具有交互关系的样本对。获取第二增广向量的步骤包括:获取第二增广向量,第二增广向量为通过第一样本对在训练第一双塔模型的过程中训练得到的、且用于拟合属于对象侧的正交互信息的向量。
其中,第一增广向量是与对象侧对应,但是用于拟合属于内容侧的正交互信息的向量,第一增广向量可通过au表示。第二增广向量是与内容侧对应,但是用于拟合属于对象侧的正交互信息的向量,第二增广向量可通过av表示。第一增广向量和第二增广向量,可通过第一样本对在训练第一双塔模型的过程中训练得到。
需要说明的是,第一双塔模型也是包括有对象侧网络和内容侧网络的双塔模型,该模型的网络结构具体可通过DNN网络实现。计算机设备可预先获取第一样本对,并通过该第一样本对来对第一双塔模型进行训练,在训练的过程中会涉及到第一增广参数和第二增广参数的调整,在模型训练结束时,第一增广参数所对应的值就是第一增广向量,第二增广参数所对应的值就是第二增广向量。第一双塔模型的训练目的是为了获得第一增广向量和第二增广向量。其中,第一样本对包括有第一样本对象和第一样本内容,其中第一样本对中包括有具有交互关系的样本对,也称作正样本对。
可以理解的是,为了使模型在训练过程中能得到更好的鲁棒性和适用性,通常还会设计负样本对来对模型进行训练,比如,本申请中,在对第一双塔模型进行训练的过程中,所使用到的第一样本对中还可以包括有不具有交互关系的样本对,也就是互相没有关系的第一样本对象和第一样本内容。
在一些实施例中,计算机设备在训练第一双塔模型的过程中,可将训练过程中第一增广参数所对应的值(也即下文中所提及中间第一增广向量)与第一样本对象的样本对象编码特征融合后输入至第一双塔模型中属于对象侧的网络,以输出第一增强向量。将训练过程中第二增广参数所对应的值(也即下文中所提及中间第二增广向量)与第一样本内容的样本内容编码特征融合后输入至第一双塔模型中属于内容侧的网络,以输出第二增强向量。调整第一双塔模型的模型参数、中间第一增广向量、以及中间第二增广向量,以使得中间第一增广向量逐步接近第二增强向量,中间第二增广向量逐步接近第一增强向量。也就是,使用增广向量来拟合属于另一个塔中的所有正交互。这样不断地迭代循环,直至达到第一训练停止条件时停止,得到第一增广向量和第二增广向量。
在一些实施例中,获取第一交叉特征的步骤包括:获取训练完成的第二双塔模型,第二双塔模型通过第二样本对、以及与第二样本对对应的参考交叉特征训练得到,其中,第二样本对中包括具有交互关系的样本对;通过训练完成的第二双塔模型中属于对象侧的网络,对目标对象的对象信息进行处理,得到第一交叉特征。获取第二交叉特征的步骤包括:通过训练完成的第二双塔模型中属于内容侧的网络,分别对各候选内容的内容信息进行处理,得到与各候选内容分别对应的第二交叉特征。
其中,第二样本对是用于训练第二双塔模型的样本对,包括第二样本对象和第二样本内容。第二样本对中包括有具有交互关系的样本对,还可以包括有不具有交互关系的样本对。第一样本对和第二样本对可以是相同的样本对,也可以是不同的样本对,本申请实施例对此不作限定。与第二样本对对应的参考交叉特征,具体可以是通过精排模型对第二样本对进行处理后输出的特征,可以认为是融合了第二样本对象和第二样本内容间的交互关系的特征,因而作为参考交叉特征。
在一些实施例中,计算机设备可通过第二样本对和与第二样本对对应的参考交叉特征对第二双塔模型进行训练,得到训练完成的第二双塔模型。其中,对第二双塔模型的具体训练过程可以是:将第二样本对中第二样本对象所对应的样本对象编码特征输入至第二双塔模型中属于对象侧的网络,输出第一预测特征;将第二样本对中第二样本内容所对应的样本内容编码特征输入至第二双塔模型中属于内容侧的网络,输出第二预测特征。融合第一预测特征和第二预测特征,得到预测融合特征。朝减小预测融合特征与参考交叉特征的差异的方向,调整第二双塔模型的模型参数,并不断地进行迭代训练,直至达到第二训练停止条件时停止,得到训练完成的第二双塔模型。这样,训练得到的第二双塔模型在对输入信息进行处理时,两个塔所输出的特征会更偏向于交叉特征。
在一些实施例中,计算机设备可对目标对象的对象信息进行编码处理,得到对象编码特征,并将对象编码特征输入至第二双塔模型中属于对象侧的网络,输出第一交叉特征。计算机设备可预先对各候选内容的内容信息进行编码处理,得到内容编码特征,并将各内容编码特征分别输入至第二双塔模型中属于内容侧的网络,输出各第二交叉特征。
其中,计算机设备在对对象信息进行编码处理,以及对内容信息进行编码处理的编码方式具体可以是独热编码、二值化编码、词嵌入编码等方式,本申请实施例对此不作限定。
在一些实施例中,计算机设备可将第一增广向量或第一交叉特征中的至少一种,作为第一交互特征。相应地,计算机设备可将第二增广向量或第二交叉特征中的至少一种,作为第二交互特征。
上述实施例中,通过预先训练的方式从具有交互关系的样本对中挖掘出可以拟合对侧塔的正交互信息的增广向量,或者,根据具有交互关系的样本对来训练第二双塔模型,使得第二双塔模型能够输出对侧塔的交互特征,进而,以上述方式来获得第一交互特征和第二交互特征并在内容召回时使用,使得在进行内容召回时,可以充分利用交互信息,提高相似度计算时的向量表示,从而可大大提高内容匹配和内容推荐的能力。
步骤206,基于对象原始特征和第一交互特征,构建对象综合特征。
具体地,计算机设备可融合对象原始特征和第一交互特征,得到对象综合特征。其中,具体的融合方式,可以是特征拼接、神经网络融合、或者特征叠加等方式,本申请实施例对此不作限定。
步骤208,获取各候选内容的内容综合特征,内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到。
在一些实施例中,计算机设备可预先获取多个候选内容,并基于各候选内容的内容信息进行特征提取,得到各候选内容各自的内容原始特征。计算机设备可获取第二增广向量或第二交叉特征中的至少一种,作为第二交互特征。进而融合内容原始特征和第二交互特征,得到内容综合特征。其中,融合的方式具体可以是特征拼接、神经网络融合、或者特征叠加等方式,本申请实施例对此不作限定。进而,计算机设备可将各候选内容的内容综合特征存储至存储介质中,在需要时再读取使用,这样可大大提高内容匹配的效率。示例性地,计算机设备可离线将所有的内容综合特征保存在FAISS(相似向量检索库)中。在另一些实施例中,计算机设备在需要进行内容匹配的过程中,也可即时对各候选内容的内容信息进行特征提取,得到各候选内容各自的内容原始特征。在需要获取第二交叉特征时,也可即时通过第二双塔模型对各候选内容的内容信息进行特征提取得到。这样,在需要进行内容匹配时,也可以即时构建各候选内容的内容综合特征。
步骤210,根据对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
其中,符合匹配条件具体可以是相似程度大于预设阈值,或者按照相似程度的大小进行排名时排名靠前的前K名,其中,K为大于1的正整数。
具体地,计算机设备可计算该对象综合特征,分别与各个内容综合特征间的相似度,进而基于相似度从多个候选内容中选取相似度最高的K个候选内容作为目标内容召回。或者,计算机设备可选择相似度大于预设阈值的候选内容,作为目标内容召回。
在一些实施例中,对象综合特征与内容综合特征间的相似度,可采用余弦相似度、欧式距离、曼哈顿距离、或皮尔逊相关系数等来表示,本申请实施例对此不作限定。
请参考图4,图4为一个实施例中目标内容召回的原理图,如图4所示,计算机设备可基于目标对象的对象原始特征和第一交互特征融合得到对象综合特征。并且还会基于每个候选内容的内容原始特征与第二交互特征融合得到内容综合特征,比如图4中的内容综合特征1、内容综合特征2......内容综合特征n。进而,计算机设备可计算该对象综合特征分别与每个内容综合特征之间的相似度,基于相似度召回K个目标内容。
上述内容匹配方法中,获取目标对象的对象原始特征,还获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,该第一交互特征反映了对象侧与内容侧的交互情况,这些交互情况隐含了具有交互关系的对象与内容之间的交互信息。进而再基于对象原始特征和第一交互特征,构建对象综合特征。该对象综合特征既能反映该目标对象的个性化特征,又能体现不同对象与不同内容间的交互信息,所含有的信息量非常丰富。同样地,对于每个候选内容而言,也构建对应的内容综合特征,进而再基于对象综合特征与各内容综合特征间的相似程度,来召回目标内容,就可以利用多个维度的信息,准确地从大量的候选内容中召回与目标对象相匹配的目标内容。
承前所述,本申请的内容匹配方法中的第一交互特征中可包括有第一增广向量,第二交互特征中可包括有第二增广向量,而第一增广向量和第二增广向量是预先在训练第一双塔模型的过程中训练得到的。下面再详细阐述第一增广向量和第二增广向量的具体获取方式:
在一些实施例中,如图5所示,第一增广向量和第二增广向量的获取方式包括:
步骤502,获取当次训练的第一样本对的样本对象编码特征和样本内容编码特征。
需要说明的是,第一增广向量和第二增广向量是在训练第一双塔模型的过程中训练得到的,而针对第一双塔模型的训练,会涉及到多次迭代训练,每次迭代训练都可通过一个批次的第一样本对来进行训练。对于多次迭代训练中的当次训练,计算机设备可获取当前批次的第一样本对的样本对象编码特征和样本内容编码特征。
在一些实施例中,计算机设备可对第一样本对中的样本对象的对象信息进行编码处理,得到样本对象编码特征,对第一样本对中的样本内容的内容信息进行编码处理,得到样本内容编码特征。编码处理的方式具体可以是独热编码、二值化编码、词嵌入编码等方式,本申请实施例对此不作限定。
步骤504,获取前次训练得到的中间第一增广向量和中间第二增广向量。
其中,中间第一增广向量是训练阶段不断调整的第一增广参数的值,中间第二增广向量是训练阶段不断调整的第二增广参数的值。
步骤506,融合样本对象编码特征和中间第一增广向量,得到第一融合向量,融合样本内容编码特征和中间第二增广向量,得到第二融合向量。
具体地,计算机设备可融合样本对象编码特征和中间第一增广向量,得到第一融合向量,融合样本内容编码特征和中间第二增广向量,得到第二融合向量。其中,具体的融合方式,可以是特征拼接、神经网络融合、或者特征叠加等方式,本申请实施例对此不作限定。
在其中一个实施例中,计算机设备可拼接样本对象编码特征和中间第一增广向量,得到第一融合向量,拼接样本内容编码特征和中间第二增广向量,得到第二融合向量。
步骤508,将第一融合向量输入至第一双塔模型中属于对象侧的网络,输出第一增强向量,将第二融合向量输入至第一双塔模型中属于内容侧的网络,输出第二增强向量。
具体地,计算机设备可将第一融合向量输入至第一双塔模型中属于对象侧的网络,通过属于对象侧的网络进行处理,输出第一增强向量。
在一些实施例中,将第一融合向量输入至第一双塔模型中属于对象侧的网络,输出第一增强向量,包括:将第一融合向量输入至第一双塔模型中属于对象侧的多层神经网络,通过属于对象侧的多层神经网络对第一融合向量进行激活处理,得到第一输出向量;对第一输出向量进行归一化处理,得到第一增强向量。
具体地,第一双塔模型中属于对象侧的网络为多层神经网络,可通过该多层神经网络对第一融合向量进行激活处理后再进行归一化处理,得到第一增强向量。其中,激活函数具体可以是ReLU函数。这样,能通过多层神经网络对第一融合向量进行处理,再归一化之后输出对侧所需要的向量。
在一些实施例中,计算机设备可通过属于对象侧的多层神经网络中的第一层神经网络对第一融合向量进行激活处理,得到第一层神经网络的输出;从多层神经网络的第二层神经网络开始,均基于前一层神经网络的输出进行激活处理,得到当前层神经网络的输出,直至最后一层神经网络输出第一输出向量。
在其中一个实施例中,第一双塔模型中属于对象侧的网络可通过以下公式实现对第一融合向量的处理:
ha1=ReLU(Wa1Zu+ka1)
hal=ReLU(Walha(l-1)+kal)
pa=NormL2(haL)
其中,Zu表示第一融合向量,pa表示归一化之后输出的对侧需要的第一增强向量,Wa1-Wal表示权重矩阵,ka1-kal表示偏置,其中,Wa1-Wal、以及ka1-kal是第一双塔模型中对象侧网络的网络参数,其中,l指代多层神经网络的第l层,L表示多层神经网络中的最后一层神经网络。
上述实施例中,通过多层神经网络逐层迭代对第一融合向量处理,并且后一层神经网络会基于前一层神经网络的输出进行处理,可以充分利用每层神经网络处理的信息,大大提高了第一增强向量的表征。
相应地,计算机设备可将第二融合向量输入至第一双塔模型中属于内容侧的网络,通过属于内容侧的网络进行处理,输出第二增强向量。
在一些实施例中,将第二融合向量输入至第一双塔模型中属于内容侧的网络,输出第二增强向量,包括:将第二融合向量输入至第一双塔模型中属于内容侧的多层神经网络,通过属于内容侧的多层神经网络对第二融合向量进行激活处理,得到第二输出向量;对第二输出向量进行归一化处理,得到第二增强向量。
具体地,第一双塔模型中属于内容侧的网络为多层神经网络,可通过该多层神经网络对第二融合向量进行激活处理后再进行归一化处理,得到第二增强向量。其中,激活函数具体可以是ReLU函数。这样,能通过多层神经网络对第二融合向量进行处理,再归一化之后输出对侧所需要的向量。
需要说明的是,第一双塔模型中属于对象侧的网络与属于内容侧的网络的网络结构相同,但网络参数不同。
在一些实施例中,计算机设备可通过属于内容侧的多层神经网络中的第一层神经网络对第二融合向量进行激活处理,得到第一层神经网络的输出;从多层神经网络的第二层神经网络开始,均基于前一层神经网络的输出进行激活处理,得到当前层神经网络的输出,直至最后一层神经网络输出第二输出向量。
在其中一个实施例中,第一双塔模型中属于内容侧的网络可通过以下公式实现对第二融合向量的处理:
hb1=ReLU(Wb1Zv+kb1)
hbl=ReLU(Wblhb(l-1)+kbl)
pb=NormL2(hbL)
其中,Zv表示第一融合向量,pb表示归一化之后输出的对侧需要的第二增强向量,Wb1-Wbl表示权重矩阵,kb1-kbl表示偏置,其中,Wb1-Wbl、以及kb1-kbl是第一双塔模型中内容侧网络的网络参数。其中,l指代多层神经网络的第l层,L表示多层神经网络中的最后一层神经网络。
上述实施例中,通过多层神经网络逐层迭代对第二融合向量处理,并且后一层神经网络会基于前一层神经网络的输出进行处理,可以充分利用每层神经网络处理的信息,大大提高了第二增强向量的表征。
步骤510,基于中间第一增广向量与第二增强向量间的差异,确定对象增广损失,基于中间第二增广向量与第一增强向量间的差异,确定内容增广损失。
其中,中间第一增广向量与第二增强向量间的差异,具体可以是中间第一增广向量与第二增强向量间的差值、商值或者是对比值等,本申请实施例对此不作限定。中间第二增广向量与第一增强向量间的差异,具体可以是中间第二增广向量与第一增强向量间的差值、商值或者是对比值等,本申请实施例对此不作限定。
需要说明的是,在通过不具有交互关系的第一样本对训练第一双塔模型时,计算机设备可控制对应的对象增广损失和内容增广损失为零;在通过具有交互关系的第一样本对训练第一双塔模型时,基于中间第一增广向量与第二增强向量间的差异,确定对象增广损失,基于中间第二增广向量与第一增强向量间的差异,确定内容增广损失。
具体地,计算机设备可基于以下公式构建对象增广损失:
基于以下公式构建内容增广损失:
其中,T是训练数据集中的第一样本对,y∈{0,1}是标签,当y标签为1时,第一增广向量au会和第二增强向量pv接近,第二增广向量av会和第一增强向量pu接近;当y标签为0时,loss的值会等于0。
步骤512,根据对象增广损失和内容增广损失,构建第一损失函数。
具体地,计算机设备可将对象增广损失和内容增广损失进行加权求和处理,以得到第一损失函数。
步骤514,基于第一损失函数调整训练参数,训练参数包括第一双塔模型的模型参数、中间第一增广向量和中间第二增广向量。
具体地,计算机设备可朝最小化第一损失函数的方向,调整第一双塔模型的模型参数、中间第一增广向量和中间第二增广向量。
在一些实施例中,对象增广损失主要用于指导中间第一增广向量的调整,内容增广损失主要用于指导中间第二增广向量的调整。
步骤516,基于调整后的训练参数进入下一次迭代训练并不断执行多次迭代训练,直至达到第一训练停止条件时停止,得到第一增广向量和第二增广向量。
需要说明的是,当次训练得到的模型参数、以及输出的中间第一增广向量和中间第二增广向量,会作为下次训练的基础,也就是下次训练会在当前训练所得到的训练参数的基础上再次进行调整。这样不断地迭代训练,直至达到第一训练停止条件时停止,得到训练完成的第一双塔模型、第一增广向量和第二增广向量。
其中,第一训练停止条件具体可以是达到预设迭代次数、达到预设迭代时间、或者第一损失函数的变化值小于预设值等,本申请实施例对此不作限定。
上述实施例中,通过自适应模拟机制来估计第一增广向量和第二增广向量,该自适应机制即通过设计上述的第一损失函数来实现,第一损失函数的目标是使用增广向量来拟合属于另一个塔中的所有正交互,使得一座塔的增广向量由另一座塔产生,这样就能从大量的第一样本对中挖掘出对象侧与内容侧的交互信息,便于后续在匹配时使用。
在一些场景中,样本内容的类别是多样的(例如:游戏、旅游、或美食等),每个类别中的样本内容的数量可能会存在严重不均衡的情况。在类别数据不平衡的情况下,第一双塔模型在不同类别中的表现可能会不同,在数量相对较少的类别中表现会相对比较差。针对这种情况,本申请在设计第一损失函数时,还增加了第一类别损失,该第一类别损失具有样本类别对齐的功能,这样,就能使得第一双塔模型在训练过程中可以将从数据量大的类别中学习到的知识转移到其他类别。
基于此,在一些实施例中,该方法还包括第一类别损失的确定步骤,该步骤包括:确定当次训练中的第一样本对中各样本内容分别所属的内容类别;从内容类别中确定具有最多样本内容数量的主内容类别、以及除主内容类别之外的非主内容类别;基于主内容类别对应的第二增强向量构建第一协方差矩阵,基于各非主内容类别对应的第二增强向量构建各第二协方差矩阵;根据第一协方差矩阵与各第二协方差矩阵的差异,确定第一类别损失。进一步地,步骤512具体包括:根据对象增广损失、内容增广损失和第一类别损失,确定第一损失函数。
具体地,计算机设备可确定当次训练批次所使用到的第一样本对中各样本内容分别所属的内容类别,进而统计每个内容类别下的样本内容数量,将样本内容数量最多的内容类别作为主内容类别。内容类别中除该主内容类别之外的其他内容类别作为非主内容类别。
进而,计算机设备可获取当次训练过程中该主内容类别下的各样本内容所对应的第二增强向量,基于主内容类别下的各样本内容所对应的第二增强向量构建得到第一协方差矩阵。计算机设备可对每个非主内容类别下的各样本内容所对应的第二增强向量,基于各非主内容类别下的各样本内容所对应的第二增强向量,构建与各非主内容类别分别对应的第二协方差矩阵。进而计算第一协方差矩阵与每个第二协方差矩阵之间的差异,从而根据第一协方差矩阵与每个第二协方差矩阵之间的差异,确定第一类别损失。
在其中一个实施例中,计算机设备可通过以下公式构建第一类别损失:
其中,n为类别个数,i为第任一个非主内容类别,C(·)为协方差矩阵,为Frobenius范数(F-范数)。
进一步地,计算机设备可将该第一类别损失融合进行模型训练过程中,也就是根据对象增广损失、内容增广损失和第一类别损失,确定第一损失函数。
在其中一个实施例中,计算机设备可对对象增广损失、内容增广损失和第一类别损失进行加权求和处理,得到第一损失函数。其中,加权求和的系数可以是预先设定好的系数,本申请实施例对此不作限定。
上述实施例中,通过在第一损失函数中融合进第一类别损失,可以降低类别间的差异,提高对不同类别内容预测的精准程度。
接下来再详细阐述第二双塔模型的训练过程,在一些实施例中,参考图6,第二双塔模型的训练步骤包括:
步骤602,通过精排模型对各第二样本对的全量数据进行处理,输出与各第二样本对分别对应的参考交叉特征。
其中,精排模型是预先训练得到的神经网络模型,具体可以是DIN(Deep InterestNetwork)模型。计算机设备可将各第二样本对所涉及到全量数据输入至精排模型,通过该精排模型对第二样本对的全量数据进行线性或非线性处理,得到输出特征,该输出特征可以作为参考交叉特征。其中,第二样本对的全量数据包括第二样本对象的对象信息和第二样本内容的内容信息、以及第二样本对象与第二样本内容间的交互信息。
步骤604,将各第二样本对的样本对象编码特征和样本内容编码特征,分别输入至待训练的第二双塔模型,输出第一预测特征和第二预测特征。
具体地,计算机设备可将第二样本对的样本对象编码特征输入至待训练的第二双塔模型中属于对象侧的网络进行特征处理,输出第一预测特征;计算机设备将第二样本对的样本内容编码特征,输入至待训练的第二双塔模型中属于内容侧的网络进行特征处理,输出第二预测特征。
在其中一个实施例中,计算机设备可对第二样本对中的样本对象的对象信息进行编码处理,得到样本对象编码特征,对第二样本对中的样本内容的内容信息进行编码处理,得到样本内容编码特征。编码处理具体可以是独热编码、二值化编码、词嵌入编码等方式,本申请实施例对此不作限定。
步骤606,融合第一预测特征和第二预测特征得到预测融合特征,基于预测融合特征与参考交叉特征间的差异,构建第二损失函数。
在一些实施例中,计算机设备可融合第一预测特征和第二预测特征得到预测融合特征。其中,具体的融合方式,可以是特征拼接、神经网络融合、或者特征叠加等方式,本申请实施例对此不作限定。示例性地,计算机设备可拼接第一预测特征和第二预测特征得到预测融合特征。
进一步地,计算机设备可基于预测融合特征与参考交叉特征间的差异,构建第二损失函数。
步骤608,基于第二损失函数对待训练的第二双塔模型进行模型迭代训练,直至达到第二训练停止条件时停止,得到训练完成的第二双塔模型。
具体地,计算机设备可朝最小化第二损失函数的方向,调整第二双塔模型的模型参数。当次训练得到的模型参数会作为下次训练的基础,也就是下次训练会在当前训练所得到的模型参数的基础上再次进行调整。这样不断地迭代训练,直至达到第二训练停止条件时停止,得到训练完成的第二双塔模型。
其中,第二训练停止条件具体可以是达到预设迭代次数、达到预设迭代时间、或者第二损失函数的变化值小于预设值等,本申请实施例对此不作限定。
上述实施例中,通过蒸馏学习向精排模型学习交叉特征,使得训练完成的第二双塔模型可以输出偏向于交叉特征的特征,进而可在进行对象和内容匹配时,提供更多维度的信息,大大提高了匹配的准确性。
同样地,在一些场景中,样本内容的类别是多样的,每个类别中的样本内容的数量可能会存在严重不均衡的情况。在类别数据不平衡的情况下,第二双塔模型在不同类别中的表现可能会不同,在数量相对较少的类别中表现会相对比较差。针对这种情况,本申请在设计第二损失函数时,还增加了第二类别损失,该第二类别损失具有样本类别对齐的功能,这样,就能使得第二双塔模型在训练过程中可以将从数据量大的类别中学习到的知识转移到其他类别。
基于此,在一些实施例中,参考图7,基于预测融合特征与参考交叉特征间的差异,构建第二损失函数,包括:
步骤702,基于预测融合特征与相对应的参考交叉特征间的差异,确定蒸馏损失。
具体地,计算机设备可通过以下公式确定蒸馏损失:
其中,N为每个训练批次的样本对的数量大小,y为预测融合特征,a为精排模型输出的参考交叉特征,。这么迭代下来会让他们之间的距离越来越接近。
步骤704,确定当次训练中的第二样本对中各样本内容分别所属的内容类别。
步骤706,从内容类别中确定具有最多样本内容数量的主内容类别、以及除主内容类别之外的非主内容类别。
具体地,计算机设备可确定当次训练批次所使用到的第二样本对中各样本内容分别所属的内容类别,进而统计每个内容类别下的样本内容数量,将样本内容数量最多的内容类别作为主内容类别。内容类别中除该主内容类别之外的其他内容类别作为非主内容类别。
步骤708,基于主内容类别所对应的第二预测向量构建第三协方差矩阵,基于各非主内容类别对应的第二预测向量构建各第四协方差矩阵。
具体地,计算机设备可获取当次训练过程中该主内容类别下的各样本内容所对应的第二预测向量,进而基于该主内容类别下的各样本内容所对应的第二预测向量,构建得到第三协方差矩阵。计算机设备可获取每个非主内容类别下的各样本内容所对应的第二预测向量,进而基于各非主内容类别下的各样本内容所对应的第二预测向量,构建与各非主内容类别分别对应的第四协方差矩阵。
步骤710,根据第三协方差矩阵与各第四协方差矩阵的差异,确定第二类别损失。
具体地,计算机设备可通过以下公式确定第二类别损失:
其中,n为类别个数,i为第任一个非主内容类别,C(·)为协方差矩阵,为Frobenius范数(F-范数)。
步骤712,基于蒸馏损失和第二类别损失,确定第二损失函数。
在其中一个实施例中,计算机设备可对蒸馏损失和第二类别损失进行加权求和处理,得到第二损失函数。其中,加权求和的系数可以是预先设定好的系数,本申请实施例对此不作限定。
上述实施例中,在第二损失函数中融合进第二类别损失,可以降低类别间的差异,提高对不同类别内容预测的精准程度。
在一些实施例中,根据对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容,包括:计算对象综合特征分别与各内容综合特征间的相似度;对各相似度按照从大至小进行排序,并获取排序序号小于预设序号的相似度所对应的内容综合特征;将获取的内容综合特征各自所对应的候选内容,作为目标内容。
具体地,计算机设备在筛选符合匹配条件的目标内容时,可计算对象综合特征分别与各内容综合特征间的相似度,对各相似度按照从大至小进行排序,并获取排序序号小于预设序号的相似度所对应的内容综合特征,将获取的内容综合特征各自所对应的候选内容,作为目标内容。
上述实施例中,可从大量的候选内容中准确且快速地召回与目标对象相匹配的目标内容。
在一些实施例中,该方法还包括内容推荐的步骤,该步骤具体包括:基于目标对象的对象信息、以及各目标内容的内容信息,计算目标对象针对目标内容的预测点击率;基于各目标内容各自对应的预测点击率,从目标内容中筛选出符合推荐条件的推荐内容;在目标对象允许推荐的情况下,向目标对象所对应的终端推送推荐内容。
具体地,计算机设备可将目标对象的对象信息、以及各目标内容的内容信息,输入至点击率预测模型,通过该点击率预测模型预测目标对象针对目标内容的预测点击率。其中,该点击率预测模型可预先通过训练数据训练得到,该训练数据可以包括不同对象的对象信息,以及各对象点击过的内容的内容信息,和各对象未点击过的内容的内容信息。
进而,计算机设备可基于各目标内容各自对应的预测点击率,从目标内容中筛选出符合推荐条件的推荐内容。其中,符合推荐条件具体可以是预测点击率大于预设点击率阈值,或者,将各预测点击率按从大至小排序后,排序名次在预设名次之前。进而在目标对象允许推荐的情况下,计算机设备可向目标对象所对应的终端推送推荐内容。
上述实施例中,在召回了目标内容后,可预测目标对象针对每个目标内容的预测点击率,进而根据预测点击率向目标对象推荐推荐内容,可大大提高推荐内容的转化情况。
在一个具体实施例中,该内容匹配方法包括以下步骤:
计算机设备可预先通过第一样本对对第一双塔模型进行训练,训练完成后获得第一增广向量和第二增广向量。
其中,第一双塔模型的训练过程包括:获取当次训练的第一样本对的样本对象编码特征和样本内容编码特征,获取前次迭代训练得到的中间第一增广向量和中间第二增广向量,融合样本对象编码特征和中间第一增广向量,得到第一融合向量,融合样本内容编码特征和中间第二增广向量,得到第二融合向量。将第一融合向量输入至第一双塔模型中属于对象侧的多层神经网络,通过属于对象侧的多层神经网络中的第一层神经网络对第一融合向量进行激活处理,得到第一层神经网络的输出;从多层神经网络的第二层神经网络开始,均基于前一层神经网络的输出进行激活处理,得到当前层神经网络的输出,直至最后一层神经网络输出第一输出向量,对第一输出向量进行归一化处理,得到第一增强向量。将第二融合向量输入至第一双塔模型中属于内容侧的多层神经网络,通过属于内容侧的多层神经网络中的第一层神经网络对第二融合向量进行激活处理,得到第一层神经网络的输出;从多层神经网络的第二层神经网络开始,均基于前一层神经网络的输出进行激活处理,得到当前层神经网络的输出,直至最后一层神经网络输出第二输出向量,对第二输出向量进行归一化处理,得到第二增强向量。基于中间第一增广向量与第二增强向量间的差异,确定对象增广损失,基于中间第二增广向量与第一增强向量间的差异,确定内容增广损失。确定当次训练中的第一样本对中各样本内容分别所属的内容类别;从内容类别中确定具有最多样本内容数量的主内容类别、以及除主内容类别之外的非主内容类别;基于主内容类别对应的第二增强向量构建第一协方差矩阵,基于各非主内容类别对应的第二增强向量构建各第二协方差矩阵;根据第一协方差矩阵与各第二协方差矩阵的差异,确定第一类别损失。根据对象增广损失、内容增广损失和第一类别损失,确定第一损失函数;基于第一损失函数调整训练参数,训练参数包括第一双塔模型的模型参数、中间第一增广向量和中间第二增广向量;基于调整后的训练参数进入下一次迭代训练并不断执行多次迭代训练,直至达到第一训练停止条件时停止,得到第一增广向量和第二增广向量。
计算机设备可预先通过第二样本对对第二双塔模型进行训练,得到训练好的第二双塔模型,其中,训练过程如下:通过精排模型对各第二样本对的全量数据进行处理,输出与各第二样本对分别对应的参考交叉特征;将各第二样本对的样本对象编码特征和样本内容编码特征,分别输入至待训练的第二双塔模型,输出第一预测特征和第二预测特征;融合第一预测特征和第二预测特征得到预测融合特征,基于预测融合特征与相对应的参考交叉特征间的差异,确定蒸馏损失;确定当次训练中的第二样本对中各样本内容分别所属的内容类别;从内容类别中确定具有最多样本内容数量的主内容类别、以及除主内容类别之外的非主内容类别;基于主内容类别所对应的第二预测向量构建第三协方差矩阵,基于各非主内容类别对应的第二预测向量构建各第四协方差矩阵;根据第三协方差矩阵与各第四协方差矩阵的差异,确定第二类别损失;基于蒸馏损失和第二类别损失,确定第二损失函数;基于第二损失函数对待训练的第二双塔模型进行模型迭代训练,直至达到第二训练停止条件时停止,得到训练完成的第二双塔模型。
接下来,计算机设备可确定内容库中各候选内容,对于每个候选内容,均可通过训练完成的第二双塔模型中属于内容侧的网络,对候选内容的内容信息进行处理,得到与各候选内容分别对应的第二交叉特征。
计算机设备可通过常规的双塔模型中属于对象侧的网络对各候选内容的内容信息进行处理,得到与各候选内容分别对应的内容原始特征。进而,对于每个候选内容,拼接该候选内容所对应的内容原始特征、第二交叉特征、以及第二增广向量,得到内容综合特征。计算机设备可将各个候选内容对应的内容综合特征进行存储。
在需要进行内容匹配召回时,计算机设备可获取目标对象的对象原始特征,通过训练完成的第二双塔模型中属于对象侧的网络,对目标对象的对象信息进行处理,得到第一交叉特征。拼接对象原始特征、第一交叉特征和第一增广向量,得到对象综合特征。
计算机设备可计算对象综合特征分别与各内容综合特征间的相似度;对各相似度按照从大至小进行排序,并获取排序序号小于预设序号的相似度所对应的内容综合特征;将获取的内容综合特征各自所对应的候选内容,作为目标内容。
计算机设备基于目标对象的对象信息、以及各目标内容的内容信息,计算目标对象针对目标内容的预测点击率;基于各目标内容各自对应的预测点击率,从目标内容中筛选出符合推荐条件的推荐内容;在目标对象允许推荐的情况下,向目标对象所对应的终端推送推荐内容。
上述内容匹配方法,解决了传统双塔中无法使用交叉信息的问题,采用向量增强机制来为每个user和item输入向量进行扩充。对于每一个带有正标签的样本,设第一损失函数使得与之进行交互的user/item能够通过向量增强来实现两座塔之间的信息交互,增强了推荐的效果。同时利用知识蒸馏的方式,使得通过第二损失函数学习到精排模型中两座塔交互的信息,使得交互性更加紧密,提高相似度计算时的向量表示,从而提高推荐能力。并且,在第一损失函数和第二损失函数中,都融入了类别损失,在训练阶段引入了类别样本对齐机制,对来自不同类别的样本数量进行对齐,以解决类别分布不平衡时所产生的推荐不准确的问题。
在一种可能的应用场景中,该候选内容具体可以是视频、图像、音频、或推广信息等,还可以是视频号或直播账号等。其中,视频可以是长视频或短视频不限定,长视频是指视频时长大于预设时长的视频,短视频是指视频时长小于预设时长的视频。
下面以候选内容为视频为例并结合图8来进行说明,设训练完成的第二双塔模型为T1模型,常规的双塔模型为T2模型,可通过T2模型的user侧网络对目标对象的对象信息进行处理,输出对象原始特征,通过T1模型的user侧网络对目标对象的对象信息进行处理,输出第一交叉特征。获取预先训练好的第一增广向量,拼接对象原始特征、第一交叉特征和和第一增广向量,得到对象综合特征。
对于视频库中每个候选视频,将每个候选视频所对应的视频信息输入T2模型的item侧网络进行处理,输出内容原始特征,将每个候选视频所对应的视频信息输入T1模型的item侧网络进行处理,输出第二交叉特征。获取预先训练好的第二增广向量,拼接内容原始特征、第二交叉特征和和第二增广向量,得到内容综合特征。其中,视频信息具体可以是视频帧、视频标题、视频描述信息、视频剧情介绍、或与该视频相关的演员的演员信息等,本申请实施例对此不作限定。
进而,计算机设备将对象综合特征与每个内容综合特征分别进行相似度计算,基于相似度计算结果从多个候选视频中筛选出目标视频召回。
在一些其他的场景中,该候选内容还可以是推广信息、音频、或图像等。当候选内容为音频时,相应的音频信息具体可以是音频标题、音频描述信息;当候选内容为图像时,相应地图像信息具体可以是图像描述信息、图像主题、该图像所属的类别、或图像中的物体等。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的内容匹配方法的内容匹配装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个内容匹配装置实施例中的具体限定可以参见上文中对于内容匹配方法的限定,在此不再赘述。
在一个实施例中,如图9所示,提供了一种内容匹配装置900,包括:获取模块901、构建模块902和筛选模块903,其中:
获取模块901,用于获取目标对象的对象原始特征。
获取模块901,还用于获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,第一交互特征反映了对象侧与内容侧的交互情况。
构建模块902,用于基于对象原始特征和第一交互特征,构建对象综合特征。
获取模块901,还用于获取各候选内容的内容综合特征,内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到。
筛选模块903,用于根据对象综合特征与各内容综合特征间的相似程度,从多个候选内容中确定符合匹配条件的目标内容。
在其中一个实施例中,第一交互特征包括第一增广向量和第一交叉特征,获取模块901,具体用于获取第一增广向量,第一增广向量为通过第一样本对在训练第一双塔模型的过程中训练得到的、且用于拟合属于内容侧的正交互信息的向量,其中,第一样本对中包括有具有交互关系的样本对;获取训练完成的第二双塔模型,第二双塔模型通过第二样本对、以及与第二样本对对应的参考交叉特征训练得到,其中,第二样本对中包括具有交互关系的样本对;通过训练完成的第二双塔模型中属于对象侧的网络,对目标对象的对象信息进行处理,得到第一交叉特征。
在其中一个实施例中,第二交互特征包括第二增广向量和第二交叉特征,获取模块901,具体用于获取第二增广向量,第二增广向量为通过第一样本对在训练第一双塔模型的过程中训练得到的、且用于拟合属于对象侧的正交互信息的向量;通过训练完成的第二双塔模型中属于内容侧的网络,分别对各候选内容的内容信息进行处理,得到与各候选内容分别对应的第二交叉特征。
在其中一个实施例中,该装置还包括第一训练模块,用于获取当次训练的第一样本对的样本对象编码特征和样本内容编码特征;获取前次训练得到的中间第一增广向量和中间第二增广向量;融合样本对象编码特征和中间第一增广向量,得到第一融合向量,融合样本内容编码特征和中间第二增广向量,得到第二融合向量;将第一融合向量输入至第一双塔模型中属于对象侧的网络,输出第一增强向量,将第二融合向量输入至第一双塔模型中属于内容侧的网络,输出第二增强向量;基于中间第一增广向量与第二增强向量间的差异,确定对象增广损失,基于中间第二增广向量与第一增强向量间的差异,确定内容增广损失;根据对象增广损失和内容增广损失,构建第一损失函数;基于第一损失函数调整训练参数,训练参数包括第一双塔模型的模型参数、中间第一增广向量和中间第二增广向量;基于调整后的训练参数进入下一次迭代训练并不断执行多次迭代训练,直至达到第一训练停止条件时停止,得到第一增广向量和第二增广向量。
在其中一个实施例中,第一训练模块,还用于将第一融合向量输入至第一双塔模型中属于对象侧的多层神经网络,通过属于对象侧的多层神经网络对第一融合向量进行激活处理,得到第一输出向量;对第一输出向量进行归一化处理,得到第一增强向量。
在其中一个实施例中,第一训练模块,还用于通过属于对象侧的多层神经网络中的第一层神经网络对第一融合向量进行激活处理,得到第一层神经网络的输出;从多层神经网络的第二层神经网络开始,均基于前一层神经网络的输出进行激活处理,得到当前层神经网络的输出,直至最后一层神经网络输出第一输出向量。
在其中一个实施例中,第一训练模块,还用于将第二融合向量输入至第一双塔模型中属于内容侧的多层神经网络,通过属于内容侧的多层神经网络对第二融合向量进行激活处理,得到第二输出向量;对第二输出向量进行归一化处理,得到第二增强向量。
在其中一个实施例中,该第一训练模块,还用于确定当次训练中的第一样本对中各样本内容分别所属的内容类别;从内容类别中确定具有最多样本内容数量的主内容类别、以及除主内容类别之外的非主内容类别;基于主内容类别对应的第二增强向量构建第一协方差矩阵,基于各非主内容类别对应的第二增强向量构建各第二协方差矩阵;根据第一协方差矩阵与各第二协方差矩阵的差异,确定第一类别损失。根据对象增广损失、内容增广损失和第一类别损失,确定第一损失函数。
在其中一个实施例中,该装置还包括第二训练模块,用于通过精排模型对各第二样本对的全量数据进行处理,输出与各第二样本对分别对应的参考交叉特征;将各第二样本对的样本对象编码特征和样本内容编码特征,分别输入至待训练的第二双塔模型,输出第一预测特征和第二预测特征;融合第一预测特征和第二预测特征得到预测融合特征,基于预测融合特征与参考交叉特征间的差异,构建第二损失函数;基于第二损失函数对待训练的第二双塔模型进行模型迭代训练,直至达到第二训练停止条件时停止,得到训练完成的第二双塔模型。
在其中一个实施例中,该第二训练模块,还用于基于预测融合特征与相对应的参考交叉特征间的差异,确定蒸馏损失;确定当次训练中的第二样本对中各样本内容分别所属的内容类别;从内容类别中确定具有最多样本内容数量的主内容类别、以及除主内容类别之外的非主内容类别;基于主内容类别所对应的第二预测向量构建第三协方差矩阵,基于各非主内容类别对应的第二预测向量构建各第四协方差矩阵;根据第三协方差矩阵与各第四协方差矩阵的差异,确定第二类别损失;基于蒸馏损失和第二类别损失,确定第二损失函数。
在其中一个实施例中,筛选模块903,具体用于计算对象综合特征分别与各内容综合特征间的相似度;对各相似度按照从大至小进行排序,并获取排序序号小于预设序号的相似度所对应的内容综合特征;将获取的内容综合特征各自所对应的候选内容,作为目标内容。
在其中一个实施例中,该装置还包括推荐模块,用于基于目标对象的对象信息、以及各目标内容的内容信息,计算目标对象针对目标内容的预测点击率;基于各目标内容各自对应的预测点击率,从目标内容中筛选出符合推荐条件的推荐内容;在目标对象允许推荐的情况下,向目标对象所对应的终端推送推荐内容。
上述内容匹配装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括处理器、存储器、输入/输出接口(Input/Output,简称I/O)和通信接口。其中,处理器、存储器和输入/输出接口通过系统总线连接,通信接口通过输入/输出接口连接到系统总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质和内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储候选内容。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种内容匹配方法。
本领域技术人员可以理解,图10中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (16)

1.一种内容匹配方法,其特征在于,所述方法包括:
获取目标对象的对象原始特征;
获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
2.根据权利要求1所述的方法,其特征在于,所述第一交互特征包括第一增广向量和第一交叉特征,所述获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,包括:
获取第一增广向量,所述第一增广向量为通过第一样本对在训练第一双塔模型的过程中训练得到的、且用于拟合属于内容侧的正交互信息的向量,其中,所述第一样本对中包括有具有交互关系的样本对;
获取训练完成的第二双塔模型,所述第二双塔模型通过第二样本对、以及与所述第二样本对对应的参考交叉特征训练得到,其中,所述第二样本对中包括具有交互关系的样本对;
通过所述训练完成的第二双塔模型中属于对象侧的网络,对所述目标对象的对象信息进行处理,得到第一交叉特征。
3.根据权利要求2所述的方法,其特征在于,所述第二交互特征包括第二增广向量和第二交叉特征,所述第二交互特征的获取步骤包括:
获取第二增广向量,所述第二增广向量为通过第一样本对在训练第一双塔模型的过程中训练得到的、且用于拟合属于对象侧的正交互信息的向量;
通过所述训练完成的第二双塔模型中属于内容侧的网络,分别对各候选内容的内容信息进行处理,得到与各候选内容分别对应的第二交叉特征。
4.根据权利要求2所述的方法,其特征在于,所述第一增广向量的获取方式包括:
获取当次训练的第一样本对的样本对象编码特征和样本内容编码特征;
获取前次训练得到的中间第一增广向量和中间第二增广向量;
融合所述样本对象编码特征和所述中间第一增广向量,得到第一融合向量,融合所述样本内容编码特征和所述中间第二增广向量,得到第二融合向量;
将所述第一融合向量输入至第一双塔模型中属于对象侧的网络,输出第一增强向量,将所述第二融合向量输入至第一双塔模型中属于内容侧的网络,输出第二增强向量;
基于所述中间第一增广向量与所述第二增强向量间的差异,确定对象增广损失,基于所述中间第二增广向量与所述第一增强向量间的差异,确定内容增广损失;
根据所述对象增广损失和所述内容增广损失,构建第一损失函数;
基于所述第一损失函数调整训练参数,所述训练参数包括所述第一双塔模型的模型参数、所述中间第一增广向量和所述中间第二增广向量;
基于调整后的训练参数进入下一次迭代训练并不断执行多次迭代训练,直至达到第一训练停止条件时停止,得到第一增广向量和第二增广向量。
5.根据权利要求4所述的方法,其特征在于,所述将所述第一融合向量输入至第一双塔模型中属于对象侧的网络,输出第一增强向量,包括:
将所述第一融合向量输入至第一双塔模型中属于对象侧的多层神经网络,通过属于对象侧的多层神经网络对所述第一融合向量进行激活处理,得到第一输出向量;
对所述第一输出向量进行归一化处理,得到第一增强向量。
6.根据权利要求5所述的方法,其特征在于,所述通过属于对象侧的多层神经网络对所述第一融合向量进行激活处理,得到第一输出向量,包括:
通过属于对象侧的多层神经网络中的第一层神经网络对所述第一融合向量进行激活处理,得到第一层神经网络的输出;
从所述多层神经网络的第二层神经网络开始,均基于前一层神经网络的输出进行激活处理,得到当前层神经网络的输出,直至最后一层神经网络输出第一输出向量。
7.根据权利要求4所述的方法,其特征在于,所述将所述第二融合向量输入至第一双塔模型中属于内容侧的网络,输出第二增强向量,包括:
将所述第二融合向量输入至第一双塔模型中属于内容侧的多层神经网络,通过属于内容侧的多层神经网络对所述第二融合向量进行激活处理,得到第二输出向量;
对所述第二输出向量进行归一化处理,得到第二增强向量。
8.根据权利要求4所述的方法,其特征在于,所述方法还包括:
确定当次训练中的第一样本对中各样本内容分别所属的内容类别;
从所述内容类别中确定具有最多样本内容数量的主内容类别、以及除所述主内容类别之外的非主内容类别;
基于所述主内容类别对应的第二增强向量构建第一协方差矩阵,基于各所述非主内容类别对应的第二增强向量构建各第二协方差矩阵;
根据所述第一协方差矩阵与各第二协方差矩阵的差异,确定第一类别损失;
所述根据所述对象增广损失和所述内容增广损失,构建第一损失函数,包括:
根据所述对象增广损失、所述内容增广损失和所述第一类别损失,确定第一损失函数。
9.根据权利要求2所述的方法,其特征在于,所述第二双塔模型的训练步骤包括:
通过精排模型对各第二样本对的全量数据进行处理,输出与各第二样本对分别对应的参考交叉特征;
将各第二样本对的样本对象编码特征和样本内容编码特征,分别输入至待训练的第二双塔模型,输出第一预测特征和第二预测特征;
融合所述第一预测特征和第二预测特征得到预测融合特征,基于所述预测融合特征与参考交叉特征间的差异,构建第二损失函数;
基于所述第二损失函数对所述待训练的第二双塔模型进行模型迭代训练,直至达到第二训练停止条件时停止,得到训练完成的第二双塔模型。
10.根据权利要求9所述的方法,其特征在于,所述基于所述预测融合特征与参考交叉特征间的差异,构建第二损失函数,包括:
基于所述预测融合特征与相对应的参考交叉特征间的差异,确定蒸馏损失;
确定当次训练中的第二样本对中各样本内容分别所属的内容类别;
从所述内容类别中确定具有最多样本内容数量的主内容类别、以及除所述主内容类别之外的非主内容类别;
基于所述主内容类别所对应的第二预测向量构建第三协方差矩阵,基于各所述非主内容类别对应的第二预测向量构建各第四协方差矩阵;
根据所述第三协方差矩阵与各第四协方差矩阵的差异,确定第二类别损失;
基于所述蒸馏损失和所述第二类别损失,确定第二损失函数。
11.根据权利要求1所述的方法,其特征在于,所述根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容,包括:
计算所述对象综合特征分别与各内容综合特征间的相似度;
对各相似度按照从大至小进行排序,并获取排序序号小于预设序号的相似度所对应的内容综合特征;
将获取的内容综合特征各自所对应的候选内容,作为目标内容。
12.根据权利要求1至11中任一项所述的方法,其特征在于,所述方法还包括:
基于所述目标对象的对象信息、以及各目标内容的内容信息,计算所述目标对象针对所述目标内容的预测点击率;
基于各目标内容各自对应的预测点击率,从所述目标内容中筛选出符合推荐条件的推荐内容;
在所述目标对象允许推荐的情况下,向所述目标对象所对应的终端推送所述推荐内容。
13.一种内容匹配装置,其特征在于,所述装置包括:
获取模块,用于获取目标对象的对象原始特征;
所述获取模块,还用于获取基于具有交互关系的样本对挖掘出的偏向于内容侧的第一交互特征,所述第一交互特征反映了对象侧与内容侧的交互情况;
构建模块,用于基于所述对象原始特征和所述第一交互特征,构建对象综合特征;
所述获取模块,还用于获取各候选内容的内容综合特征,所述内容综合特征基于候选内容的内容原始特征、以及基于具有交互关系的样本对挖掘出的偏向于对象侧的第二交互特征构建得到;
筛选模块,用于根据所述对象综合特征与各内容综合特征间的相似程度,从多个候选内容中筛选出符合匹配条件的目标内容。
14.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至12中任一项所述的方法的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
16.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至12中任一项所述的方法的步骤。
CN202211047081.1A 2022-08-30 2022-08-30 内容匹配方法、装置、计算机设备、存储介质和程序产品 Pending CN117688390A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211047081.1A CN117688390A (zh) 2022-08-30 2022-08-30 内容匹配方法、装置、计算机设备、存储介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211047081.1A CN117688390A (zh) 2022-08-30 2022-08-30 内容匹配方法、装置、计算机设备、存储介质和程序产品

Publications (1)

Publication Number Publication Date
CN117688390A true CN117688390A (zh) 2024-03-12

Family

ID=90130624

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211047081.1A Pending CN117688390A (zh) 2022-08-30 2022-08-30 内容匹配方法、装置、计算机设备、存储介质和程序产品

Country Status (1)

Country Link
CN (1) CN117688390A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118114738A (zh) * 2024-04-29 2024-05-31 腾讯科技(深圳)有限公司 一种模型训练的方法、推荐处理的方法以及相关装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118114738A (zh) * 2024-04-29 2024-05-31 腾讯科技(深圳)有限公司 一种模型训练的方法、推荐处理的方法以及相关装置

Similar Documents

Publication Publication Date Title
WO2021223567A1 (zh) 内容处理方法、装置、计算机设备和存储介质
CN108920720B (zh) 基于深度哈希和gpu加速的大规模图像检索方法
CN110909182B (zh) 多媒体资源搜索方法、装置、计算机设备及存储介质
CN112364204B (zh) 视频搜索方法、装置、计算机设备及存储介质
WO2022199504A1 (zh) 内容识别方法、装置、计算机设备和存储介质
CN112819023B (zh) 样本集的获取方法、装置、计算机设备和存储介质
CN110162701A (zh) 内容推送方法、装置、计算机设备和存储介质
WO2014160282A1 (en) Classifying resources using a deep network
CN111538827A (zh) 基于内容和图神经网络的判例推荐方法、装置及存储介质
CN107545276A (zh) 联合低秩表示和稀疏回归的多视角学习方法
CN112800344B (zh) 一种基于深度神经网络的电影推荐方法
CN115438225B (zh) 视频文本互检方法及其模型训练方法、装置、设备、介质
CN116703531B (zh) 物品数据处理方法、装置、计算机设备和存储介质
CN114417058A (zh) 一种视频素材的筛选方法、装置、计算机设备和存储介质
CN116977701A (zh) 视频分类模型训练的方法、视频分类的方法和装置
CN113239159A (zh) 基于关系推理网络的视频和文本的跨模态检索方法
CN113918764A (zh) 一种基于交叉模态融合的电影推荐系统
CN113220974B (zh) 点击率预测模型训练、搜索召回方法、装置、设备及介质
CN117688390A (zh) 内容匹配方法、装置、计算机设备、存储介质和程序产品
CN111079011A (zh) 一种基于深度学习的信息推荐方法
CN112396091B (zh) 社交媒体图像流行度预测方法、系统、存储介质及应用
CN117251622A (zh) 对象推荐的方法、装置、计算机设备和存储介质
CN110769288A (zh) 一种视频冷启动推荐方法及系统
CN115204301A (zh) 视频文本匹配模型训练、视频文本匹配方法和装置
KR20230148523A (ko) 모달리티의 고유 특성을 보존하는 멀티미디어 추천 방법 및 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination