CN113886695A - 一种资源推荐方法及装置 - Google Patents
一种资源推荐方法及装置 Download PDFInfo
- Publication number
- CN113886695A CN113886695A CN202111165276.1A CN202111165276A CN113886695A CN 113886695 A CN113886695 A CN 113886695A CN 202111165276 A CN202111165276 A CN 202111165276A CN 113886695 A CN113886695 A CN 113886695A
- Authority
- CN
- China
- Prior art keywords
- resource
- historical
- scene
- preference
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 239000013598 vector Substances 0.000 claims abstract description 179
- 238000012545 processing Methods 0.000 claims abstract description 60
- 239000011159 matrix material Substances 0.000 claims description 125
- 230000006399 behavior Effects 0.000 claims description 38
- 238000000605 extraction Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 14
- 230000003993 interaction Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 description 13
- 230000007246 mechanism Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及计算机技术领域,提供一种资源推荐方法及装置,以解决重复推送相同资源,资源推荐准确率低的问题。其中,该方法包括:获取目标对象在当前场景的至少一个候选资源,基于目标对象的跨场景偏好特征向量,分别对至少一个候选资源进行偏好预测处理,获得各自对应的偏好预测值,再将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给目标对象。跨场景偏好特征向量融合了目标对象在不同历史场景下的偏好特征,综合考量每个候选资源与不同历史场景偏爱的资源类型之间的相似性,避免向目标对象重复推送已推荐的资源,有利于曝光新资源,解决冷启动时期推荐难的问题,提高了资源推荐准确率。
Description
技术领域
本申请涉及计算机技术领域,提供了一种资源推荐方法及装置。
背景技术
进入大数据时代之后,相关技术提出了一种基于目标对象的历史资源使用数据的资源推荐方法,从互联网的海量资源中,向目标对象推荐其可能感兴趣的资源。
但是,各个互联网平台在使用上述资源推荐方法的过程中,产生了以下问题:容易向目标对象重复推送已推荐的资源,减少了其他新资源的曝光频次,进而加重信息茧房现象;在冷启动时期,由于目标对象在互联网平台上的历史资源使用数据较少,导致资源推荐准确率低。
而针对冷启动时期的资源推荐问题,相关技术又提出了一种基于相似对象的历史资源使用数据的资源推荐方法,但在使用该资源推荐方法的过程中,需要先基于汉明距离,识别出目标对象的相似对象,但识别精度低,难以准确识别出目标对象的相似对象,导致资源推荐准确率低。
有鉴于此,本申请实施例提供了一种新的资源推荐方法及装置。
发明内容
本申请实施例提供一种资源推荐方法及装置,以解决重复推送相同资源,资源推荐准确率低的问题。
第一方面,本申请实施例提供的一种资源推荐方法,包括:
一种资源推荐方法,包括:
获取目标对象在当前场景的至少一个候选资源;
基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,其中,所述目标对象的跨场景偏好特征向量表征所述目标对象在各个历史场景的偏好特征;
将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象。
可选的,通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
获取所述目标对象在所述各个历史场景各自对应的历史资源使用数据集合,其中,一条历史资源使用数据表征,所述目标对象与一个历史场景的一个历史资源在资源使用过程中的交互行为;
基于跨场景偏好模型与各个历史资源使用数据集合,获得所述目标对象的跨场景偏好特征向量。
可选的,所述跨场景偏好模型包括所述各个历史场景各自对应的场景偏好模型,每个场景偏好模型包括历史资源特征提取子模型、偏好关联度预测子模型;
所述跨场景偏好特征向量是基于所述目标对象在所述各个历史场景各自对应的偏好特征矩阵生成的,其中,通过执行以下操作,得到所述目标对象在所述一个历史场景的偏好特征矩阵:
基于所述历史资源特征提取子模型,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵;
基于所述偏好关联度预测子模型和历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
可选的,所述基于所述历史资源特征提取子模型,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵,包括:
对所述目标对象在所述一个历史场景中所述历史资源使用数据集合进行特征提取处理,获得对应的行为特征矩阵;
根据所述行为特征矩阵,得到所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
可选的,所述根据所述行为特征矩阵,得到所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵,还包括:
对所述历史资源使用数据集合进行位置编码处理,获得对应的位置特征矩阵;
基于所述行为特征矩阵与所述位置特征矩阵,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
可选的,所述基于所述偏好关联度预测子模型和历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵,包括:
基于所述历史资源特征矩阵,获得所述历史资源使用数据集合的查询特征矩阵、键特征矩阵;
基于查询特征矩阵与键特征矩阵,获得所述历史资源使用数据集合的注意力得分矩阵;
基于注意力得分矩阵与所述历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
可选的,通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
对所述目标对象在所述各个历史场景各自对应的偏好特征矩阵进行求和处理,获得所述目标对象的跨场景偏好特征向量。
可选的,所述基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,包括:
分别对所述至少一个候选资源进行特征提取处理,获得对应的候选资源特征向量;
分别计算各个候选资源特征向量与所述目标对象的跨场景特征向量之间的特征向量相似度,并将特征向量相似度作为对应候选资源的偏好预测值输出。
可选的,在将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象之后,还包括:
根据所述目标对象在所述各个历史场景中各自对应的新的历史资源使用数据集合,更新所述目标对象的跨场景偏好特征向量。
可选的,通过执行以下操作,对待训练的跨场景偏好模型进行训练:
获取样本对象在各个历史场景各自对应的当前样本资源使用数据集合;
基于各个当前样本资源使用数据集合,依次生成包含多个样本对的样本对集合,每个样本对包含一条历史场景的正向样本资源使用数据、负向样本资源使用数据,其中,每生成一个样本对集合,执行以下操作:
对所述一个样本对集合进行特征提取处理,获得各个当前样本资源使用数据对应的样本资源特征向量;
基于所述样本对象的跨场景偏好特征向量与各个样本资源特征向量,获得正向样本资源特征向量集合与所述样本对象的跨场景偏好特征向量之间的正向特征向量总差异值,以及负向样本资源特征向量集合与所述样本对象的跨场景偏好特征向量之间的负向特征向量总差异值;
基于所述正向特征向量总差异值与所述负向特征向量总差异值,调整所述待训练的跨场景偏好模型的模型参数,直至所述待训练的跨场景偏好模型满足迭代训练停止条件为止,输出训练完毕的跨场景偏好模型。
第二方面,本申请实施例还提供了一种资源推荐装置,包括:
一种资源推荐装置,包括:
获取单元,用于获取目标对象在当前场景的至少一个候选资源;
处理单元,用于基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,其中,所述跨场景偏好特征向量表征所述目标对象在各个历史场景的偏好特征矩阵;
将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象。
可选的,所述处理单元通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
获取所述目标对象在所述各个历史场景各自对应的历史资源使用数据集合,其中,一条历史资源使用数据表征,所述目标对象与一个历史场景的一个历史资源在资源使用过程中的交互行为;
基于跨场景偏好模型与各个历史资源使用数据集合,获得所述目标对象的跨场景偏好特征向量。
可选的,所述跨场景偏好模型包括所述各个历史场景各自对应的场景偏好模型,每个场景偏好模型包括历史资源特征提取子模型、偏好关联度预测子模型;
所述跨场景偏好特征向量是基于所述目标对象在所述各个历史场景各自对应的偏好特征矩阵生成的,其中,所述处理单元通过执行以下操作,得到所述目标对象在所述一个历史场景的偏好特征矩阵:
基于所述历史资源特征提取子模型,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵;
基于所述偏好关联度预测子模型和历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
可选的,所述处理单元用于:
对所述目标对象在所述一个历史场景中所述历史资源使用数据集合进行特征提取处理,获得对应的行为特征矩阵;
根据所述行为特征矩阵,得到所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
可选的,所述处理单元还用于:
对所述历史资源使用数据集合进行位置编码处理,获得对应的位置特征矩阵;
基于所述行为特征矩阵与所述位置特征矩阵,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
可选的,所述处理单元用于:
基于所述历史资源特征矩阵,获得所述历史资源使用数据集合的查询特征矩阵、键特征矩阵;
基于查询特征矩阵与键特征矩阵,获得所述历史资源使用数据集合的注意力得分矩阵;
基于注意力得分矩阵与所述历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
可选的,所述处理单元通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
对所述目标对象在所述各个历史场景各自对应的偏好特征矩阵进行求和处理,获得所述目标对象的跨场景偏好特征向量。
可选的,所述处理单元用于:
分别对所述至少一个候选资源进行特征提取处理,获得对应的候选资源特征向量;
分别计算各个候选资源特征向量与所述目标对象的跨场景特征向量之间的特征向量相似度,并将特征向量相似度作为对应候选资源的偏好预测值输出。
可选的,在将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象之后,所述处理单元还用于:
根据所述目标对象在所述各个历史场景中各自对应的新的历史资源使用数据集合,更新所述目标对象的跨场景偏好特征向量。
可选的,所述装置还包括模型训练单元,所述模型训练单元通过执行以下操作,对待训练的跨场景偏好模型进行训练:
获取样本对象在各个历史场景各自对应的当前样本资源使用数据集合;
基于各个当前样本资源使用数据集合,依次生成包含多个样本对的样本对集合,每个样本对包含一条历史场景的正向样本资源使用数据、负向样本资源使用数据,其中,每生成一个样本对集合,执行以下操作:
对所述一个样本对集合进行特征提取处理,获得各个当前样本资源使用数据对应的样本资源特征向量;
基于所述样本对象的跨场景偏好特征向量与各个样本资源特征向量,获得正向样本资源特征向量集合与所述样本对象的跨场景偏好特征向量之间的正向特征向量总差异值,以及负向样本资源特征向量集合与所述样本对象的跨场景偏好特征向量之间的负向特征向量总差异值;
基于所述正向特征向量总差异值与所述负向特征向量总差异值,调整所述待训练的跨场景偏好模型的模型参数,直至所述待训练的跨场景偏好模型满足迭代训练停止条件为止,输出训练完毕的跨场景偏好模型。
第三方面,本申请实施例还提供了一种计算机设备,包括处理器和存储器,其中,所述存储器存储有程序代码,当所述程序代码被所述处理器执行时,使得所述处理器执行上述任意一种资源推荐方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,其包括程序代码,当所述程序代码在计算机设备上运行时,所述程序代码用于使所述计算机设备执行上述任意一种资源推荐方法的步骤。
本申请有益效果如下:
本申请实施例提供的一种资源推荐方法及装置,该方法包括:获取目标对象在当前场景的至少一个候选资源,基于目标对象的跨场景偏好特征向量,分别对至少一个候选资源进行偏好预测处理,获得各自对应的偏好预测值,再将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给目标对象。
跨场景偏好特征向量融合了目标对象在不同历史场景下的偏好特征,每个偏好特征表征目标对象在该历史场景偏爱的资源类型,综合考量每个候选资源与不同历史场景偏爱的资源类型之间的相似性,突破了传统资源推荐方法在推荐维度上的局限性,避免向目标对象重复推送已推荐的资源,有利于曝光新资源,打破信息茧房现象。即便目标对象在互联网平台的某一场景中处于冷启动时期,也能基于自身在该平台其他历史场景的历史资源使用数据,生成跨场景偏好特征向量,再使用跨场景偏好特征向量向目标对象提供精准推荐服务。
而且,本申请实施例提供的资源推荐方法,是基于目标对象在不同场景的偏好特征,评估出目标对象在当前场景下可能感兴趣的目标资源,克服了传统资源推荐方法存在的相似对象识别精度低的问题,提高了资源推荐准确率。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1a为本申请实施例提供的资源推荐方法的逻辑示意图;
图1b为本申请实施例提供的模型训练的流程示意图;
图2a为本申请实施例提供的资源推荐方法的流程示意图;
图2b为本申请实施例提供的生成目标对象的跨场景偏好特征向量的流程示意图;
图2c为本申请实施例提供的生成目标对象在一个历史场景的偏好特征矩阵的流程示意图;
图3为本申请实施例提供的一种资源推荐装置的结构示意图;
图4为本申请实施例提供的一种计算机设备的结构示意图;
图5为应用本申请实施例提供的计算装置的一个硬件组成结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请技术方案的一部分实施例,而不是全部的实施例。基于本申请文件中记载的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请技术方案保护的范围。
进入大数据时代之后,相关技术提出了一种基于目标对象的历史资源使用数据的资源推荐方法,从互联网的海量资源中,向目标对象推荐其可能感兴趣的资源。
但是,各个互联网平台在使用上述资源推荐方法的过程中,产生了以下问题:容易向目标对象重复推送已推荐的资源,减少了其他新资源的曝光频次,进而加重信息茧房现象;在冷启动时期,由于目标对象在互联网平台上的历史资源使用数据较少,导致资源推荐准确率低。
而针对冷启动时期的资源推荐问题,相关技术又提出了一种基于相似对象的历史资源使用数据的资源推荐方法,但在使用该资源推荐方法的过程中,需要先基于汉明距离,识别出目标对象的相似对象,但识别精度低,难以准确识别出目标对象的相似对象,导致资源推荐准确率低。
有鉴于此,本申请实施例提供了一种新的资源推荐方法及装置。该方法包括:获取目标对象在当前场景的至少一个候选资源,基于目标对象的跨场景偏好特征向量,分别对至少一个候选资源进行偏好预测处理,获得各自对应的偏好预测值,再将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给目标对象。
本申请实施例摒弃了传统资源推荐方法,提出了一种基于跨场景偏好特征向量的资源推荐方法,使用跨场景偏好特征向量对各个候选资源进行评估,预测目标对象对各个候选资源的偏好预测值。跨场景偏好特征向量融合了目标对象在不同历史场景下的偏好特征,每个偏好特征表征目标对象在该历史场景偏爱的资源类型,综合考量每个候选资源与不同历史场景偏爱的资源类型之间的相似性,突破了传统资源推荐方法在推荐维度上的局限性,避免向目标对象重复推送已推荐的资源,有利于曝光新资源,打破信息茧房现象。
由于跨场景偏好特征向量融合了目标对象在不同历史场景的偏好特征,即便目标对象在互联网平台的某一场景中处于冷启动时期,也能基于自身在该平台其他历史场景的历史资源使用数据,生成跨场景偏好特征向量,再使用跨场景偏好特征向量向目标对象提供精准推荐服务。
而且,本申请实施例提供的资源推荐方法,是基于目标对象在不同场景的偏好特征,评估出目标对象在当前场景下可能感兴趣的目标资源,克服了传统资源推荐方法存在的相似对象识别精度低的问题,提高了资源推荐准确率。
参阅图1a示出的逻辑示意图,将目标对象在各个历史场景各自对应的历史资源使用数据集合输入到跨场景偏好模型中,获得目标对象的跨场景偏好特征向量;获取目标对象在当前场景的至少一个候选资源,将至少一个候选资源分别输入到跨场景偏好模型中对应历史场景的场景偏好模型,获得每一个候选资源的候选资源特征向量,基于跨场景偏好特征向量对该候选资源进行偏好预测处理,获得对应的偏好预测值。
可以采用成对(pair-wise)方式或者逐点(point-wise)方式训练跨场景偏好模型,以pair-wise方式训练跨场景偏好模型的过程,如图1b所示。
S101:获取样本对象在各个历史场景各自对应的当前样本资源使用数据集合。
S102:基于各个当前样本资源使用数据集合,生成一个包含多个样本对的样本对集合X。
每个样本对包含一条历史场景的正向样本资源使用数据、负向样本资源使用数据。其中,一条当前样本资源使用数据表征,样本对象与一个历史场景的一个当前样本资源在资源使用过程中的交互行为,若存在点击观看、点击收听、添加喜欢标签等交互行为,则判定该条当前样本资源使用数据为正向样本资源使用数据;若存在仅浏览未点击、添加不喜欢标签等交互行为,则判定该条当前样本资源使用数据为负向样本资源使用数据。
例如,若当前样本资源使用数据a表征用户在听歌场景下点击收听了歌曲,则判定当前样本资源使用数据a为正向样本资源使用数据;
又例如,若当前样本资源使用数据b表征用户在购物场景下仅浏览了每日推荐商品,但未查看任何一件商品的商品详情页,则判定当前样本资源使用数据b为负向样本资源使用数据。
S103:对样本对集合X进行特征提取处理,获得各条当前样本资源使用数据对应的样本资源特征向量。
将样本对集合X包含的各条当前样本资源使用数据,输入到待训练的跨场景偏好模型中对应历史场景的场景偏好模型,经过对应场景偏好模型的行为特征提取层进行特征提取处理,获得各条当前样本资源使用数据对应的样本资源特征向量。
S104:基于样本对象的跨场景偏好特征向量与各个样本资源特征向量,获得正向样本资源特征向量集合与样本对象的跨场景偏好特征向量之间的正向特征向量总差异值,以及负向样本资源特征向量集合与样本对象的跨场景偏好特征向量之间的负向特征向量总差异值。
在执行步骤104之前,获取样本对象在各个历史场景各自对应的历史样本资源使用数据集合,历史样本资源使用数据的生成时间早于当前样本资源使用数据的生成时间,一条历史样本资源使用数据表征,样本对象与一个历史场景的一个历史样本资源在资源使用过程中的交互行为;基于待训练的跨场景偏好模型和各个历史样本资源使用数据集合,获得样本对象的跨场景偏好特征向量。
采用公式1示出的公式,分别计算样本对象的跨场景偏好特征向量与每个正向样本资源特征向量之间的正向特征向量差异值,再将所有正向特征向量差异值之和,作为正向样本资源特征向量集合与样本对象的跨场景偏好特征向量之间的正向特征向量总差异值。
其中,公式1的Ut表征样本对象u的跨场景偏好特征向量,表征第n个历史场景v的正向样本资源特征向量,N为历史场景总数,表征样本对象u的正向样本资源特征向量集合与样本对象u的跨场景偏好特征向量之间的正向特征向量总差异值。
采用公式2示出的公式,分别计算样本对象的跨场景偏好特征向量与每个负向样本资源特征向量之间的负向特征向量差异值,再将所有负向特征向量差异值之和,作为负向样本资源特征向量集合与样本对象的跨场景偏好特征向量之间的负向特征向量总差异值。
其中,公式2的Ut表征样本对象u的跨场景偏好特征向量,表征第n个历史场景v的负向样本资源特征向量,N为历史场景总数,表征样本对象u的负向样本资源特征向量集合与样本对象u的跨场景偏好特征向量之间的负向特征向量总差异值。
S105:基于正向特征向量总差异值与负向特征向量总差异值,调整待训练的跨场景偏好模型的模型参数。
采用公式3示出的损失函数公式计算相应的损失值,再使用损失值调整跨场景偏好模型的模型参数。
公式3:
(u,i)∈τ+表征样本对象u的正向样本资源使用数据集合i,是基于公式1得到的,表征用户u对正向样本资源使用数据集合i的偏好预测值;(u,j)∈τ-表征样本对象u的负向样本资源使用数据集合j,是基于公式2得到的,表征用户u对负向样本资源使用数据集合j的偏好预测值。
γ表征负向样本资源使用数据集合j的偏好预测值比正向样本资源使用数据集合i的偏好预测值多出的参数值,可人为调整γ;表征正向样本资源使用数据集合i的偏好预测值与负向样本资源使用数据集合j的偏好预测值之间差值的合页损失。
S106:判断待训练的跨场景偏好模型是否满足迭代训练停止条件,若是,输出训练完毕的跨场景偏好模型;否则,返回步骤102。
当损失值不超过设定损失门限值时,判定待训练的跨场景偏好模型满足迭代训练停止条件,并输出训练完毕的跨场景偏好模型;否则,返回步骤102,循环执行迭代训练过程,调整跨场景偏好模型的模型参数。
在训练好上述两个模型之后,参阅图2a示出的流程示意图,介绍使用模型进行资源推荐的过程。
S201:获取目标对象在当前场景的至少一个候选资源。
S202:基于目标对象的跨场景偏好特征向量,分别对至少一个候选资源进行偏好预测处理,获得至少一个候选资源各自的偏好预测值,其中,目标对象的跨场景偏好特征向量表征目标对象在各个历史场景的偏好特征。
在执行步骤202之前,参阅图2b示出的流程示意图,先通过执行以下操作,生成目标对象的跨场景偏好特征向量:
S2021:获取目标对象在各个历史场景各自对应的历史资源使用数据集合,其中,一条历史资源使用数据表征,目标对象与一个历史场景的一个历史资源在资源使用过程中的交互行为。
例如,获取用户在互联网平台的听歌场景、播客场景、K歌场景等不同历史场景各自的历史资源使用数据集合。
S2022:基于跨场景偏好模型与各个历史资源使用数据集合,获得目标对象的跨场景偏好特征向量。
如图1a所示,跨场景偏好模型包括各个历史场景各自对应的场景偏好模型,每个场景偏好模型包括历史资源特征提取子模型、偏好关联度预测子模型,将各个场景各自对应的历史资源使用数据集合输入对应的场景偏好模型中,获得各个历史场景各自对应的偏好特征矩阵,再基于各个偏好特征矩阵生成目标对象的跨场景偏好特征向量。
其中,参阅图2c示出的流程示意图,通过执行以下操作,获得目标对象在一个历史场景的偏好特征矩阵:
S20221:基于历史资源特征提取子模型,获得目标对象在该历史场景中历史资源使用数据集合的历史资源特征矩阵。
本申请实施例提供了以下两种生成历史资源特征矩阵的方式,一种方式不进行位置编码处理,另一种方式进行位置编码处理。
具体地说,一种方式是对目标对象在该历史场景中历史资源使用数据集合进行特征提取处理,获得对应的行为特征矩阵其中,(e(t-k+1)1,......,e(t-k+1)d)表征目标对象在该历史场景中第1个历史资源使用数据的行为特征向量,(et1,......,etd)表征目标对象在该历史场景中最后一个历史资源使用数据的行为特征向量,d表征行为特征向量的维度;再根据行为特征矩阵得到对应的历史资源特征矩阵。
另一种方式是在获得行为特征矩阵之后,采用公式4~公式5示出的公式,对历史资源使用数据集合进行位置编码处理,获得对应的位置特征矩阵其中,(PEPOS1(1),......,PEPOS1(d))表征目标对象在该历史场景中第1个历史资源使用数据的位置特征向量,(PEPOS_k(1),......,PEPOS_k(d)表征目标对象在该历史场景中最后一个历史资源使用数据的位置特征向量,k为历史资源使用数据的总数据量,d表征位置特征向量的维度;再基于行为特征矩阵与位置特征矩阵获得对应的历史资源特征矩阵即使用位置编码处理,在历史资源特征矩阵中引入时序信息,让跨场景偏好模型学习到目标对象的时序兴趣表达,便于跨场景偏好模型描述出目标对象在各个历史场景偏爱的资源类型,有利于提高后续的资源推荐准确率。
其中,公式4的PEpos(i)表征在历史资源使用数据集合中位置序号为pos的历史资源使用数据的位置特征向量在第i维度的值,每个位置特征向量的维度为d维,wk为设定频率,k为历史资源使用数据的总数据量。
又例如,对用户在听歌场景的历史听歌数据集合进行嵌入(embedding)特征提取处理,获得对应的行为特征矩阵;对历史听歌数据集合进行位置编码处理,获得对应的位置特征矩阵;再将每个行为特征向量与对应的位置特征向量进行拼接处理,获得用户在听歌场景的历史资源特征矩阵。
S20222:基于偏好关联度预测子模型和历史资源特征矩阵,获得目标对象在该历史场景的偏好特征矩阵。
本申请实施例的偏好关联度预测子模型是基于自注意力机制(Self-AttentionMechanism)构建的,自注意力机制是注意力机制的一种变体。
注意力机制(Attention Mechanism)源于对人类视觉的研究。在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息,而上述机制通常被称为注意力机制。例如,人们在阅读时,通常只有少量要被读取的词会被关注和处理。因此,在计算机领域中使用注意力机制,可以让模型在执行预测任务时,会着重关注与预测任务相关的部分输入,同时忽略与预测任务不相关的部分输入。
在执行步骤20222时,先基于历史资源特征矩阵,获得历史资源使用数据集合的查询特征矩阵、键特征矩阵;再基于查询特征矩阵与键特征矩阵,获得历史资源使用数据集合的注意力得分矩阵;最后,基于注意力得分矩阵与历史资源特征矩阵,获得目标对象在该历史场景的偏好特征矩阵。
具体地说,先采用公式6示出的公式,获得历史资源使用数据集合的查询特征矩阵、键特征矩阵。
再采用公式7示出的公式,获得目标对象在该历史场景的偏好特征矩阵。其中,公式7的表征历史场景v的历史资源特征矩阵,为历史场景v的查询特征矩阵,为历史场景v的键特征矩阵的转置矩阵,为目标对象在历史场景v的偏好特征矩阵,d表征特征向量的维度。
针对各个历史资源使用数据集合,分别执行上述步骤20221~20222,获得目标对象在各个历史场景各自对应的偏好特征矩阵,再采用公式8示出的公式,对各个偏好特征矩阵进行求和处理,获得目标对象的跨场景偏好特征向量。
其中,公式8的Ut表征目标对象的跨场景偏好特征向量,表征目标对象在第1个历史场景v的偏好特征矩阵,表征从第n个历史场景v的偏好特征矩阵中,读取第i个历史资源使用数据的偏好特征向量,k为历史资源使用数据的总数据量,N为历史场景总数。
在执行上述步骤2021~2022,获得目标对象的跨场景偏好特征向量之后,将至少一个候选资源分别输入到对应历史场景的场景偏好模型中,经过对应场景偏好模型的行为特征提取层进行特征提取处理,获得对应的候选资源特征向量;分别计算各个候选资源特征向量与目标对象的跨场景偏好特征向量之间的特征向量相似度,并将特征向量相似度作为对应候选资源的偏好预测值输出。
例如,获取为用户准备的多首候选歌曲,采用对应历史场景的场景偏好模型,获得对应的候选歌曲特征向量,将每个候选歌曲特征向量与用户的跨场景偏好特征向量进行内积计算或者余弦计算,输出每首候选歌曲各自的偏好预测值;
例如,获取为用户准备的多个电台资源,采用对应历史场景的场景偏好模型,获得对应的电台资源特征向量,将每个电台资源特征向量与用户的跨场景偏好特征向量进行内积计算或者余弦计算,输出每个电台资源各自的偏好预测值;
例如,获取为用户准备的多首候选歌曲和多个电台资源,采用对应历史场景的场景偏好模型,获得对应的候选歌曲特征向量、电台资源特征向量,将多个候选歌曲特征向量、多个台资源特征向量,分别与用户的跨场景偏好特征向量进行内积计算或者余弦计算,输出每首候选歌曲各自的偏好预测值,以及每个电台资源各自的偏好预测值;
又例如,获取多个其他用户各自的用户特征向量,每个其他用户的用户特征向量可以包括该用户的行为特征向量,还可以包括该用户的行为特征向量、用户画像特征向量;将每个用户特征向量与用户的跨场景偏好特征向量进行内积计算或者余弦计算,输出每个其他用户各自的偏好预测值,实现向用户推荐爱好相似或者兴趣相似的相似用户的功能。
S203:将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给目标对象。
在执行完步骤203之后,还可以根据目标对象在各个历史场景中各自对应的新的历史资源使用数据集合,更新目标对象的跨场景偏好特征向量。
例如,根据用户在各个历史场景中各自对应的每日历史资源使用数据集合,更新该用户的跨场景偏好特征向量,并基于更新后的用户的跨场景偏好特征向量,在明日为用户进行歌曲推荐。
与上述方法实施例基于同一发明构思,本申请实施例还提供了一种资源推荐装置。参阅图3示出的结构示意图,该装置包括获取单元301、处理单元302和模型训练单元303。
获取单元301,用于获取目标对象在当前场景的至少一个候选资源;
处理单元302,用于基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,其中,所述跨场景偏好特征向量表征所述目标对象在各个历史场景的偏好特征矩阵;
将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象。
可选的,所述处理单元302通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
获取所述目标对象在所述各个历史场景各自对应的历史资源使用数据集合,其中,一条历史资源使用数据表征,所述目标对象与一个历史场景的一个历史资源在资源使用过程中的交互行为;
基于跨场景偏好模型与各个历史资源使用数据集合,获得所述目标对象的跨场景偏好特征向量。
可选的,所述跨场景偏好模型包括所述各个历史场景各自对应的场景偏好模型,每个场景偏好模型包括历史资源特征提取子模型、偏好关联度预测子模型;
所述跨场景偏好特征向量是基于所述目标对象在所述各个历史场景各自对应的偏好特征矩阵生成的,其中,所述处理单元302通过执行以下操作,得到所述目标对象在所述一个历史场景的偏好特征矩阵:
基于所述历史资源特征提取子模型,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵;
基于所述偏好关联度预测子模型和历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
可选的,所述处理单元302用于:
对所述目标对象在所述一个历史场景中所述历史资源使用数据集合进行特征提取处理,获得对应的行为特征矩阵;
根据所述行为特征矩阵,得到所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
可选的,所述处理单元302还用于:
对所述历史资源使用数据集合进行位置编码处理,获得对应的位置特征矩阵;
基于所述行为特征矩阵与所述位置特征矩阵,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
可选的,所述处理单元302用于:
基于所述历史资源特征矩阵,获得所述历史资源使用数据集合的查询特征矩阵、键特征矩阵;
基于查询特征矩阵与键特征矩阵,获得所述历史资源使用数据集合的注意力得分矩阵;
基于注意力得分矩阵与所述历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
可选的,所述处理单元302通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
对所述目标对象在所述各个历史场景各自对应的偏好特征矩阵进行求和处理,获得所述目标对象的跨场景偏好特征向量。
可选的,所述处理单元302用于:
分别对所述至少一个候选资源进行特征提取处理,获得对应的候选资源特征向量;
分别计算各个候选资源特征向量与所述目标对象的跨场景特征向量之间的特征向量相似度,并将特征向量相似度作为对应候选资源的偏好预测值输出。
可选的,在将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象之后,所述处理单元302还用于:
根据所述目标对象在所述各个历史场景中各自对应的新的历史资源使用数据集合,更新所述目标对象的跨场景偏好特征向量。
可选的,所述装置还包括模型训练单元303,所述模型训练单元303通过执行以下操作,对待训练的跨场景偏好模型进行训练:
获取样本对象在各个历史场景各自对应的当前样本资源使用数据集合;
基于各个当前样本资源使用数据集合,依次生成包含多个样本对的样本对集合,每个样本对包含一条历史场景的正向样本资源使用数据、负向样本资源使用数据,其中,每生成一个样本对集合,执行以下操作:
对所述一个样本对集合进行特征提取处理,获得各个当前样本资源使用数据对应的样本资源特征向量;
基于所述样本对象的跨场景偏好特征向量与各个样本资源特征向量,获得正向样本资源特征向量集合与所述样本对象的跨场景偏好特征向量之间的正向特征向量总差异值,以及负向样本资源特征向量集合与所述样本对象的跨场景偏好特征向量之间的负向特征向量总差异值;
基于所述正向特征向量总差异值与所述负向特征向量总差异值,调整所述待训练的跨场景偏好模型的模型参数,直至所述待训练的跨场景偏好模型满足迭代训练停止条件为止,输出训练完毕的跨场景偏好模型。
与上述方法实施例基于同一发明构思,本申请实施例还提供了一种计算机设备,参阅图4示出的结构示意图,计算机设备可以至少包括至少一个处理器401、以及至少一个存储器402。其中,存储器402存储有程序代码,当程序代码被处理器401执行时,使得处器401执行本说明书上述描述的资源推荐方法中的步骤。例如,处理器401可以执行如图2a中所示的步骤。
下面参照图5来描述根据本申请的这种实施方式的计算装置500。图5的计算装置500仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图5所示,计算装置500以通用计算装置的形式表现。计算装置500的组件可以包括但不限于:上述至少一个处理单元501、上述至少一个存储单元502、连接不同系统组件(包括存储单元502和处理单元501)的总线503。
总线503表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、处理器或者使用多种总线结构中的任意总线结构的局域总线。
存储单元502可以包括易失性存储器形式的可读介质,例如随机存取存储器(RAM)5021和/或高速缓存存储单元5022,还可以进一步包括只读存储器(ROM)5023。
存储单元502还可以包括具有一组(至少一个)程序模块5024的程序/实用工具5025,这样的程序模块5024包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
计算装置500也可以与一个或多个外部设备5904(例如键盘、指向设备等)通信,还可与一个或者多个使得用户能与计算装置500交互的设备通信,和/或与使得该计算装置500能与一个或多个其它计算装置进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口505进行。并且,计算装置500还可以通过网络适配器506与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器506通过总线503与用于计算装置500的其它模块通信。应当理解,尽管图中未示出,可以结合计算装置500使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
与上述方法实施例基于同一发明构思,本申请提供的资源推荐方法的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序代码在计算机设备上运行时,程序代码用于使计算机设备执行本说明书上述描述的资源推荐方法中的步骤,例如,计算机设备可以执行如图2a中所示的步骤。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
本申请的实施方式的用于业务控制的程序产品可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在计算装置上运行。然而,本申请的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被命令执行系统、装置或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由命令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本申请操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算装置上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算装置上部分在远程计算装置上执行、或者完全在远程计算装置或服务器上执行。在涉及远程计算装置的情形中,远程计算装置可以通过任意种类的网络包括局域网(LAN)或广域网(WAN)连接到用户计算装置,或者,可以连接到外部计算装置(例如利用因特网服务提供商来通过因特网连接)。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种资源推荐方法,其特征在于,包括:
获取目标对象在当前场景的至少一个候选资源;
基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,其中,所述目标对象的跨场景偏好特征向量表征所述目标对象在各个历史场景的偏好特征;
将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象。
2.如权利要求1所述的方法,其特征在于,通过执行以下操作,生成所述目标对象的跨场景偏好特征向量:
获取所述目标对象在所述各个历史场景各自对应的历史资源使用数据集合,其中,一条历史资源使用数据表征,所述目标对象与一个历史场景的一个历史资源在资源使用过程中的交互行为;
基于跨场景偏好模型与各个历史资源使用数据集合,获得所述目标对象的跨场景偏好特征向量。
3.如权利要求2所述的方法,其特征在于,所述跨场景偏好模型包括所述各个历史场景各自对应的场景偏好模型,每个场景偏好模型包括历史资源特征提取子模型、偏好关联度预测子模型;
所述跨场景偏好特征向量是基于所述目标对象在所述各个历史场景各自对应的偏好特征矩阵生成的,其中,通过执行以下操作,得到所述目标对象在所述一个历史场景的偏好特征矩阵:
基于所述历史资源特征提取子模型,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵;
基于所述偏好关联度预测子模型和历史资源特征矩阵,获得所述目标对象在所述一个历史场景的偏好特征矩阵。
4.如权利要求3所述的方法,其特征在于,所述基于所述历史资源特征提取子模型,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵,包括:
对所述目标对象在所述一个历史场景中所述历史资源使用数据集合进行特征提取处理,获得对应的行为特征矩阵;
根据所述行为特征矩阵,得到所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
5.如权利要求4所述的方法,其特征在于,所述根据所述行为特征矩阵,得到所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵,还包括:
对所述历史资源使用数据集合进行位置编码处理,获得对应的位置特征矩阵;
基于所述行为特征矩阵与所述位置特征矩阵,获得所述目标对象在所述一个历史场景中历史资源使用数据集合的历史资源特征矩阵。
6.如权利要求1所述的方法,其特征在于,所述基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,包括:
分别对所述至少一个候选资源进行特征提取处理,获得对应的候选资源特征向量;
分别计算各个候选资源特征向量与所述目标对象的跨场景特征向量之间的特征向量相似度,并将特征向量相似度作为对应候选资源的偏好预测值输出。
7.如权利要求1~6任一项所述的方法,其特征在于,在将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象之后,还包括:
根据所述目标对象在所述各个历史场景中各自对应的新的历史资源使用数据集合,更新所述目标对象的跨场景偏好特征向量。
8.一种资源推荐装置,其特征在于,包括:
获取单元,用于获取目标对象在当前场景的至少一个候选资源;
处理单元,用于基于所述目标对象的跨场景偏好特征向量,分别对所述至少一个候选资源进行偏好预测处理,获得所述至少一个候选资源各自的偏好预测值,其中,所述跨场景偏好特征向量表征所述目标对象在各个历史场景的偏好特征矩阵;
将偏好预测值高于设定阈值的候选资源,作为目标资源推荐给所述目标对象。
9.一种计算机设备,其特征在于,其包括处理器和存储器,其中,所述存储器存储有程序代码,当所述程序代码被所述处理器执行时,使得所述处理器执行权利要求1~7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其特征在于,其包括程序代码,当所述程序代码在计算机设备上运行时,所述程序代码用于使所述计算机设备执行权利要求1~7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111165276.1A CN113886695A (zh) | 2021-09-30 | 2021-09-30 | 一种资源推荐方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111165276.1A CN113886695A (zh) | 2021-09-30 | 2021-09-30 | 一种资源推荐方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113886695A true CN113886695A (zh) | 2022-01-04 |
Family
ID=79005017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111165276.1A Pending CN113886695A (zh) | 2021-09-30 | 2021-09-30 | 一种资源推荐方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113886695A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008409A (zh) * | 2019-04-12 | 2019-07-12 | 苏州市职业大学 | 基于自注意力机制的序列推荐方法、装置及设备 |
CN110750658A (zh) * | 2019-09-18 | 2020-02-04 | 平安科技(深圳)有限公司 | 一种媒体资源的推荐方法、服务器及计算机可读存储介质 |
CN111159555A (zh) * | 2019-12-30 | 2020-05-15 | 北京每日优鲜电子商务有限公司 | 商品推荐方法、装置、服务器和存储介质 |
CN112000819A (zh) * | 2019-05-27 | 2020-11-27 | 北京达佳互联信息技术有限公司 | 多媒体资源推荐方法、装置、电子设备及存储介质 |
CN112749343A (zh) * | 2021-01-22 | 2021-05-04 | 武汉蔚来能源有限公司 | 资源推荐方法、装置及计算机存储介质 |
-
2021
- 2021-09-30 CN CN202111165276.1A patent/CN113886695A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110008409A (zh) * | 2019-04-12 | 2019-07-12 | 苏州市职业大学 | 基于自注意力机制的序列推荐方法、装置及设备 |
CN112000819A (zh) * | 2019-05-27 | 2020-11-27 | 北京达佳互联信息技术有限公司 | 多媒体资源推荐方法、装置、电子设备及存储介质 |
CN110750658A (zh) * | 2019-09-18 | 2020-02-04 | 平安科技(深圳)有限公司 | 一种媒体资源的推荐方法、服务器及计算机可读存储介质 |
CN111159555A (zh) * | 2019-12-30 | 2020-05-15 | 北京每日优鲜电子商务有限公司 | 商品推荐方法、装置、服务器和存储介质 |
CN112749343A (zh) * | 2021-01-22 | 2021-05-04 | 武汉蔚来能源有限公司 | 资源推荐方法、装置及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2023061087A1 (zh) | 信息推荐方法、装置、电子设备、计算机可读存储介质及计算机程序产品 | |
US20240046043A1 (en) | Multi-turn Dialogue Response Generation with Template Generation | |
CN110390408B (zh) | 交易对象预测方法和装置 | |
CN110766142A (zh) | 模型生成方法和装置 | |
CN111090756B (zh) | 基于人工智能的多目标推荐模型的训练方法及装置 | |
CN110555714A (zh) | 用于输出信息的方法和装置 | |
EP3394798A1 (en) | Generating dependency parses of text segments using neural networks | |
CN110858226A (zh) | 对话管理方法和装置 | |
WO2023207411A1 (zh) | 一种基于时空数据的流量确定方法、装置、设备和介质 | |
CN112948676A (zh) | 文本特征提取模型的训练方法、文本推荐方法及装置 | |
CN112348592A (zh) | 广告推荐方法、装置、电子设备及介质 | |
US20230106106A1 (en) | Text backup method, apparatus, and device, and computer-readable storage medium | |
CN112182281B (zh) | 一种音频推荐方法、装置及存储介质 | |
CN112784157A (zh) | 行为预测模型的训练方法、行为预测方法及装置、设备 | |
CN113591490B (zh) | 信息处理方法、装置和电子设备 | |
CN113344647B (zh) | 一种信息推荐的方法及装置 | |
CN111459959B (zh) | 用于更新事件集合的方法和装置 | |
CN114119123A (zh) | 信息推送的方法和装置 | |
CN116680481A (zh) | 搜索排序方法、装置、设备、存储介质及计算机程序产品 | |
CN113836390A (zh) | 资源推荐方法、装置、计算机设备及存储介质 | |
KR102372432B1 (ko) | 클릭 및 노출 정보를 활용한 추천 콘텐츠 제공 방법, 장치 및 시스템 | |
CN113705683B (zh) | 推荐模型的训练方法、装置、电子设备及存储介质 | |
CN113722584A (zh) | 任务推送方法、装置及存储介质 | |
CN113886695A (zh) | 一种资源推荐方法及装置 | |
CN113536138A (zh) | 一种网络资源推荐方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |