CN117033751A - 推荐信息处理方法、装置、存储介质及设备 - Google Patents
推荐信息处理方法、装置、存储介质及设备 Download PDFInfo
- Publication number
- CN117033751A CN117033751A CN202211074168.8A CN202211074168A CN117033751A CN 117033751 A CN117033751 A CN 117033751A CN 202211074168 A CN202211074168 A CN 202211074168A CN 117033751 A CN117033751 A CN 117033751A
- Authority
- CN
- China
- Prior art keywords
- interest
- vector
- target
- discrete
- discrete feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 46
- 238000003672 processing method Methods 0.000 title claims abstract description 31
- 238000003860 storage Methods 0.000 title claims abstract description 25
- 239000013598 vector Substances 0.000 claims abstract description 584
- 230000006399 behavior Effects 0.000 claims abstract description 327
- 238000000034 method Methods 0.000 claims abstract description 90
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 58
- 230000006870 function Effects 0.000 claims description 56
- 238000012545 processing Methods 0.000 claims description 54
- 230000008569 process Effects 0.000 claims description 52
- 238000012805 post-processing Methods 0.000 claims description 45
- 238000010606 normalization Methods 0.000 claims description 34
- 238000001914 filtration Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000006116 polymerization reaction Methods 0.000 claims description 3
- 230000000644 propagated effect Effects 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 abstract description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 8
- 239000010410 layer Substances 0.000 description 271
- 239000000523 sample Substances 0.000 description 141
- 238000005516 engineering process Methods 0.000 description 17
- 238000005070 sampling Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000003542 behavioural effect Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 101100425816 Dictyostelium discoideum top2mt gene Proteins 0.000 description 8
- 101150082896 topA gene Proteins 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000012935 Averaging Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 6
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 5
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 230000002829 reductive effect Effects 0.000 description 5
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005304 joining Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000010076 replication Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本申请公开一种推荐信息处理方法、装置、存储介质及设备,可应用于人工智能、机器学习、信息推荐等场景。该方法包括:获取样本对象的对象行为序列样本;基于编解码网络模型中的编码器对对象行为序列样本进行兴趣特征编码得到对象兴趣序列向量;基于模型中的向量离散化模块对对象兴趣序列向量进行离散特征向量提取得到兴趣离散特征向量;基于模型中的解码器对兴趣离散特征向量进行解码处理得到样本对象的重构对象行为序列;基于重构对象行为序列训练编解码网络模型,通过训练好的模型得出的目标兴趣离散特征向目标对象进行信息推荐,具有更强的泛化性,且占用空间小,可解释性强,可表征更丰富的对象兴趣偏好,能更好应用于下游的推荐系统。
Description
技术领域
本申请涉及信息处理技术领域,具体涉及一种推荐信息处理方法、装置、存储介质及设备。
背景技术
相关技术的推荐系统所使用的行为序列相关特征,其形式主要分为两类:连续向量式特征和基于统计的离散特征。
连续向量式特征主要针对原始行为序列数据采用合适的模型先验结构,得到稠密的向量。首先对行为序列中的每一个单次行为原始特征编码:对离散id类原始特征可直接进行嵌入编码(embedding lookup);对连续数值类原始特征进行分桶再嵌入编码。之后再对已经嵌入编码化的序列使用循环神经网络或者自注意力网络完成进一步编码,得到包含序列上下文信息的连续向量式特征。相关技术的推荐系统对象行为序列特征中,连续向量式特征相比基于统计的离散特征考虑了序列顺序信息,具有更强的泛化性,但是连续向量式特征占用空间大,可解释性差。在推荐系统的在线学习的场景中,连续空间内的特征还容易发生特征漂移现象(同一对象相邻两天的特征相差大)。此外,复杂的对象行为序列特征生产模型和推荐模型是分开独立训练,因此会出现连续向量式特征应用于下游推荐模型时的向量空间不一致问题。
基于统计的离散特征则抛弃了行为序列的次序信息,直接计算在不同统计窗口下(比如:某一段时间、近多少次行为)的不同行为(比如:点击、阅读、分享、关注等)及其属性(比如:类目、标签)的统计量(比如:计数、均值、topk)。基于统计的离散特征则抛弃了行为序列的次序信息,会导致泛化性较差。
发明内容
本申请实施例提供一种推荐信息处理方法、兴趣离散特征生成方法、装置、存储介质、设备及程序产品,通过模型重构对象行为序列来进行端到端的训练后得出的目标兴趣离散特征,具有更丰富的行为序列信息,具有更强的泛化性,且占用空间小,可解释性强,根据目标兴趣离散特征向目标对象进行信息推荐,可以向目标对象推荐更贴近对象兴趣偏好的推荐信息。
一方面,本申请实施例提供一种推荐信息处理方法,所述方法包括:获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好;基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量;基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量;基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列;基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型;通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征;根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
另一方面,本申请实施例提供一种推荐信息处理装置,所述装置包括:
获取单元,用于获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好;
编码单元,用于基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量;
离散化单元,用于基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量;
解码单元,用于基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列;
训练单元,用于基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型;
处理单元,用于通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征;
推荐单元,用于根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
另一方面,本申请实施例一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如上任一实施例所述的推荐信息处理方法。
另一方面,本申请实施例一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行如上任一实施例所述的推荐信息处理方法。
另一方面,本申请实施例一种计算机程序产品,包括计算机指令,所述计算机指令被处理器执行时实现如上任一实施例所述的推荐信息处理方法。
本申请实施例通过获取样本对象的对象行为序列样本,对象行为序列样本是基于样本对象的历史行为信息确定的,用于刻画样本对象的兴趣偏好;基于编解码网络模型中的编码器对对象行为序列样本进行兴趣特征编码,得到样本对象的对象兴趣序列向量;基于编解码网络模型中的向量离散化模块对对象兴趣序列向量进行离散特征向量提取,得到样本对象的兴趣离散特征向量;基于编解码网络模型中的解码器对样本对象的兴趣离散特征向量进行解码处理,得到样本对象的重构对象行为序列;基于重构对象行为序列训练编解码网络模型,得到训练好的编解码网络模型;通过训练好的编解码网络模型对目标对象的对象行为序列进行处理得到目标对象的目标兴趣离散特征,根据目标兴趣离散特征向目标对象进行信息推荐。本申请实施例在训练阶段,基于编解码网络模型中的编码器、向量离散化模块和解码器对对象行为序列样本进行重构,得到重构对象行为序列,并通过模型输出的重构对象行为序列来进行端到端的训练,使得训练后得出的目标兴趣离散特征,相比基于统计的离散特征,具有更丰富的行为序列信息,具有更强的泛化性;相比连续向量式特征,本申请的目标兴趣离散特征,仅在预定义的、有限的离散空间内,避免了占用空间大、特征漂移等问题,此外本申请的目标兴趣离散特征能够对应对象的具体行为,可解释性强;本申请的目标兴趣离散特征可以表征更丰富的对象兴趣偏好,能更好地应用于下游的推荐系统中,根据目标兴趣离散特征向目标对象进行信息推荐,可以向目标对象推荐更贴近对象兴趣偏好的推荐信息。
附图说明
图1为申请实施例提供的编解码网络模型的应用场景示意图。
图2为本申请实施例提供的推荐信息处理方法的流程示意图。
图3为本申请实施例提供的编码器与解码器的结构示意图。
图4为本申请实施例提供的向量离散化模块的结构示意图。
图5为本申请实施例提供的推荐信息处理方法的另一流程示意图。
图6为本申请实施例提供的推荐信息处理装置的结构示意图。
图7为本申请实施例提供的处理单元的结构示意图。
图8为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种推荐信息处理方法、装置、存储介质、设备及程序产品。示例性地,本申请实施例的推荐信息处理方法可以由计算机设备执行,其中,该计算机设备可以为终端或者服务器等设备。本申请实施例可应用于人工智能、机器学习、信息推荐等场景。
首先,对本申请实施例进行描述的过程中出现的部分名词或者术语作如下解释:
人工智能(Artificial Intelligence,AI):是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
机器学习(Machine Learning,ML):是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
深度学习(Deep Learning,DL):是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。深度学习是学习训练样本数据的内在规律和表示层次,这些学习过程中获得的信息对文字、图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习是一个复杂的机器学习算法,在语音和图像识别方面取得的效果,远远超过先前相关技术。
神经网络(Neural Network,NN):在机器学习和认知科学领域的一种模仿生物神经网络结构和功能的深度学习模型。
云技术(Cloud technology):是指在广域网或局域网内将硬件、软件、网络等系列资源统一起来,实现数据的计算、储存、处理和共享的一种托管技术。云技术基于云计算商业模式应用的网络技术、信息技术、整合技术、管理平台技术、应用技术等的总称,可以组成资源池,按需所用,灵活便利。云计算技术将变成重要支撑。技术网络系统的后台服务需要大量的计算、存储资源,如视频网站、图片类网站和更多的门户网站。伴随着互联网行业的高度发展和应用,将来每个物品都有可能存在自己的识别标志,都需要传输到后台系统进行逻辑处理,不同程度级别的数据将会分开处理,各类行业数据皆需要强大的系统后盾支撑,只能通过云计算来实现。
向量量化(Vector-Quantization,VQ):是一种将信号离散化的算法,也可以称为向量离散化,VQ是将一个向量空间中的点用其中的一个有限子集来进行编码的过程,并用聚类后的中心点的标签替代该簇中其他点的标签,以此达到缩小子集大小,压缩数据的目的。
推荐系统(Recommendation System):是通过挖掘对象与项目(物品)之间的二元关系,帮助对象从大量数据中发现其可能感兴趣的项目(物品)如网页、服务、商品、人等,并生成个性化推荐以满足个性化需求。
请参阅图1,图1为本申请实施例提供的编解码网络模型的应用场景示意图。以推荐信息处理方法由计算机设备执行为例,其中,该计算机设备可以为终端或者服务器等设备。该编解码网络模型可以包括编码器、向量离散化模块、解码器;其中训练流程包含了编码器、向量离散化模块、解码器三部分,推理流程则无需解码器,仅需训练后得到的编码器、向量离散化模块并加上简单的后处理策略即可在线推断出高质量的兴趣离散特征。
其中,在训练流程中,计算机设备获取样本对象的对象行为序列样本,对象行为序列样本是基于样本对象的历史行为信息确定的,用于刻画样本对象的兴趣偏好;基于编解码网络模型中的编码器对对象行为序列样本进行兴趣特征编码,得到样本对象的对象兴趣序列向量;基于编解码网络模型中的向量离散化模块对对象兴趣序列向量进行离散特征向量提取,得到样本对象的兴趣离散特征向量;基于编解码网络模型中的解码器对兴趣离散特征向量进行解码处理,得到样本对象的重构对象行为序列;基于重构对象行为序列训练编解码网络模型,得到训练好的编解码网络模型。
其中,在推理流程中,可以通过训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征,然后根据目标兴趣离散特征向目标对象进行信息推荐。具体的,在通过训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征的步骤中,对象可以通过计算机设备中安装的客户端、浏览器客户端或即时通信客户端上传目标对象的对象行为序列,或者计算机设备在获得对象许可或者同意的情况下获取目标对象的对象行为序列,该对象行为序列是基于目标对象的历史行为信息确定的,用于刻画目标对象的兴趣偏好,计算机设备获取目标对象的对象行为序列后,基于训练好的编解码网络模型中的编码器对对象行为序列进行兴趣特征编码,得到目标对象的目标对象兴趣序列向量;基于训练好的编解码网络模型中的向量离散化模块对目标对象兴趣序列向量进行离散特征提取,得到目标对象的目标兴趣离散特征,目标兴趣离散特征用于作为下游任务中推荐系统的输入参数,以使推荐系统基于目标兴趣离散特征生成目标对象对应的推荐信息。
需要说明的是,模型的训练流程、实际推理流程可以在服务器中完成,也可以在终端中完成。当模型的训练流程、实际推理流程都在服务器中端完成时,需要使用训练好的编解码网络模型时,可以将目标对象的对象行为序列输入到服务器,服务器实际预测完成后,将得到的目标对象的目标兴趣离散特征发送至终端以输入推荐系统进行推荐信息的预测。当模型的训练流程、实际推理流程都在终端中完成时,需要使用训练好的编解码网络模型时,可以将目标对象的对象行为序列输入到终端,终端实际预测完成后,终端将目标对象的目标兴趣离散特征输入推荐系统进行推荐信息的预测。当模型的训练流程在服务器中完成,实际推理过程在终端中完成时,需要使用训练好的编解码网络模型时,可以将目标对象的对象行为序列输入到终端,终端实际预测完成后,终端将目标对象的目标兴趣离散特征输入推荐系统进行推荐信息的预测。可选的,可以将服务器中训练好的模型文件(model文件)移植到终端上,若需要对输入目标对象的对象行为序列进行预测,则将目标对象的对象行为序列输入到训练好的模型文件(model文件),通过计算即可得到目标对象的目标兴趣离散特征。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优先顺序的限定。
本申请各实施例提供了一种推荐信息处理方法,该方法可以由终端或服务器执行,也可以由终端和服务器共同执行;本申请实施例以推荐信息处理方法由服务器执行为例来进行说明。
请参阅图2至图5,图2和图5为本申请实施例提供的推荐信息处理方法的流程示意图,图3为本申请实施例提供的编码器与解码器的结构示意图,图4为本申请实施例提供的向量离散化模块的结构示意图。该方法可以包括以下步骤210至步骤270:
步骤210,获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好。
对象行为序列(UBS:User Behavior Sequence):蕴含了可以刻画对象兴趣的丰富信息。对象行为序列,也可以叫做“基于时间序列的对象行为”,是某一时间段内,按照时间先后顺序记录的人从事某种活动的每一步行为。比如,在网站,一段时间内,一个对象从进入网站到离开网站过程中的每一步行为的记录,被记做一条对象行为序列。例如,对象可以为用户。
例如,可以根据样本对象的历史行为信息生成样本对象的对象行为序列样本,该对象行为序列样本蕴含了可以刻画对象兴趣的丰富信息,因此该对象行为序列样本可以用于刻画该样本对象的兴趣偏好。
例如,获取的历史行为信息可以包括行为类型、行为时间、行为场景、物品种类、物品属性中的一种或多种组合。
例如,行为类型可以包括观看、预览、播放、点击、收藏、加入购物车、成交、交易、订阅等。行为类型可以用于表示对象的短期兴趣、中期兴趣或者长期兴趣。例如,在数据处理过程中,可以组织为一个混合序列通过类别特征区分,也可以直接组织为多个种类的序列分别进行特征建模。比如通过特征建模,可以推断出对象对近期点击过的商品大概率仍然感兴趣,但对于近期购买过的商品一般短期内不再感兴趣。例如,对象可以为用户。
例如,行为时间可也表示对象行为距离当前请求的时间差。一般来说,对象当前的兴趣与近期行为过的物品更相关。例如,行为时间也可以表示当前行为与下一次行为的时间差。例如,行为时间也可以表示在当前物品上的停留时间。例如,对象在购买某一商品时在详情页的停留时间,停留时间越长一般越感兴趣。
例如,行为场景,表示行为发生的应用场景。对一个商品的点击可以发生在首页推荐,搜索推荐和广告推荐,同一种行为在不同应用场景下含有不同的意义。
例如,物品种类表示行为序列中的物品所属种类,比如物品种类可以是查询、项目、评论、音乐、电影、书籍、食物等种类。
例如,物品属性可以包括类目、品牌、厂商、产地等信息。
例如,该样本对象的历史行为信息可以是通过互联网应用记录的样本对象在互联网应用上的进行的所有行为记录。该样本对象的历史行为信息还可以由服务器通过读取对象行为日志、实时采集对象的行为等方式来获取。
可以理解的是,在本申请的具体实施方式中,涉及到对象的历史行为信息等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得对象许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
步骤220,基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量。
其中,所述对象兴趣序列向量为对象粒度的包含行为序列信息的连续向量式特征。
对象粒度:粒度就是同一维度下,数据统计的粗细程度;对象粒度,即以一个对象的唯一标识来作为数据统计的粗细程度。
请参阅图1,本申请提出的方案分为训练流程和推理流程。其中训练流程包含了编码器、向量离散化模块、解码器三部分,推理流程则无需解码器,仅需训练得到的编码器、向量离散化模块并加上简单的后处理策略即可在线推断出高质量的目标兴趣离散特征。
其中,在训练流程中,通过编解码网络模型中的编码器对嵌入编码后的样本对象的对象行为序列样本进一步进行兴趣特征编码,得到对象粒度的包含行为序列信息的连续向量式特征,即每一个样本对象产出一个连续向量式特征,将该对象粒度的包含行为序列信息的连续向量式特征确定为样本对象的对象兴趣序列向量。
可选的,所述编码器包括结构相同的多层编码子网络,其中,上一层编码子网络的输出作为下一层编码子网络的输入,每一层编码子网络包括第一多头自注意力层、多个第一全连接层、多个第一归一化层和第一残差连接模块;所述基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量,包括:
将所述对象行为序列样本输入第一层编码子网络,以将所述对象行为序列样本经过所述第一层编码子网络中的第一多头自注意力层处理后得到第一层上下文感知编码向量,并将所述第一层上下文感知编码向量经过所述第一层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第一层编码向量;
将所述第一层编码向量经过第二层编码子网络中的第一多头自注意力层处理后得到第二层上下文感知编码向量,将所述第二层上下文感知编码向量经过所述第二层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第二层编码向量;
将上一层编码子网络的输出作为下一层编码子网络的输入,在最后一层编码子网络中,将经最后一层编码子网络中的第一归一化层输出的最后一层编码向量再经过一层第一全连接层进行维度转化,以得到所述样本对象对应的多头结构的对象兴趣序列向量。
请参阅图3,编码器和解码器均由标准的基于自注意力的Transformer网络构成。Transformer网络包含多层结构相同的子网络,上一层子网络的输出作为下一层子网络的输入。例如,编码器和解码器均可以包含有4层结构相同的子网络。例如,为了更清楚的描述编码器和解码器的结构,将编码器包含多层结构相同的子网络命名为多层编码子网络,每一层编码子网络中包含的各层命名为第一多头自注意力层、多个第一全连接层、多个第一归一化层和第一残差连接模块。将解码器包含多层结构相同的子网络命名为多层解码子网络,每一层解码子网络中包含的各层命名为多头编解码注意力层、第二多头自注意力层、多个第二全连接层、多个第二归一化层和第二残差连接模块。
其中,归一化层的作用是把神经网络中隐藏层归一为标准正态分布,以起到加快训练速度,加速收敛的作用。残差连接是指每经过一个层的运算,都要把运算之前的值和运算之后的值相加,从而得到残差连接。在图3中,如编码器的单层编码子网络的左侧带箭头指向归一化层的连接线表示残差连接,或者如解码器的单层解码子网络的右侧带箭头指向归一化层的连接线表示残差连接。残差连接模块与归一化层均是Transformer网络的标准设计。
其中,第一层编码子网络的输入向量是经过嵌入编码的对象行为序列样本。对于每一层编码子网络,输入向量经过嵌入编码后,经第一多头自注意力层获得上下文感知编码向量,再经过若干个第一全连接层、若干个第一归一化层(layernorm)以及若干个第一残差连接模块的组合增强其表示,以输出编码向量到下一层编码子网络。
将上一层编码子网络的输出作为下一层编码子网络的输入,编码器最后一层编码子网络输出的最后一层编码向量将再经过一层第一全连接层进行维度转化,变成多头结构(multi-head)的对象兴趣序列向量,该对象兴趣序列向量为连续向量式特征,以作为向量离散化模块的输入。例如,以8头为例,输入维度为64为例,经过维度转化后则输出维度为8*64=512维。
请参阅图3,在第一层编码子网络中,输入向量为对象行为序列样本,多头结构的输出向量为第一层编码向量;在第二层编码子网络中,输入向量为第一层编码向量,多头结构的输出向量为第二层编码向量;在第i层编码子网络中,输入向量为第i-1层编码向量,多头结构的输出向量为第i层编码向量,其中,i>2;在最后一层编码子网络中,输入向量为上一层编码向量,多头结构的输出向量为最后一层编码向量,将该最后一层编码向量再经过一层第一全连接层进行维度转化,以得到所述样本对象对应的多头结构的对象兴趣序列向量。
步骤230,基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量。
请参阅图1及图4,将编码器编码得到的样本对象的对象兴趣序列向量(连续向量式特征)输入向量离散化模块进行特征向量提取,向量离散化模块会在一个全局离散特征码表中找出与对象兴趣序列向量最相似的前K个预设离散特征向量,并输出该前K个预设离散特征向量及其序号,分别对应该样本对象的兴趣离散特征向量和兴趣离散特征。
可选的,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述对象兴趣序列向量为多头结构的对象兴趣序列向量;所述基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量,包括:
根据欧式距离近邻检索方式,对于所述多头结构的对象兴趣序列向量中每个头的子向量,从所述全局离散特征码表中选取与所述每个头的子向量相近的前K个预设离散特征向量以及所述相近的前K个预设离散特征向量对应的离散特征,将所述相近的前K个预设离散特征向量确定为所述样本对象的兴趣离散特征向量,其中,K为正整数。
示例性地,如图4所示,向量离散化模块维护着一个全局离散特征码表B,全局离散特征码表B中每一个离散特征i对应着一个与对象兴趣序列向量维度相同的预设离散特征向量Bi。给定编码器编码后输出的多头结构的对象兴趣序列向量Ze,向量离散化模块在对对象兴趣序列向量Ze的具体处理过程中,可以根据向量L2距离近邻检索,对对象兴趣序列向量Ze中每个头的子向量Zei选取全局离散特征码表中最相近(或者相近的topK)的预设离散特征向量、及被选取的topK个预设离散特征向量的离散特征,其中,离散特征可以用对应的预设离散特征向量的下标表示,记所有被选取的topK个离散特征为第一离散特征集合I,对应的所有被选取的topK个预设离散特征向量为第一离散特征向量集合BI。其中,将第一离散特征向量集合BI确定为样本对象的兴趣离散特征向量。
其中,在推理流程,第一离散特征集合I即可直接进入后处理流程得到兴趣离散特征;在训练流程,第一离散特征向量集合BI将通过预设聚合方式(比如平均、采样、取topA等)聚合成与对象兴趣序列向量Ze相同维度的向量,然后通过Straight-Through算法,将其送入解码器前向解码。
例如,所述预设聚合方式包括平均、采样、取topA等方式。例如,平均方式,可以理解为将第一离散特征向量集合BI包含的所有预设离散特征向量取平均后聚合成与对象兴趣序列向量Ze相同维度的向量。例如,采样方式可以为随机采样、分层采样、水塘采样等中的任一种,可以理解为将第一离散特征向量集合BI包含的所有预设离散特征向量进行采样后聚合成与对象兴趣序列向量Ze相同维度的向量。例如,取topA的方式,可以理解为基于第一离散特征向量集合BI的预设离散特征向量与对象兴趣序列向量中对应的子向量的欧式距离值从大到小进行排序,从排序后的预设离散特征向量中选取位于前topA的向量,其中A大于或等于1,且A小于第一离散特征向量集合BI中的向量个数,可以理解为将第一离散特征向量集合BI包含的所有预设离散特征向量取前topA后聚合成与对象兴趣序列向量Ze相同维度的向量。
其中,直通估计器(Straight-Through Estimator,STE)是一种估算神经网络中阈值操作的梯度的方法,直通估计器采用Straight-Through算法实现,直通估计器将输入的梯度设置为一个等于其输出梯度的阈值函数,而不管该阈值函数本身的实际导数如何。
步骤240,基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列。
例如,如图1所示,给定向量离散化模块输出的兴趣离散特征向量,编解码网络模型中的解码器尝试解码重构出输入的对象行为序列,解码器的输出为样本对象的重构对象行为序列。
可选的,所述基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列,包括:将所述对象行为序列样本进行右移操作,得到右移一位的对象行为序列样本;基于所述解码器对所述兴趣离散特征向量与所述右移一位的对象行为序列样本进行解码处理,得到所述样本对象的重构对象行为序列。
示例性地,解码器在实际运行时,解码器同样会使用对象行为序列样本作为输入,输出重构对象行为序列,只不过输入的对象行为序列样本会右移一位,因此,解码器需要基于兴趣离散特征向量与右移一位的对象行为序列样本进行解码处理以重构对象行为序列样本,最后输出的是样本对象的重构对象行为序列。
可选的,所述解码器包括结构相同的多层解码子网络,其中,上一层解码子网络的输出作为下一层解码子网络的输入,每一层解码子网络包括多头编解码注意力层、第二多头自注意力层、多个第二全连接层、多个第二归一化层和第二残差连接模块,每一层解码子网络中的多头编解码注意力层均用于接收所述向量离散化模块输出的所述兴趣离散特征向量;所述基于所述解码器对所述兴趣离散特征向量与所述右移一位的对象行为序列样本进行解码处理,得到所述样本对象的重构对象行为序列,包括:
将所述右移一位的对象行为序列样本输入第一层解码子网络,以将所述右移一位的对象行为序列样本经过所述第一层解码子网络中的第二多头自注意力层处理后得到第一层上下文感知解码向量,并将所述第一层上下文感知解码向量经过所述第一层解码子网络中的多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于所述第一层解码子网络中的多头编解码注意力层对所述兴趣离散特征向量进行处理,以得到第一层解码向量;
将所述第一层解码向量经过第二层解码子网络中的第二多头自注意力层处理后得到第二层上下文感知解码向量,将所述第二层上下文感知解码向量经过所述第一层解码子网络中的多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于所述第二层解码子网络中的多头编解码注意力层对所述兴趣离散特征向量进行处理,以得到第二层解码向量;
将上一层解码子网络的输出作为下一层解码子网络的输入,在最后一层解码子网络中,将经最后一层解码子网络输出的最后一层解码向量,作为所述样本对象的重构对象行为序列。
请参阅图3,解码器的结构与编码器的结构类似,解码器与编码器的主要差别在两点:(1)在第二多头自注意力层的注意力矩阵中使用了掩码操作,使得第二多头自注意力层完成上下文感知得到上下文感知解码向量时,对序列中的行为每一次只能感知到之前发生的行为。(2)除了第二多头自注意力层外,解码器中还增加了一个多头编解码注意力层,多头编解码注意力层用于处理向量离散化模块的输出,并接收来自编码器的信号。
示例性地,解码器在实际运行时,解码器同样会使用对象行为序列样本作为输入,输出重构对象行为序列,只不过输入的对象行为序列样本会右移一位。与自然语言处理中的文本生成类似,该右移操作配合解码器中的掩码注意力矩阵实现单向建模,目的是给定对象行为序列样本中的前t-1次行为,让解码器学习,并重构出第t次行为。解码器输入右移一位的对象行为序列样本,经过多层解码子网络,其中每层解码子网络都会接受来自离散化模块的输出(兴趣离散特征向量)。解码器最后一层解码子网络的最后一层解码向量量将用于重构输入序列,以作为样本对象的重构对象行为序列。其中,可以通过重构对象行为序列确定重构损失函数,重构损失函数可以作为主要监督信号训练整个编解码网络模型。
请参阅图3,第一层解码子网络的输入向量是右移一位的对象行为序列样本。对于每一层解码子网络,输入向量经过第二多头自注意力层处理后得到上下文感知解码向量,并将上下文感知解码向量经过多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于多头编解码注意力层对兴趣离散特征向量进行处理,以输出解码向量到下一层解码子网络。
将上一层解码子网络的输出作为下一层解码子网络的输入,在最后一层解码子网络中,将经最后一层解码子网络输出的最后一层解码向量,作为样本对象的重构对象行为序列。
请参阅图3,在第一层解码子网络中,输入向量为右移一位的对象行为序列样本,以及输入来自向量离散化模块的兴趣离散特征向量,输出向量为第一层解码向量;在第二层解码子网络中,输入向量为第一层解码向量,以及输入来自向量离散化模块的兴趣离散特征向量,输出向量为第二层解码向量;在第i层解码子网络中,输入向量为第i-1层解码向量,以及输入来自向量离散化模块的兴趣离散特征向量,输出向量为第i层解码向量,其中,i>2;在最后一层解码子网络中,输入向量为上一层解码向量,以及输入来自向量离散化模块的兴趣离散特征向量,输出向量为最后一层解码向量,将该最后一层解码向量网络中,将经最后一层解码子网络输出的最后一层解码向量,作为样本对象的重构对象行为序列。
步骤250,基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型。
其中,所述训练好的编解码网络模型用于对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征,所述目标兴趣离散特征用于作为下游任务中推荐系统的输入参数,以使所述推荐系统基于所述目标兴趣离散特征生成所述目标对象对应的推荐信息。
可选的,所述基于所述重构对象行为序列训练所述编解码网络模型,包括:根据所述重构对象行为序列与所述对象行为序列样本确定重构损失函数,并基于所述重构损失函数训练所述编解码网络模型,直到所述重构损失函数的数值至达到预设阈值范围,且所述编解码网络模型输出的所述重构对象行为序列对应的第一重构准确率达到第一预设准确率时,得到训练好的编解码网络模型。
其中,可以根据重构对象行为序列与对象行为序列样本确定重构损失函数,重构函数将作为主要监督信号训练整个编解码网络模型,重构损失函数可以表示为如下公式(1):
其中,T表示序列长度;yt表示对象行为序列样本中第t次的真实行为(真实值);c表示编码器编码输入序列之后提供的上下文信息,即c表示向量离散化模块输出的兴趣离散特征向量;P(yt|y1,…,yt-1,c)表示编解码网络模型在已知输入序列信息(对象行为序列样本)和对于前t-1次行为的预测结果的条件下,预测出的重构对象行为序列中第t次的预测行为是真实值yt的概率。
其中,P(yt|y1,…,yt-1,c)在编解码网络模型中的实际表现为,解码器给定输入序列和向量离散化模块输出的兴趣离散特征向量,该输入序列为单向掩码,只看到前t-1次行为的信息,在预测第t次行为时,最后一层输出的概率分布在yt位置的取值。
示例性地,可以通过比对重构对象行为序列与对象行为序列样本,确定重构对象行为序列中重构出来的正确的序列行为,然后根据重构对象行为序列中重构出来的正确的序列行为数除以序列总长度得到第一重构准确率,该序列总长度可以为重构对象行为序列的序列总长度。
例如,基于重构损失函数训练所述编解码网络模型,直到重构损失函数的数值至达到预设阈值范围,且编解码网络模型输出的重构对象行为序列对应的第一重构准确率达到第一预设准确率时,得到训练好的编解码网络模型。例如,预设阈值范围可以为2.0~3.0,第一预设准确率可以为30%~40%。
例如,整个编解码网络模型在训练时可以是天级更新,且每天的数据可以只训练一遍。在实际应用时,以重构序列长度为32、序列中的行为id的量级在千万为例,一般情况下,若第一重构准确率达到30%~40%,重构损失函数的数值(即重构的交叉熵损失均值)到2.0~3.0左右,则可以认为编解码网络模型能够产出有意义的目标兴趣离散特征,得到训练好的编解码网络模型。
可选的,所述方法还包括:在训练过程中,基于预设聚合方式将所述兴趣离散特征向量聚合成与所述对象兴趣序列向量维度相同的向量,得到聚合后的兴趣离散特征向量;基于直通估计器,将所述聚合后的兴趣离散特征向量向前传播以输入所述解码器进行前向解码,并通过反向传播更新所述编码器的梯度。
其中,在训练流程,第一离散特征向量集合BI将通过预设聚合方式(比如平均、采样、取topA等)聚合成与对象兴趣序列向量Ze相同维度的向量,然后通过Straight-Through算法,将其送入解码器前向解码,其计算过程表示为公式(2):
Ze+sg(BI-Ze) (2);
其中,sg表示梯度切断操作,前向传播时sg(x)=x,反向传播时sg(x)=0;Ze表示样本对象的对象兴趣序列向量;在公式(2)中,BI表示聚合后的样本对象的兴趣离散特征向量。如上公式(2)的含义为:前向传播时传递BI给解码器,反向传播时将解码器传给的BI梯度复制给Ze进行编码器的梯度更新,以解决离散化过程中梯度不可导,无法端到端训练的问题。
例如,所述预设聚合方式包括平均、采样、取topA等方式。例如,平均方式,可以理解为将第一离散特征向量集合BI包含的所有预设离散特征向量取平均后聚合成与对象兴趣序列向量Ze相同维度的向量。例如,采样方式可以为随机采样、分层采样、水塘采样等中的任一种,可以理解为将第一离散特征向量集合BI包含的所有预设离散特征向量进行采样后聚合成与对象兴趣序列向量Ze相同维度的向量。例如,取topA的方式,可以理解为基于第一离散特征向量集合BI的预设离散特征向量与对象兴趣序列向量中对应的子向量的欧式距离值从大到小进行排序,从排序后的预设离散特征向量中选取位于前topA的向量,其中A大于或等于1,且A小于第一离散特征向量集合BI中的向量个数,可以理解为将第一离散特征向量集合BI包含的所有预设离散特征向量取前topA后聚合成与对象兴趣序列向量Ze相同维度的向量。
其中,直通估计器(Straight-Through Estimator,STE)是一种估算神经网络中阈值操作的梯度的方法,直通估计器采用Straight-Through算法实现,直通估计器将输入的梯度设置为一个等于其输出梯度的阈值函数,而不管该阈值函数本身的实际导数如何。
可选的,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述方法还包括:在训练过程中,根据所述对象兴趣序列向量与所述兴趣离散特征向量确定第一辅助损失函数和第二辅助损失函数,以通过添加所述第一辅助损失函数和所述第二辅助损失函数,用于拉近所述向量离散化模块对应的全局离散特征码表中的预设离散特征向量和所述编码器编码后输出的所述对象兴趣序列向量之间距离;其中,所述第一辅助损失函数用于固定所述全局离散特征码表中的预设离散特征向量,以优化所述对象兴趣序列向量;所述第二辅助损失函数用于固定用所述对象兴趣序列向量,以优化所述全局离散特征码表中的预设离散特征向量。
其中,关于全局离散特征码表的具体描述可参上述步骤230中描述的相关内容,此处不再敷述。
示例性地,在训练过程中还可以添加两个辅助损失函数(第一辅助损失函数和第二辅助损失函数),用于拉近全局离散特征码表中的预设离散特征向量和编码器编码后输出的对象兴趣序列向量向量之间距离,来更新全局离散特征码表中离散特征的表示。其中,第一辅助损失函数和第二辅助损失函数分别表示为如下公式(3)和公式(4):
Lcommit=MSE(Ze,sg(BI)) (3);
Lvq=MSE(sg(Ze),BI) (4);
其中,Lcommit表示的第一辅助损失函数用于固定全局离散特征码表中的预设离散特征向量,以优化对象兴趣序列向量;Lvq表示的第二辅助损失函数用于固定对象兴趣序列向量,以优化全局离散特征码表中的预设离散特征向量。其中,sg表示梯度切断操作,前向传播时sg(x)=x,反向传播时sg(x)=0;Ze表示样本对象的对象兴趣序列向量;BI表示样本对象的兴趣离散特征向量;MSE表示均方误差。
示例性地,在正常情况下,两个辅助损失函数能很快降低到小于1.0的水平,认为有效。在理想情况下,两个辅助损失函数能从1.0降到0。
步骤260,通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征。
在推理流程中,可以基于训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征,目标兴趣离散特征用于作为下游任务中推荐系统的输入参数,以使所述推荐系统基于所述目标兴趣离散特征生成所述目标对象对应的推荐信息。
可选的,请参阅5,步骤260可以通过步骤261至步骤263实现,具体为:
步骤261,获取目标对象的对象行为序列,所述对象行为序列是基于所述目标对象的历史行为信息确定的,用于刻画所述目标对象的兴趣偏好。
例如,可以根据待推断的目标对象的历史行为信息生成目标对象的对象行为序列,该对象行为序列蕴含了可以刻画对象兴趣的丰富信息,因此该对象行为序列可以用于刻画该目标对象的兴趣偏好。
例如,获取的历史行为信息可以包括行为类型、行为时间、行为场景、物品种类、物品属性中的一种或多种组合。
例如,行为类型可以包括观看、预览、播放、点击、收藏、加入购物车、成交、交易、订阅等。行为类型可以用于表示对象的短期兴趣、中期兴趣或者长期兴趣。例如,在数据处理过程中,可以组织为一个混合序列通过类别特征区分,也可以直接组织为多个种类的序列分别进行特征建模。比如通过特征建模,可以推断出对象对近期点击过的商品大概率仍然感兴趣,但对于近期购买过的商品一般短期内不再感兴趣。
例如,行为时间可也表示对象行为距离当前请求的时间差。一般来说,对象当前的兴趣与近期行为过的物品更相关。例如,行为时间也可以表示当前行为与下一次行为的时间差。例如,行为时间也可以表示在当前物品上的停留时间。例如,对象在购买某一商品时在详情页的停留时间,停留时间越长一般越感兴趣。
例如,行为场景,表示行为发生的应用场景。对一个商品的点击可以发生在首页推荐,搜索推荐和广告推荐,同一种行为在不同应用场景下含有不同的意义。
例如,物品种类表示行为序列中的物品所属种类,比如物品种类可以是查询、项目、评论、音乐、电影、书籍、食物等种类。
例如,物品属性可以包括类目、品牌、厂商、产地等信息。
例如,该目标对象的历史行为信息可以是通过互联网应用记录的目标对象在互联网应用上的进行的所有行为记录。该目标对象的历史行为信息还可以由服务器通过读取对象行为日志、实时采集对象的行为等方式来获取。
可以理解的是,在本申请的具体实施方式中,涉及到对象的历史行为信息等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得对象许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
步骤262,基于训练好的编解码网络模型中的编码器对所述对象行为序列进行兴趣特征编码,得到所述目标对象的目标对象兴趣序列向量。
其中,所述目标对象兴趣序列向量为对象粒度的包含行为序列信息的连续向量式特征。
请参阅图1,本申请提出的方案分为训练流程和推理流程。其中训练流程包含了编码器、向量离散化模块、解码器三部分,推理流程则无需解码器,仅需训练得到的编码器、向量离散化模块并加上简单的后处理策略即可在线推断出高质量的目标兴趣离散特征。
其中,在推理流程中,通过编解码网络模型中的编码器对嵌入编码后的目标对象的对象行为序列进一步编码,得到对象粒度的包含行为序列信息的连续向量式特征,即每一个目标对象产出一个连续向量式特征,将该对象粒度的包含行为序列信息的连续向量式特征确定为目标对象的目标对象兴趣序列向量。
可选的,所述编码器包括结构相同的多层编码子网络,其中,上一层编码子网络的输出作为下一层编码子网络的输入,每一层编码子网络包括第一多头自注意力层、多个第一全连接层、多个第一归一化层和第一残差连接模块;所述基于训练好的编解码网络模型中的编码器对所述对象行为序列进行兴趣特征编码,得到所述目标对象的目标对象兴趣序列向量,包括:
将所述对象行为序列输入第一层编码子网络,以将所述对象行为序列经过所述第一层编码子网络中的第一多头自注意力层处理后得到第一层目标上下文感知编码向量,并将所述第一层目标上下文感知编码向量经过所述第一层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第一层目标编码向量;
将所述第一层目标编码向量经过第二层编码子网络中的第一多头自注意力层处理后得到第二层目标上下文感知编码向量,将所述第二层目标上下文感知编码向量经过所述第二层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第二层目标编码向量;
将上一层编码子网络的输出作为下一层编码子网络的输入,在最后一层编码子网络中,将经最后一层编码子网络中的第一归一化层输出的最后一层目标编码向量再经过一层第一全连接层进行维度转化,以得到所述目标对象对应的多头结构的目标对象兴趣序列向量。
请参阅图3,在推理流程中,第一层编码子网络的输入向量是经过嵌入编码的对象行为序列。对于每一层编码子网络,输入向量经过嵌入编码后,经第一多头自注意力层获得目标上下文感知编码向量,再经过若干个第一全连接层、若干个第一归一化层(layernorm)以及若干个第一残差连接模块的组合增强其表示,以输出目标编码向量到下一层编码子网络。
将上一层编码子网络的输出作为下一层编码子网络的输入,编码器最后一层编码子网络输出的最后一层目标编码向量将再经过一层第一全连接层进行维度转化,变成多头结构(multi-head)的目标对象兴趣序列向量,该目标对象兴趣序列向量为连续向量式特征,以作为向量离散化模块的输入。例如,以8头为例,输入维度为64为例,经过维度转化后则输出维度为8*64=512维。
请参阅图3,在推理流程中,在第一层编码子网络中,输入向量为对象行为序列,多头结构的输出向量为第一层目标编码向量;在第二层编码子网络中,输入向量为第一层目标编码向量,多头结构的输出向量为第二层目标编码向量;在第i层编码子网络中,输入向量为第i-1层目标编码向量,多头结构的输出向量为第i层目标编码向量,其中,i>2;在最后一层编码子网络中,输入向量为上一层目标编码向量,多头结构的输出向量为最后一层目标编码向量,将该最后一层目标编码向量再经过一层第一全连接层进行维度转化,以得到所述目标对象对应的多头结构的目标对象兴趣序列向量。
步骤263,基于所述训练好的编解码网络模型中的向量离散化模块对所述目标对象兴趣序列向量进行离散特征提取,得到所述目标对象的目标兴趣离散特征,所述目标兴趣离散特征用于作为下游任务中推荐系统的输入参数。
请参阅图1及图4,将编码器编码得到的目标对象的目标对象兴趣序列向量(连续向量式特征)输入向量离散化模块进行离散特征提取,向量离散化模块会在一个全局离散特征码表中找出与目标对象兴趣序列向量最相似的预设离散特征向量,并输出该预设离散特征向量及其序号,分别对应该目标对象的目标兴趣离散特征向量和目标兴趣离散特征。
可选的,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述目标对象兴趣序列向量为多头结构的目标对象兴趣序列向量;所述基于所述训练好的编解码网络模型中的向量离散化模块对所述目标对象兴趣序列向量进行离散特征提取,得到所述目标对象的目标兴趣离散特征,包括:
根据欧式距离近邻检索方式,对于所述多头结构的目标对象兴趣序列向量中每个头的子向量,从所述全局离散特征码表中选取与所述每个头的子向量相近的前M个预设离散特征向量以及所述相近的前M个预设离散特征向量对应的离散特征,将所述相近的前M个预设离散特征向量确定为所述目标对象的目标兴趣离散特征向量,以及将所述相近的前M个预设离散特征向量对应的离散特征确定为所述目标对象的目标兴趣离散特征,其中,M为正整数。
示例性地,如图4所示,向量离散化模块维护着一个全局离散特征码表B,全局离散特征码表B中每一个离散特征i对应着一个与目标对象兴趣序列向量维度相同的预设离散特征向量Bi。在推理流程中,给定编码器编码后输出的多头结构的目标对象兴趣序列向量Ze’,向量离散化模块在对目标对象兴趣序列向量Ze’的具体处理过程中,可以根据向量L2距离近邻检索,对目标对象兴趣序列向量Ze’中每个头的子向量Zei’选取全局离散特征码表中最相近(或者相近的topM)的预设离散特征向量、及被选取的topM个预设离散特征向量的离散特征,其中,离散特征可以用对应的预设离散特征向量的下标表示,记所有被选取的topM个离散特征为第二离散特征集合I’,对应的所有被选取的topM个预设离散特征向量为第二离散特征向量集合BI’。其中,将第二离散特征集合I’确定为目标对象的目标兴趣离散特征,将第二离散特征向量集合BI’确定为目标对象的目标兴趣离散特征向量。
例如,该M的取值可以等于K的取值,表示在推理流程中选取的最接近的预设个数M与训练流程中选取的最接近的预设个数K相同。
例如,该M的取值可以小于K的取值,表示在推理流程中选取的最接近的预设个数M小于训练流程中选取的最接近的预设个数K。
可选的,所述目标兴趣离散特征在输入下游任务中推荐系统之前,所述方法还包括:基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,所述已处理的目标兴趣离散特征用于作为下游任务中推荐系统的输入参数;其中,所述后处理策略包括以下任一种:对象过滤策略、离散特征整理策略、滑动窗口更新策略。
示例性地,在推理流程中,在线进行推断时,不存在任何梯度反向传播。将待推断的目标对象的对象行为序列输入编码器前向编码,再经过向量离散化模块得到目标兴趣离散特征之后,一般只需要该目标兴趣离散特征,一般不需要目标兴趣离散特征向量。在基于后处理策略对目标兴趣离散特征进行简单的后处理操作,便可直接作为下游任务中推荐系统的输入参数。
其中,后处理策略为对象过滤策略时需要用到目标兴趣离散特征向量来确定第二重构准确率,进而基于第二重构准确率进行对象过滤。
可选的,若所述后处理策略为所述对象过滤策略,所述目标对象包括多个目标对象,所述目标对象的对象行为序列包括多个目标对象的对象行为序列,所述目标对象的目标兴趣离散特征包括所述多个目标对象中每一目标对象对应的目标兴趣离散特征,所述目标对象的目标兴趣离散特征向量包括所述多个目标对象中每一目标对象对应的目标兴趣离散特征向量;所述基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,包括:基于所述训练好的编解码网络模型中的解码器对所述多个目标对象中每一目标对象对应的所述目标兴趣离散特征向量进行解码处理,得到所述多个目标对象中每一目标对象对应的目标重构对象行为序列;根据所述多个目标对象中每一目标对象对应的目标重构对象行为序列与对象行为序列,确定所述多个目标对象中每一目标对象对应的目标重构对象行为序列对应的第二重构准确率;将所述第二重构准确率低于第二预设准确率对应的待过滤目标对象对应的目标兴趣离散特征从所述多个目标对象对应的目标兴趣离散特征中过滤掉,以得到已处理的目标兴趣离散特征。
示例性地,为了保证目标兴趣离散特征能够准确刻画目标对象的行为,可以在推理时,基于对象过滤策略将目标重构对象行为序列对应的第二重构准确率较低的对象过滤掉。具体的,对象过滤策略可以为:基于训练好的编解码网络模型中的解码器对多个目标对象中每一目标对象对应的目标兴趣离散特征向量进行解码处理,得到多个目标对象中每一目标对象对应的目标重构对象行为序列;并根据多个目标对象中每一目标对象对应的目标重构对象行为序列与对象行为序列,确定多个目标对象中每一目标对象对应的目标重构对象行为序列对应的第二重构准确率,然后将第二重构准确率低于第二预设准确率对应的待过滤目标对象对应的目标兴趣离散特征从多个目标对象对应的目标兴趣离散特征中进行过滤,以得到已处理的目标兴趣离散特征。其中,待过滤目标对象为多个目标对象中第二重构准确率低于第二预设准确率对应的对象。例如,以一个目标对象A对应的第二重构准确率为例,可以通过比对该目标对象A的目标重构对象行为序列与对象行为序列,确定该目标对象A的目标重构对象行为序列中重构出来的正确的序列行为,然后根据该目标对象A的目标重构对象行为序列中重构出来的正确的序列行为数除以序列总长度得到第二重构准确率,该序列总长度可以为该目标对象A的目标重构对象行为序列的序列总长度。
例如,由于本申请实施例采用重构任务,编码器和解码器均由标准的基于自注意力的Transformer网络构成,Transformer网络包含多层结构相同的子网络,上一层子网络的输出作为下一层子网络的输入,因此无论训练集、验证集、测试集均可评估重构准确率。若要应用对象过滤策略,则在推理时不能只推理到向量离散化模块的处理流程,还要推理完解码器的处理流程,通过重构任务得到的重构对象行为序列来计算第二重构准确率,进而过滤第二重构准确率较低的对象。可根据各场景实际模型训练情况灵活调整过滤阈值。
可选的,若所述后处理策略为所述离散特征整理策略,则所述基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,包括:从所述相近的前M个预设离散特征向量对应的离散特征中选取前N个预设离散特征向量对应的离散特征,以得到已处理的目标兴趣离散特征,其中,N为正整数,且N小于M。
示例性地,编解码网络模型在训练时,解码器用到了多头结构的对象编码向量中每个头的子向量中最相近的topK个离散特征。在推理时,视下游应用场景而定,可以基于离散特征整理策略,适当减少K的取值,降低推理时输出给下游的特征数量。例如,在本申请实施例的推理流程中,若向量离散化模块输出的目标对象的目标兴趣离散特征向量包括相近的topM个预设离散特征向量,则可以减少M的取值;比如离散特征整理策略可以为:从相近的topM个预设离散特征向量对应的离散特征中选取topN个预设离散特征向量对应的离散特征,以得到已处理的目标兴趣离散特征,其中,N小于M。例如,训练时解码器使用了每个头相邻的top 10个离散特征信息,推理时只取了其中top 2个离散特征信息,依然能具有比较好的应用效果,且特征占用空间缩小为原来的五分之一。
可选的,若所述后处理策略为所述滑动窗口更新策略,则所述基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,包括:获取预设时间窗口内所述目标对象的多个目标兴趣离散特征,其中,每个目标兴趣离散特征包含所述相近的前M个预设离散特征向量对应的离散特征;根据所述多个目标兴趣离散特征中每个目标兴趣离散特征对应的离散特征的频次以及特征得分,对所述多个目标兴趣离散特征对应的所有离散特征进行合并以及排序,以得到合并后的目标兴趣离散特征,所述合并后的目标兴趣离散特征包括多个第二离散特征;从所述合并后的目标兴趣离散特征对应的多个第二离散特征中选取前预设个数的第二离散特征,以得到已处理的目标兴趣离散特征。
示例性地,目标兴趣离散特征相比连续向量式特征的一大优势就是可以灵活运用策略防止特征漂移。本申请实施例采用的滑动窗口更新策略可以为:获取预设时间窗口内目标对象的a个目标兴趣离散特征,其中每个目标兴趣离散特征中包含有相近的前M个预设离散特征向量对应的离散特征;根据a个目标兴趣离散特征中每个目标兴趣离散特征对应的离散特征的频次以及特征得分,对a个目标兴趣离散特征对应的所有离散特征(a*M个离散特征)进行合并以及排序,以得到合并后的目标兴趣离散特征,合并后的目标兴趣离散特征包括b个第二离散特征,其中,b≤a*M;从合并后的目标兴趣离散特征对应的b个第二离散特征中选取前预设个数(C个)的第二离散特征,以得到已处理的目标兴趣离散特征,其中,a、M、b、C均为正整数。
例如,每一天的目标对象的目标兴趣离散特征并不仅仅由当天的编解码网络模型的推理结果决定,而是可以往前统计一段时间窗口内该目标对象的目标兴趣离散特征,累计之后按频次、与编码向量(目标对象兴趣序列向量)距离进行排序,取topC特征作为最终表示。这样能够有效提升目标兴趣离散特征的稳定性。
在实际应用中,对每个目标兴趣离散特征,取向量离散化模块中L2距离近邻检索时,将该目标离散特征向量包含的相近的前M个预设离散特征向量中每个预设离散特征向量与目标对象兴趣序列向量的L2距离的倒数,作为该目标兴趣离散特征中相近的前M个预设离散特征向量对应的离散特征中每个离散特征的得分。示例性地,预设时间窗口以为2天为例,则产出今天的目标兴趣离散特征时,对某一个目标对象,取其昨天推理得到的目标兴趣离散特征:[(1,3.0),(2,1.0),(3,4.0),(4,8.0)],代表昨天得到了四个离散特征:1号、2号、3号和4号,其特征得分分别时3.0、1.0、4.0、8.0。再取今天推理得到的目标兴趣离散特征:[(1,2.0),(3,4.0),(6,6.0),(7,7.0)],代表今天得到了四个离散特征:1号、3号、6号和7号,其特征得分分别时2.0、4.0、6.0、7.0。将今天产生的目标兴趣离散特征和昨天产生的目标兴趣离散特征合并后排序,其中,相同的离散特征,合并后的特征得分取两天均值,得到合并后的目标兴趣离散特征:[(3,4.0),(1,2.5),(4,8.0),(7,7.0),(6,6.0),(2,1.0)],其中3号和1号因为出现了两次,排在前面,又因为3号的特征得分均值比1号高,所以3号排在第一。最终取top4,即3、1、4、7号特征。以滑动窗口更新能够有效提升目标兴趣离散特征的稳定性,即目标兴趣离散特征每天不会发生突变。
本申请提出了一套根据对象行为序列产出目标兴趣离散特征用于下游推荐系统的方案,包含了编码器、向量离散化模块、解码器三个模块。与相关技术的推荐系统中基于对象行为序列产出的连续向量式特征(embedding)相比,本申请提出的目标兴趣离散特征仅在预定义的、有限的离散空间内,避免了占用空间大、特征漂移等问题,此外本申请提出的目标兴趣离散特征能够对应上对象的具体行为,可解释性强,具体为具有可解释性强、占用空间小、特征不容易漂移等特点。与相关技术的推荐系统中基于对象行为序列统计的离散特征相比,本申请提出的端到端训练方案得到的目标兴趣离散特征考虑了更为丰富的行为序列信息,具有更强的泛化性。本申请提出的方案是在连续向量式特征生产模型的基础上完成特征离散化,兼具了两者优点。如下表1所示,示出了三种特征的差异:
特征 | 可解释性 | 泛化性 | 占用空间 |
基于统计离散特征 | 好 | 差 | 小 |
连续向量类特征 | 差 | 好 | 大 |
本申请的目标兴趣离散特征 | 好 | 好 | 小 |
表1
步骤270,根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
可选的,所述根据所述目标兴趣离散特征向所述目标对象进行信息推荐,包括:通过推荐系统对所述目标兴趣离散特征进行处理,生成所述目标对象对应的推荐信息。
本申请提出的目标兴趣离散特征生成方案可产出高质量的离散特征,并更好地应用于下游推荐系统,例如,可以基于训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征,目标兴趣离散特征用于作为下游任务中推荐系统的输入参数,以使所述推荐系统基于所述目标兴趣离散特征生成所述目标对象对应的推荐信息。推荐系统一般是设计模型,对输入的目标兴趣离散特征、物品特征等进行编码,然后输出目标对象对应的推荐信息,比如输出对该对象推荐该物品的打分,然后将该推荐信息向该目标对象进行信息推荐。本申请基于训练好的编解码网络模型生产目标兴趣离散特征的方案,属于推荐系统的上游,本申请的目标兴趣离散特征可以表征更丰富的对象兴趣偏好,能更好地应用于下游的推荐系统中,可用于任何存在对象行为序列的推荐场景,例如基于对象阅读行为序列进行信息流场景推荐、基于对象广告行为序列进行广告推荐、基于对象观看行为序列进行视频推荐等场景。
示例性地,在实际业务场景中评估了本申请实施例提出的离散特征是否能够有效区分对象的兴趣,包括内容域兴趣和广告域兴趣。给定待评估对象,按照兴趣离散特征的杰卡德距离(Jaccard Distance)找出与待评估对象中兴趣离散特征相近的对象,计算离散特征相近的对象在内容域行为和广告域行为上的重合度,并与随机抽取对象比较,观察具有相似行为的对象是否其兴趣离散特征也相似,以证明兴趣离散特征的有效性。例如,在本申请实施例中,杰卡德距离具体可以采用杰卡德相似系数(Jaccard similaritycoefficient)来实现,杰卡德相似系数表示两个集合A和B的交集元素在A和B的并集中所占的比例,称为两个集合的杰卡德相似系数,用符号J(A,B)表示为:
J(A,B)=|A∩B||A∪B|。
例如,将随机抽取对象的行为重合度定为1,来比较相对值。以内容行为标签重合度为例,随机取10万个对象,基于兴趣离散特征的杰卡德距离,找出每个对象的top 100个相似对象,统计top 100个相似对象的近期行为(例如阅读的文章)的标签,和该top 100个相似对象近期行为的标签的重合个数,再取平均作为重合度。如下表2中的随机基线,即对10万个对象中的每一个对象,不是找top 100个相似对象,而是随机抽100个对象,并计算重合度。下表2列出了各个场景基于兴趣离散特征得到的重合度与随机基线重合度的比值,比值大于1,即说明兴趣离散特征能够有效表征对象,比值越大越好。
内容域的比较结果如下表2所示:
场景 | 内容行为一级分类重合度 | 内容行为标签重合度 |
随机基线 | 1.0 | 1.0 |
场景A | 1.334 | 2.031 |
场景B | 2.517 | 3.704 |
场景C | 1.284 | 1.502 |
表2
广告域的比较结果如下表3所示:
场景 | 广告行为一级分类重合度 | 广告行为二级分类重合度 |
随机基线 | 1.0 | 1.0 |
场景A | 1.212 | 1.407 |
场景B | 1.177 | 1.584 |
场景C | 1.063 | 1.083 |
表3
如表2和表3所示内容,可以看出无论是在内容域还是广告域,本申请提出的兴趣离散特征均能有效表征对象行为序列,能更好地应用于下游推荐系统中。
示例性地,在实际业务应用中,以广告推荐业务为例,在两个业务场景下离线的编解码网络模型评估Recall@10和HR@100均有大于1%的提升。以表2与表3中的评估场景为例,兴趣离散特征表示为16个int16型整数,相比原始连续向量型特征(64个float64浮点数),存储空间减少为1/16,可以为下游的模型留出空间尝试更多的特征。
示例性地,还评估了后处理策略中的滑动窗口更新策略对特征稳定性的提升,如下表4所示:
场景 | 场景A兴趣离散特征稳定度 | 场景B兴趣离散特征稳定度 |
无策略 | 0.622 | 0.251 |
滑动窗口策略 | 0.817 | 0.631 |
表4
如表4所示内容,可以看出后处理策略显著提升了兴趣离散特征的稳定性。
本申请实施例提出了一种结合序列到序列重构任务和向量离散化模块的兴趣离散特征生产方案,其中,序列到序列重构任务所使用的模型为Transformer模型。本申请实施例可以适用于任何序列到序列的模型。例如,任何满足编码器-解码器结构的模型都可以替换本申请实施例中所使用的Transformer模型。
上述所有的技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本申请实施例通过获取样本对象的对象行为序列样本,该对象行为序列样本是基于样本对象的历史行为信息确定的,用于刻画样本对象的兴趣偏好,并基于编解码网络模型中的编码器对对象行为序列样本进行兴趣特征编码,得到样本对象的对象兴趣序列向量,然后基于编解码网络模型中的向量离散化模块对对象兴趣序列向量进行离散特征向量提取,得到样本对象的兴趣离散特征向量,然后基于编解码网络模型中的解码器对样本对象的兴趣离散特征向量进行解码处理,得到样本对象的重构对象行为序列,然后基于重构对象行为序列训练编解码网络模型,得到训练好的编解码网络模型,然后通过训练好的编解码网络模型对目标对象的对象行为序列进行处理得到目标对象的目标兴趣离散特征,并根据目标兴趣离散特征向目标对象进行信息推荐。本申请实施例在训练阶段,基于编解码网络模型中的编码器、向量离散化模块和解码器对对象行为序列样本进行重构,得到重构对象行为序列,并通过模型输出的重构对象行为序列来进行端到端的训练,使得训练后得出的目标兴趣离散特征,相比基于统计的离散特征,具有更丰富的行为序列信息,具有更强的泛化性;相比连续向量式特征,本申请的目标兴趣离散特征,仅在预定义的、有限的离散空间内,避免了占用空间大、特征漂移等问题,此外本申请的目标兴趣离散特征能够对应对象的具体行为,可解释性强;本申请的目标兴趣离散特征可以表征更丰富的对象兴趣偏好,能更好地应用于下游的推荐系统中,根据目标兴趣离散特征向目标对象进行信息推荐,可以向目标对象推荐更贴近对象兴趣偏好的推荐信息。
为便于更好的实施本申请实施例的推荐信息处理方法,本申请实施例还提供一种推荐信息处理装置。请参阅图6,图6为本申请实施例提供的推荐信息处理装置的结构示意图。其中,该推荐信息处理装置600可以包括:
获取单元610,用于获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好;
编码单元620,用于基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量;
离散化单元630,用于基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量;
解码单元640,用于基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列;
训练单元650,用于基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型;
处理单元660,用于通过所述训练好的编解码网络模型用于对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征;
推荐单元670,用于根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
可选的,所述编码器包括结构相同的多层编码子网络,其中,上一层编码子网络的输出作为下一层编码子网络的输入,每一层编码子网络包括第一多头自注意力层、多个第一全连接层、多个第一归一化层和第一残差连接模块;所述编码单元620,具体用于:将所述对象行为序列样本输入第一层编码子网络,以将所述对象行为序列样本经过所述第一层编码子网络中的第一多头自注意力层处理后得到第一层上下文感知编码向量,并将所述第一层上下文感知编码向量经过所述第一层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第一层编码向量;将所述第一层编码向量经过第二层编码子网络中的第一多头自注意力层处理后得到第二层上下文感知编码向量,将所述第二层上下文感知编码向量经过所述第二层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第二层编码向量;将上一层编码子网络的输出作为下一层编码子网络的输入,在最后一层编码子网络中,将经最后一层编码子网络中的第一归一化层输出的最后一层编码向量再经过一层第一全连接层进行维度转化,以得到所述样本对象对应的多头结构的对象兴趣序列向量。
可选的,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述对象兴趣序列向量为多头结构的对象兴趣序列向量;所述离散化单元630,具体用于:根据欧式距离近邻检索方式,对于所述多头结构的对象兴趣序列向量中每个头的子向量,从所述全局离散特征码表中选取与所述每个头的子向量相近的前K个预设离散特征向量以及所述相近的前K个预设离散特征向量对应的离散特征,将所述相近的前K个预设离散特征向量确定为所述样本对象的兴趣离散特征向量,其中,K为正整数。
可选的,所述解码单元640,具体用于:将所述对象行为序列样本进行右移操作,得到右移一位的对象行为序列样本;基于所述解码器对所述兴趣离散特征向量与所述右移一位的对象行为序列样本进行解码处理,得到所述样本对象的重构对象行为序列。
可选的,所述解码器包括结构相同的多层解码子网络,其中,上一层解码子网络的输出作为下一层解码子网络的输入,每一层解码子网络包括多头编解码注意力层、第二多头自注意力层、多个第二全连接层、多个第二归一化层和第二残差连接模块,每一层解码子网络中的多头编解码注意力层均用于接收所述向量离散化模块输出的所述兴趣离散特征向量;
所述解码单元640在基于所述解码器对所述兴趣离散特征向量与所述右移一位的对象行为序列样本进行解码处理,得到所述样本对象的重构对象行为序列时,具体用于:将所述右移一位的对象行为序列样本输入第一层解码子网络,以将所述右移一位的对象行为序列样本经过所述第一层解码子网络中的第二多头自注意力层处理后得到第一层上下文感知解码向量,并将所述第一层上下文感知解码向量经过所述第一层解码子网络中的多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于所述第一层解码子网络中的多头编解码注意力层对所述兴趣离散特征向量进行处理,以得到第一层解码向量;将所述第一层解码向量经过第二层解码子网络中的第二多头自注意力层处理后得到第二层上下文感知解码向量,将所述第二层上下文感知解码向量经过所述第一层解码子网络中的多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于所述第二层解码子网络中的多头编解码注意力层对所述兴趣离散特征向量进行处理,以得到第二层解码向量;将上一层解码子网络的输出作为下一层解码子网络的输入,在最后一层解码子网络中,将经最后一层解码子网络输出的最后一层解码向量,作为所述样本对象的重构对象行为序列。
可选的,所述训练单元650,具体用于:根据所述重构对象行为序列与所述对象行为序列样本确定重构损失函数,并基于所述重构损失函数训练所述编解码网络模型,直到所述重构损失函数的数值至达到预设阈值范围,且所述编解码网络模型输出的所述重构对象行为序列对应的第一重构准确率达到第一预设准确率时,得到训练好的编解码网络模型。
可选的,所述训练单元650,还用于:在训练过程中,基于预设聚合方式将所述兴趣离散特征向量聚合成与所述对象兴趣序列向量维度相同的向量,得到聚合后的兴趣离散特征向量;基于直通估计器,将所述聚合后的兴趣离散特征向量向前传播以输入所述解码器进行前向解码,并通过反向传播更新所述编码器的梯度。
可选的,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述训练单元650,还用于:在训练过程中,根据所述对象兴趣序列向量与所述兴趣离散特征向量确定第一辅助损失函数和第二辅助损失函数,以通过添加所述第一辅助损失函数和所述第二辅助损失函数,用于拉近所述向量离散化模块对应的全局离散特征码表中的预设离散特征向量和所述编码器编码后输出的所述对象兴趣序列向量之间距离;其中,所述第一辅助损失函数用于固定所述全局离散特征码表中的预设离散特征向量,以优化所述对象兴趣序列向量;所述第二辅助损失函数用于固定用所述对象兴趣序列向量,以优化所述全局离散特征码表中的预设离散特征向量。
请参阅图7,其中,所述处理单元660可以包括:
获取子单元661,用于获取目标对象的对象行为序列,所述对象行为序列是基于所述目标对象的历史行为信息确定的,用于刻画所述目标对象的兴趣偏好;
编码子单元662,用于基于训练好的编解码网络模型中的编码器对所述对象行为序列进行兴趣特征编码,得到所述目标对象的目标对象兴趣序列向量;
离散化子单元663,用于基于所述训练好的编解码网络模型中的向量离散化模块对所述目标对象兴趣序列向量进行离散特征提取,得到所述目标对象的目标兴趣离散特征,所述目标兴趣离散特征用于作为下游任务中推荐系统的输入参数。
可选的,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述目标对象兴趣序列向量为多头结构的目标对象兴趣序列向量;所述离散化子单元663,具体用于:根据欧式距离近邻检索方式,对于所述多头结构的目标对象兴趣序列向量中每个头的子向量,从所述全局离散特征码表中选取与所述每个头的子向量相近的前M个预设离散特征向量以及所述相近的前M个预设离散特征向量对应的离散特征,将所述相近的前M个预设离散特征向量确定为所述目标对象的目标兴趣离散特征向量,以及将所述相近的前M个预设离散特征向量对应的离散特征确定为所述目标对象的目标兴趣离散特征,其中,M为正整数。
可选的,所述处理单元660还包括后处理子单元664,用于:基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,所述已处理的目标兴趣离散特征用于作为下游任务中推荐系统的输入参数;其中,所述后处理策略包括以下任一种:对象过滤策略、离散特征整理策略、滑动窗口更新策略。
可选的,若所述后处理策略为所述对象过滤策略,所述目标对象包括多个目标对象,所述目标对象的对象行为序列包括多个目标对象的对象行为序列,所述目标对象的目标兴趣离散特征包括所述多个目标对象中每一目标对象对应的目标兴趣离散特征,所述目标对象的目标兴趣离散特征向量包括所述多个目标对象中每一目标对象对应的目标兴趣离散特征向量;
则所述后处理子单元664,具体用于:基于所述训练好的编解码网络模型中的解码器对所述多个目标对象中每一目标对象对应的所述目标兴趣离散特征向量进行解码处理,得到所述多个目标对象中每一目标对象对应的目标重构对象行为序列;根据所述多个目标对象中每一目标对象对应的目标重构对象行为序列与对象行为序列,确定所述多个目标对象中每一目标对象对应的目标重构对象行为序列对应的第二重构准确率;将所述第二重构准确率低于第二预设准确率对应的待过滤目标对象对应的目标兴趣离散特征从所述多个目标对象对应的目标兴趣离散特征中过滤掉,以得到已处理的目标兴趣离散特征。
可选的,若所述后处理策略为所述离散特征整理策略,则所述后处理子单元664,具体用于:从所述相近的前M个预设离散特征向量对应的离散特征中选取前N个预设离散特征向量对应的离散特征,以得到已处理的目标兴趣离散特征,其中,N为正整数,且N小于M。
可选的,若所述后处理策略为所述滑动窗口更新策略,则所述后处理子单元664,具体用于:获取预设时间窗口内所述目标对象的多个目标兴趣离散特征,其中,每个目标兴趣离散特征包含所述相近的前M个预设离散特征向量对应的离散特征;根据所述多个目标兴趣离散特征中每个目标兴趣离散特征对应的离散特征的频次以及特征得分,对所述多个目标兴趣离散特征对应的所有离散特征进行合并以及排序,以得到合并后的目标兴趣离散特征,所述合并后的目标兴趣离散特征包括多个第二离散特征;从所述合并后的目标兴趣离散特征对应的多个第二离散特征中选取前预设个数的第二离散特征,以得到已处理的目标兴趣离散特征。
需要说明的是,本申请实施例中的推荐信息处理装置600中各模块的功能可对应参考上述各方法实施例中任意实施例的具体实现方式,这里不再赘述。
上述装置中的各个单元可全部或部分通过软件、硬件及其组合来实现。上述各个单元可以以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行上述各个单元对应的操作。
例如,推荐信息处理装置600可以集成在具备储存器并安装有处理器而具有运算能力的终端或服务器中,或者该推荐信息处理装置600为该终端或服务器。该终端可以为智能手机、平板电脑、笔记本电脑、智能电视、智能音箱、穿戴式智能设备、个人计算机(Personal Computer,PC)等设备,终端还可以包括客户端,该客户端可以是视频客户端、浏览器客户端或即时通信客户端等。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
可选的,本申请还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
图8为本申请实施例提供的计算机设备的示意性结构图,如图8所示,计算机设备800可以包括:通信接口801,存储器802,处理器803和通信总线804。通信接口801,存储器802,处理器803通过通信总线804实现相互间的通信。通信接口801用于装置800与外部设备进行数据通信。存储器802可用于存储软件程序以及模块,处理器803通过运行存储在存储器802的软件程序以及模块,例如前述方法实施例中的相应操作的软件程序。
可选的,该处理器803可以调用存储在存储器802的软件程序以及模块执行如下操作:获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好;基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量;基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量;基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列;基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型;通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征;根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
可选的,计算机设备800例如可以集成在具备储存器并安装有处理器而具有运算能力的终端或服务器中,或者该计算机设备800为该终端或服务器。该终端可以为智能手机、平板电脑、笔记本电脑、智能电视、智能音箱、穿戴式智能设备、个人计算机等设备。该服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
本申请还提供了一种计算机可读存储介质,用于存储计算机程序。该计算机可读存储介质可应用于计算机设备,并且该计算机程序使得计算机设备执行本申请实施例中的上述各方法中的相应流程,为了简洁,在此不再赘述。
本申请还提供了一种计算机程序产品,该计算机程序产品包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得计算机设备执行本申请实施例中的上述各方法中的相应流程,为了简洁,在此不再赘述。
本申请还提供了一种计算机程序,该计算机程序包括计算机指令,计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得计算机设备执行本申请实施例中的上述各方法中的相应流程,为了简洁,在此不再赘述。
应理解,本申请实施例的处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data RateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (19)
1.一种推荐信息处理方法,其特征在于,所述方法包括:
获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好;
基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量;
基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量;
基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列;
基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型;
通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征;
根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
2.如权利要求1所述的推荐信息处理方法,其特征在于,所述编码器包括结构相同的多层编码子网络,其中,上一层编码子网络的输出作为下一层编码子网络的输入,每一层编码子网络包括第一多头自注意力层、多个第一全连接层、多个第一归一化层和第一残差连接模块;
所述基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量,包括:
将所述对象行为序列样本输入第一层编码子网络,以将所述对象行为序列样本经过所述第一层编码子网络中的第一多头自注意力层处理后得到第一层上下文感知编码向量,并将所述第一层上下文感知编码向量经过所述第一层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第一层编码向量;
将所述第一层编码向量经过第二层编码子网络中的第一多头自注意力层处理后得到第二层上下文感知编码向量,将所述第二层上下文感知编码向量经过所述第二层编码子网络中的多个第一全连接层、多个第一归一化层和第一残差连接模块的组合增强处理后,得到第二层编码向量;
将上一层编码子网络的输出作为下一层编码子网络的输入,在最后一层编码子网络中,将经最后一层编码子网络中的第一归一化层输出的最后一层编码向量再经过一层第一全连接层进行维度转化,以得到所述样本对象对应的多头结构的对象兴趣序列向量。
3.如权利要求1所述的推荐信息处理方法,其特征在于,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述对象兴趣序列向量为多头结构的对象兴趣序列向量;
所述基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量,包括:
根据欧式距离近邻检索方式,对于所述多头结构的对象兴趣序列向量中每个头的子向量,从所述全局离散特征码表中选取与所述每个头的子向量相近的前K个预设离散特征向量以及所述相近的前K个预设离散特征向量对应的离散特征,将所述相近的前K个预设离散特征向量确定为所述样本对象的兴趣离散特征向量,其中,K为正整数。
4.如权利要求1所述的推荐信息处理方法,其特征在于,所述基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列,包括:
将所述对象行为序列样本进行右移操作,得到右移一位的对象行为序列样本;
基于所述解码器对所述兴趣离散特征向量与所述右移一位的对象行为序列样本进行解码处理,得到所述样本对象的重构对象行为序列。
5.如权利要求4所述的推荐信息处理方法,其特征在于,所述解码器包括结构相同的多层解码子网络,其中,上一层解码子网络的输出作为下一层解码子网络的输入,每一层解码子网络包括多头编解码注意力层、第二多头自注意力层、多个第二全连接层、多个第二归一化层和第二残差连接模块,每一层解码子网络中的多头编解码注意力层均用于接收所述向量离散化模块输出的所述兴趣离散特征向量;
所述基于所述解码器对所述兴趣离散特征向量与所述右移一位的对象行为序列样本进行解码处理,得到所述样本对象的重构对象行为序列,包括:
将所述右移一位的对象行为序列样本输入第一层解码子网络,以将所述右移一位的对象行为序列样本经过所述第一层解码子网络中的第二多头自注意力层处理后得到第一层上下文感知解码向量,并将所述第一层上下文感知解码向量经过所述第一层解码子网络中的多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于所述第一层解码子网络中的多头编解码注意力层对所述兴趣离散特征向量进行处理,以得到第一层解码向量;
将所述第一层解码向量经过第二层解码子网络中的第二多头自注意力层处理后得到第二层上下文感知解码向量,将所述第二层上下文感知解码向量经过所述第一层解码子网络中的多个第二全连接层、多个第二归一化层和第二残差连接模块的组合增强处理,并基于所述第二层解码子网络中的多头编解码注意力层对所述兴趣离散特征向量进行处理,以得到第二层解码向量;
将上一层解码子网络的输出作为下一层解码子网络的输入,在最后一层解码子网络中,将经最后一层解码子网络输出的最后一层解码向量,作为所述样本对象的重构对象行为序列。
6.如权利要求1-5任一项所述的推荐信息处理方法,其特征在于,所述基于所述重构对象行为序列训练所述编解码网络模型,包括:
根据所述重构对象行为序列与所述对象行为序列样本确定重构损失函数,并基于所述重构损失函数训练所述编解码网络模型,直到所述重构损失函数的数值至达到预设阈值范围,且所述编解码网络模型输出的所述重构对象行为序列对应的第一重构准确率达到第一预设准确率时,得到训练好的编解码网络模型。
7.如权利要求6所述的推荐信息处理方法,其特征在于,所述方法还包括:
在训练过程中,基于预设聚合方式将所述兴趣离散特征向量聚合成与所述对象兴趣序列向量维度相同的向量,得到聚合后的兴趣离散特征向量;
基于直通估计器,将所述聚合后的兴趣离散特征向量向前传播以输入所述解码器进行前向解码,并通过反向传播更新所述编码器的梯度。
8.如权利要求6所述的推荐信息处理方法,其特征在于,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述方法还包括:
在训练过程中,根据所述对象兴趣序列向量与所述兴趣离散特征向量确定第一辅助损失函数和第二辅助损失函数,以通过添加所述第一辅助损失函数和所述第二辅助损失函数,用于拉近所述向量离散化模块对应的全局离散特征码表中的预设离散特征向量和所述编码器编码后输出的所述对象兴趣序列向量之间距离;
其中,所述第一辅助损失函数用于固定所述全局离散特征码表中的预设离散特征向量,以优化所述对象兴趣序列向量;
所述第二辅助损失函数用于固定用所述对象兴趣序列向量,以优化所述全局离散特征码表中的预设离散特征向量。
9.如权利要求1所述的推荐信息处理方法,其特征在于,所述通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征,包括:
获取目标对象的对象行为序列,所述对象行为序列是基于所述目标对象的历史行为信息确定的,用于刻画所述目标对象的兴趣偏好;
基于训练好的编解码网络模型中的编码器对所述对象行为序列进行兴趣特征编码,得到所述目标对象的目标对象兴趣序列向量;
基于所述训练好的编解码网络模型中的向量离散化模块对所述目标对象兴趣序列向量进行离散特征提取,得到所述目标对象的目标兴趣离散特征,所述目标兴趣离散特征用于作为下游任务中推荐系统的输入参数。
10.如权利要求9所述的推荐信息处理方法,其特征在于,所述向量离散化模块对应一个全局离散特征码表,所述全局离散特征码表中的每一个离散特征对应一个与所述对象兴趣序列向量维度相同的预设离散特征向量;所述目标对象兴趣序列向量为多头结构的目标对象兴趣序列向量;
所述基于所述训练好的编解码网络模型中的向量离散化模块对所述目标对象兴趣序列向量进行离散特征提取,得到所述目标对象的目标兴趣离散特征,包括:
根据欧式距离近邻检索方式,对于所述多头结构的目标对象兴趣序列向量中每个头的子向量,从所述全局离散特征码表中选取与所述每个头的子向量相近的前M个预设离散特征向量以及所述相近的前M个预设离散特征向量对应的离散特征,将所述相近的前M个预设离散特征向量确定为所述目标对象的目标兴趣离散特征向量,以及将所述相近的前M个预设离散特征向量对应的离散特征确定为所述目标对象的目标兴趣离散特征,其中,M为正整数。
11.如权利要求10所述的推荐信息处理方法,其特征在于,所述目标兴趣离散特征在输入下游任务中推荐系统之前,所述方法还包括:
基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,所述已处理的目标兴趣离散特征用于作为下游任务中推荐系统的输入参数;
其中,所述后处理策略包括以下任一种:对象过滤策略、离散特征整理策略、滑动窗口更新策略。
12.如权利要求11所述的推荐信息处理方法,其特征在于,若所述后处理策略为所述对象过滤策略,所述目标对象包括多个目标对象,所述目标对象的对象行为序列包括多个目标对象的对象行为序列,所述目标对象的目标兴趣离散特征包括所述多个目标对象中每一目标对象对应的目标兴趣离散特征,所述目标对象的目标兴趣离散特征向量包括所述多个目标对象中每一目标对象对应的目标兴趣离散特征向量;
所述基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,包括:
基于所述训练好的编解码网络模型中的解码器对所述多个目标对象中每一目标对象对应的所述目标兴趣离散特征向量进行解码处理,得到所述多个目标对象中每一目标对象对应的目标重构对象行为序列;
根据所述多个目标对象中每一目标对象对应的目标重构对象行为序列与对象行为序列,确定所述多个目标对象中每一目标对象对应的目标重构对象行为序列对应的第二重构准确率;
将所述第二重构准确率低于第二预设准确率对应的待过滤目标对象对应的目标兴趣离散特征从所述多个目标对象对应的目标兴趣离散特征中过滤掉,以得到已处理的目标兴趣离散特征。
13.如权利要求11所述的推荐信息处理方法,其特征在于,若所述后处理策略为所述离散特征整理策略,则所述基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,包括:
从所述相近的前M个预设离散特征向量对应的离散特征中选取前N个预设离散特征向量对应的离散特征,以得到已处理的目标兴趣离散特征,其中,N为正整数,且N小于M。
14.如权利要求11所述的推荐信息处理方法,其特征在于,若所述后处理策略为所述滑动窗口更新策略,则所述基于后处理策略对所述目标兴趣离散特征进行后处理操作,得到已处理的目标兴趣离散特征,包括:
获取预设时间窗口内所述目标对象的多个目标兴趣离散特征,其中,每个目标兴趣离散特征包含所述相近的前M个预设离散特征向量对应的离散特征;
根据所述多个目标兴趣离散特征中每个目标兴趣离散特征对应的离散特征的频次以及特征得分,对所述多个目标兴趣离散特征对应的所有离散特征进行合并以及排序,以得到合并后的目标兴趣离散特征,所述合并后的目标兴趣离散特征包括多个第二离散特征;
从所述合并后的目标兴趣离散特征对应的多个第二离散特征中选取前预设个数的第二离散特征,以得到已处理的目标兴趣离散特征。
15.如权利要求1所述的推荐信息处理方法,其特征在于,所述根据所述目标兴趣离散特征向所述目标对象进行信息推荐,包括:
通过推荐系统对所述目标兴趣离散特征进行处理,生成所述目标对象对应的推荐信息。
16.一种推荐信息处理装置,其特征在于,所述装置包括:
获取单元,用于获取样本对象的对象行为序列样本,所述对象行为序列样本是基于所述样本对象的历史行为信息确定的,用于刻画所述样本对象的兴趣偏好;
编码单元,用于基于编解码网络模型中的编码器对所述对象行为序列样本进行兴趣特征编码,得到所述样本对象的对象兴趣序列向量;
离散化单元,用于基于所述编解码网络模型中的向量离散化模块对所述对象兴趣序列向量进行离散特征向量提取,得到所述样本对象的兴趣离散特征向量;
解码单元,用于基于所述编解码网络模型中的解码器对所述兴趣离散特征向量进行解码处理,得到所述样本对象的重构对象行为序列;
训练单元,用于基于所述重构对象行为序列训练所述编解码网络模型,得到训练好的编解码网络模型;
处理单元,用于通过所述训练好的编解码网络模型对目标对象的对象行为序列进行处理得到所述目标对象的目标兴趣离散特征;
推荐单元,用于根据所述目标兴趣离散特征向所述目标对象进行信息推荐。
17.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如权利要求1-15任一项所述的推荐信息处理方法。
18.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行如权利要求1-15任一项所述的推荐信息处理方法。
19.一种计算机程序产品,包括计算机指令,其特征在于,所述计算机指令被处理器执行时实现如权利要求1-15任一项所述的推荐信息处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211074168.8A CN117033751A (zh) | 2022-09-02 | 2022-09-02 | 推荐信息处理方法、装置、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211074168.8A CN117033751A (zh) | 2022-09-02 | 2022-09-02 | 推荐信息处理方法、装置、存储介质及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117033751A true CN117033751A (zh) | 2023-11-10 |
Family
ID=88623193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211074168.8A Pending CN117033751A (zh) | 2022-09-02 | 2022-09-02 | 推荐信息处理方法、装置、存储介质及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117033751A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522532A (zh) * | 2024-01-08 | 2024-02-06 | 浙江大学 | 一种流行度纠偏推荐方法、装置、电子设备及存储介质 |
-
2022
- 2022-09-02 CN CN202211074168.8A patent/CN117033751A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522532A (zh) * | 2024-01-08 | 2024-02-06 | 浙江大学 | 一种流行度纠偏推荐方法、装置、电子设备及存储介质 |
CN117522532B (zh) * | 2024-01-08 | 2024-04-16 | 浙江大学 | 一种流行度纠偏推荐方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111931062B (zh) | 一种信息推荐模型的训练方法和相关装置 | |
CN111898031A (zh) | 一种获得用户画像的方法及装置 | |
CN111127146A (zh) | 基于卷积神经网络与降噪自编码器的信息推荐方法及系统 | |
CN112016002A (zh) | 融合评论文本层级注意力和时间因素的混合推荐方法 | |
Wang et al. | Recurrent recommendation with local coherence | |
Yue et al. | Multiple auxiliary information based deep model for collaborative filtering | |
CN115168744A (zh) | 基于用户画像和知识图谱的广电技术知识推荐方法 | |
Wang et al. | A new approach for advertising CTR prediction based on deep neural network via attention mechanism | |
CN114692007B (zh) | 表示信息的确定方法、装置、设备及存储介质 | |
Chonwiharnphan et al. | Generating realistic users using generative adversarial network with recommendation-based embedding | |
CN117033751A (zh) | 推荐信息处理方法、装置、存储介质及设备 | |
Liu et al. | TCD-CF: Triple cross-domain collaborative filtering recommendation | |
CN116956183A (zh) | 多媒体资源推荐方法、模型训练方法、装置及存储介质 | |
CN116977701A (zh) | 视频分类模型训练的方法、视频分类的方法和装置 | |
Sabet | Social Media Posts Popularity Prediction During Long-Running Live Events A case study on Fashion Week | |
CN113656560B (zh) | 情感类别的预测方法和装置、存储介质及电子设备 | |
Qi et al. | ScratchGAN: Network representation learning for scratch with preference‐based generative adversarial nets | |
CN114398980A (zh) | 跨模态哈希模型的训练方法、编码方法、装置及电子设备 | |
Yassin et al. | Travel user interest discovery from visual shared data in social networks | |
Wang et al. | A Tri‐Attention Neural Network Model‐BasedRecommendation | |
CN112328879A (zh) | 新闻推荐方法、装置、终端设备及存储介质 | |
CN113569557B (zh) | 信息的质量识别方法、装置、设备、存储介质及程序产品 | |
CN115278374B (zh) | 视频召回方法及装置 | |
JAVADIAN SABET | Social media posts popularity prediction during long-running live events. A case study on fashion week | |
Dingli et al. | Big Social Data-Predicting Users' Interests from their Social Networking Activities |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |