CN113868466A - 视频推荐的方法、装置、设备和存储介质 - Google Patents

视频推荐的方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN113868466A
CN113868466A CN202111472430.XA CN202111472430A CN113868466A CN 113868466 A CN113868466 A CN 113868466A CN 202111472430 A CN202111472430 A CN 202111472430A CN 113868466 A CN113868466 A CN 113868466A
Authority
CN
China
Prior art keywords
vector
video
user
sequence
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111472430.XA
Other languages
English (en)
Other versions
CN113868466B (zh
Inventor
郗巡科
郭飞
王蕾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sohu New Media Information Technology Co Ltd
Original Assignee
Beijing Sohu New Media Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sohu New Media Information Technology Co Ltd filed Critical Beijing Sohu New Media Information Technology Co Ltd
Priority to CN202111472430.XA priority Critical patent/CN113868466B/zh
Publication of CN113868466A publication Critical patent/CN113868466A/zh
Application granted granted Critical
Publication of CN113868466B publication Critical patent/CN113868466B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/735Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种视频推荐的方法、装置、设备和存储介质,方法包括,获取用户的观影序列;通过重复删除用户的观影序列中最后一个视频向量,获得多个子观影序列;利用注意力模型计算得到每一个子观影序列对应的相关系数,并基于子观影序列对应的相关系数获得子观影序列对应的输入向量;利用视频推荐模型分别处理各个子观影序列对应的输入向量,得到多个用户向量;基于各个用户向量进行视频召回,得到多个待推荐视频。本方案利用用户的观影序列产生多个子观影序列,获得该用户的多个用户向量,分别用多个用户向量进行视频召回,从而为用户筛选出多个不同领域的待推荐视频。

Description

视频推荐的方法、装置、设备和存储介质
技术领域
本发明涉及深度学习技术领域,特别涉及一种视频推荐的方法、装置、设备和存储介质。
背景技术
目前各类视频网站经常会采用视频召回(视频推荐)模型从视频库中筛选出用户可能感兴趣的视频(即待推荐视频)并将其推荐给用户。YoutubeNet模型是现有的一种视频推荐模型。该模型在论文《Deep Neural Networks for YouTube Recommendations》中被提出,该模型主要通过分析一个用户以往观看过的视频,得到一个表示该用户的用户向量,然后将该用户向量和各个视频向量进行匹配,选取视频向量与用户向量的相似度较高的前几个视频推荐给用户。
该模型的问题在于,对于一个用户,该模型所得到的用户向量单一且确定,难以充分反映用户的多个维度的兴趣和用户在不同场景下变化的兴趣,导致最后得到的待推荐视频往往集中分布在某一特定领域,无法满足用户观看不同领域的视频的需求。
发明内容
针对上述现有技术存在的问题,本发明提供一种视频推荐的方法、装置、设备和存储介质,以提供一种多领域视频推荐方案。
本申请第一方面提供一种视频推荐的方法,包括:
模型训练过程:
获取用户的观影序列;其中,所述观影序列为所述用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;
将所述观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;
针对每一个所述样本序列,利用预先构建的注意力模型计算得到所述样本序列的相关系数;
针对每一个所述样本序列,基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量,并将所述融合向量与所述样本序列的最后一个视频向量拼接,得到所述样本序列对应的样本向量;
以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型;
视频推荐过程:
删除所述用户的观影序列中最后一个视频向量,得到一个子观影序列;
若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;
利用所述注意力模型计算得到每一个所述子观影序列对应的相关系数;
针对每一个所述子观影序列,基于所述子观影序列对应的相关系数将所述子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将所述子观影序列中最后一个视频向量与所述融合向量拼接,得到所述子观影序列对应的输入向量;
利用所述用户的视频推荐模型分别处理各个所述子观影序列对应的输入向量,得到所述用户的多个用户向量;
基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频。
可选的,所述基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量,包括:
基于所述样本序列的相关系数,对所述样本序列的前M-1个视频向量进行加权求和,得到融合向量。
可选的,所述以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型,包括:
针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量;
针对每一个所述样本用户向量,利用最近邻搜索算法进行视频召回,得到所述样本用户向量对应的样本视频向量;
分别计算每一个所述样本视频向量与所述标签向量的相似度,并根据各个所述样本视频向量与所述标签向量的相似度计算得到所述深度神经网络的损失值;
若所述损失值不满足预设的收敛条件,根据所述损失值更新所述深度神经网络的参数,返回执行所述针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量,直至所述损失值满足所述收敛条件为止;
若所述损失值满足所述收敛条件,将当前的深度神经网络确定为所述用户的视频推荐模型。
可选的,所述基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频,包括:
针对每一个所述用户向量,在视频向量集合中,根据视频向量与所述用户向量的相似度由高至低搜索得到N个目标视频向量;其中,所述视频向量集合包括多个所述用户未观看的视频对应的视频向量;N为预设的正整数;
将所述目标视频向量对应的视频确定为待推荐视频。
本申请第二方面提供一种视频推荐的装置,包括:
获取单元,用于获取用户的观影序列;其中,所述观影序列为所述用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;
划分单元,用于将所述观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;
计算单元,用于针对每一个所述样本序列,利用预先构建的注意力模型计算得到所述样本序列的相关系数;
融合单元,用于针对每一个所述样本序列,基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量,并将所述融合向量与所述样本序列的最后一个视频向量拼接,得到所述样本序列对应的样本向量;
训练单元,用于以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型;
删除单元,用于删除所述用户的观影序列中最后一个视频向量,得到一个子观影序列;
所述删除单元,用于若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;
所述计算单元,用于利用所述注意力模型计算得到每一个所述子观影序列对应的相关系数;
所述融合单元,用于针对每一个所述子观影序列,基于所述子观影序列对应的相关系数将所述子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将所述子观影序列中最后一个视频向量与所述融合向量拼接,得到所述子观影序列对应的输入向量;
处理单元,用于利用所述用户的视频推荐模型分别处理各个所述子观影序列对应的输入向量,得到所述用户的多个用户向量;
召回单元,用于基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频。
可选的,所述融合单元基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量时,具体用于:
基于所述样本序列的相关系数,对所述样本序列的前M-1个视频向量进行加权求和,得到融合向量。
可选的,所述训练单元以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型时,具体用于:
针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量;
针对每一个所述样本用户向量,利用最近邻搜索算法进行视频召回,得到所述样本用户向量对应的样本视频向量;
分别计算每一个所述样本视频向量与所述标签向量的相似度,并根据各个所述样本视频向量与所述标签向量的相似度计算得到所述深度神经网络的损失值;
若所述损失值不满足预设的收敛条件,根据所述损失值更新所述深度神经网络的参数,返回执行所述针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量,直至所述损失值满足所述收敛条件为止;
若所述损失值满足所述收敛条件,将当前的深度神经网络确定为所述用户的视频推荐模型。
可选的,所述召回单元基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频时,具体用于:
针对每一个所述用户向量,在视频向量集合中,根据视频向量与所述用户向量的相似度由高至低搜索得到N个目标视频向量;其中,所述视频向量集合包括多个所述用户未观看的视频对应的视频向量;N为预设的正整数;
将所述目标视频向量对应的视频确定为待推荐视频。
本申请第三方面提供一种电子设备,包括存储器和处理器;
其中,所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序,具体用于实现本申请第一方面任意一项所提供的视频推荐的方法。
本申请第四方面提供一种计算机存储介质,用于存储计算机程序,所述计算机程序被执行时,具体用于实现本申请第一方面任意一项所提供的视频推荐的方法。
本申请提供一种视频推荐的方法、装置、设备和存储介质,方法包括,获取用户的观影序列;其中,观影序列为用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;将观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;针对每一个样本序列,利用预先构建的注意力模型计算得到样本序列的相关系数;针对每一个样本序列,基于样本序列的相关系数将样本序列的前M-1个视频向量融合为一个融合向量,并将融合向量与样本序列的最后一个视频向量拼接,得到样本序列对应的样本向量;以用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型;删除用户的观影序列中最后一个视频向量,得到一个子观影序列;若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;利用注意力模型计算得到每一个子观影序列对应的相关系数;针对每一个子观影序列,基于子观影序列对应的相关系数将子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将子观影序列中最后一个视频向量与融合向量拼接,得到子观影序列对应的输入向量;利用用户的视频推荐模型分别处理各个子观影序列对应的输入向量,得到用户的多个用户向量;基于各个用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给用户的多个待推荐视频。本方案利用用户的观影序列产生多个子观影序列,获得该用户的多个用户向量,分别用多个用户向量进行视频召回,从而为用户筛选出多个不同领域的待推荐视频。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的一种视频推荐的方法的流程图;
图2为本申请实施例提供的一种注意力模型的结构示意图;
图3为本申请实施例提供的一种视频推荐的装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
YoutubeNet模型,是指论文《Deep Neural Networks for YouTubeRecommendations》中提出的一种现有的视频推荐(视频召回)模型,该模型的整体原理是,利用深度神经网络,根据用户的基础特征和上下文环境(即用户的观影序列),来模拟矩阵分解的过程,得到用户的向量表示,再利用这个用户向量在物品向量矩阵中进行最近邻搜索,得到召回结果(即得到可以推荐给用户的视频)。
YoutubeNet模型是目前视频推荐领域被广泛应用的推荐模型。它通过一个深度神经网络来代替用户矩阵的生成过程,即将Dnn最后一层的输出近似作为用户的特征,它没有单独去处理item的特征,而是将item的特征作为用户特征的一部分,一起参与训练。YoutubeNet模型本质上是应用有监督的学习方式去学习用户历史和上下文信息的向量化表示,然后应用Softmax分类器区分视频,从而获得视频向量。其中,Softmax的前一层的输出作为用户的向量,而Softmax层中的权重矩阵的每一行向量作为视频的向量。线上通过最近邻检索的方式,对于每个用户向量,对视频库中的所有视频向量做最近邻算法,得到topK的视频作为召回结果。
注意力机制(又称Attention机制)是指,对输入的每个元素考虑不同的权重参数,从而更加关注与输入的元素相似的部分,而抑制其它无用的信息。其最大的优势就是能一步到位的考虑全局联系和局部联系,使得序列中的相关信息得到有效的提取和利用。
Attention机制也是目前很热门的前沿研究方向,Attention机制主要是通过训练一个注意力计算函数的参数,得到序列中不同部分与label的相关度系数,使得推荐结果能够更集中地关注到相关度更高地物品上,减小了不相干地噪声物品对召回结果的影响。目前比较成功的应用案例是DIN模型(Deep Interest Network),它主要应用于推荐系统的排序过程。它通过引入Self-Attention机制,更容易捕获到观影序列中长距离的相互依赖的特征,使得排序的准确率得到提升,相比于传统的RNN或者LSTM模型,后者需要依照序列次序计算,对于远距离的相互依赖的特征要经过若干时间的信息累积才能联系起来,前者比后者有效捕获长距离信息的可能性较大。
包括YoutubeNet模型在内的多种视频推荐模型,普遍存在用户向量单一化的问题,即只能通过深度神经网络的训练得到某个用户的单一的用户向量,即使提高用户向量的维度,单一的用户向量所包含的信息仍然是有限的,难以涵盖用户的多个兴趣表示,即单个用户向量无法反映用户在多个不同领域的兴趣。例如,一个用户向量可能只能反映用户对某几款汽车感兴趣,而无法反映该用户同时也对某几个服装品牌感兴趣,这样,基于该用户向量进行视频推荐时,只会推荐给该用户与感兴趣的汽车相关的视频,而无法推荐该用户感兴趣的服装品牌的视频,也就是说,单一的用户向量无法满足用户在多个领域的不同兴趣需求。
YoutubeNet模型在将观影序列中多个视频向量融合时,所采用的融合方式是均匀池化,这样会导致观影序列中与当前观看视频相关度低的视频的干扰召回结果,降低训练的准确率,同时丢失了时序信息,对用户观影兴趣变化的刻画有一定的偏差。
另外,单一召回结果不能实现用户多个兴趣之间的融合,降低了兴趣探索的空间。
所以,为了解决现有的视频推荐模型的用户向量单一化问题,本发明结合多兴趣召回和注意力机制,提供了一种视频推荐的方法和相关的装置。
多兴趣召回算法是指,通过对观影序列执行截断操作,基于用户的一个观影序列生成多个子观影序列,将多个子观影序列分别输入神经网络中训练,得到该用户的多个用户向量,多个用户向量能包含更多维度的信息,因此本方案能够通过多个用户向量表征用户在不同场景、不同领域上的多种兴趣,进而在根据用户向量为用户推荐视频时,能够针对用户的多种兴趣而推荐不同的视频,获得更丰富和更精准的视频推荐结果。
例如,假设某用户分别对汽车品牌A,服装品牌B和零食品牌C感兴趣,现有的视频推荐算法所确定的单一的用户向量可能只能反映出该用户对汽车品牌A感兴趣,相应的推荐给该用户的视频就主要是和汽车品牌A相关的视频,而通过本发明的多兴趣召回算法获得的多个用户向量,可以分别反映该用户对汽车品牌A,服装品牌B和零食品牌C感兴趣,这样在推荐视频时,就可以向用户推荐与汽车品牌A、服装品牌B和零食品牌C中的任意一项相关的视频,从而满足用户的多种兴趣需求。
本发明的多兴趣召回算法主要分为三个部分,首先是针对观影序列进行分割,得到多条子序列,将每条子序列都输入深度网络分别进行视频召回;然后利用attention网络,提取出观影序列中的多个用户兴趣的向量化表示,训练过程中,将attention网络的训练目标设定为得到观影序列中前m-1个视频与最后一个视频的关联度,作为融合的权重,然后将前m-1条视频向量进行加权求和,之后与最后一个视频的向量拼接起来,作为用户的向量化表示,区别于原本youtubeDNN所采用的将前m-1条视频的向量池化后拼接的方式,attention模型更能提取出观影序列中与用户当前观看视频相关度高的视频进行视频的召回,对于视频点击率的提升有正向的效果;最后,对多个召回结果进行交叉融合,并提高重复出现的召回结果的排序位,这样多路融合的方式可以进一步提高召回的准确率。
下面结合附图对本发明的视频推荐方法进行具体说明。
请参考图1,本申请实施例提供的视频推荐的方法,可以包括如下步骤:
S101、获取用户的观影序列。
其中,观影序列为用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列。
第一预设时间段可以根据实际情况设定,例如,可以将最近1个月,或者最近60天设定为第一预设时间段。以最近一个月为例,获取用户的观影序列,实际就是,查找出该用户在最近一个月内观看过的每一个视频,以及观看过的每一个视频对应的视频向量,然后将这些视频向量按照该用户观看对应视频的时间顺序排列,就可以得到一个观影序列。
对于视频库中已有的每个视频,可以预先通过一些现有的向量化方法处理该视频,得到该视频对应的向量表示,即该视频的视频向量。
假设用户在最近一个月内先后观看了10个视频,依次记为视频1至视频10,其中视频1为最近1个月内最先观看的视频,视频10为最近1个月内最后观看的视频,对应的视频向量依次记为视频向量1至视频向量10,那么S101中获得的该用户的观影序列就是:
(视频向量1,视频向量2,视频向量3……,视频向量10)。
S102、将观影序列划分为多个长度为M的样本序列。
其中,M为预设的正整数。
例如,M可以设定为10,若观影序列包含100个视频向量,那么可以将观影序列均等的划分为10个样本序列,即第1至第10个视频向量构成一个样本序列,第11至第20个视频向量构成另一个样本序列,以此类推。
可选的,当观影序列包含的视频向量的个数不为M的整数倍,导致划分后部分样本序列的长度(即样本序列包含的视频向量的个数)不足(即长度小于M)时,可以在这些长度不足的样本序列之前添加填充向量(即mask),从而将样本序列的长度补充至M。填充向量可以是一个维度和视频向量一致,其中各个元素预先设定的向量,比如,视频向量的维度是20,那么,可以构建一个维度为20,每个元素均设定为1的向量作为填充向量,假设有一个样本序列的长度为8,记为(视频向量X1,视频向量X2……视频向量X8),而M设定为10,该样本序列长度不足,于是可以在该样本序列的视频向量X1之前添加两个填充向量,得到如下长度为10的填充后的样本序列:
(填充向量,填充向量,视频向量X1,视频向量X2……视频向量X8)。
S103、针对每一个样本序列,利用预先构建的注意力模型计算得到样本序列的相关系数。
本申请所用的注意力模型的结构,可以参考图2,图2中,目标向量(也可以称为query)即为需要提取相关信息的对象,参考向量1,参考向量2……等(也可以称为key1,key2……)为样本序列中除目标向量以外的其他向量,将目标向量和参考向量输入到注意力计算函数中,就能得到多个相关系数,本文的相关系数包括图2所示的注意力系数,和参考系数1,参考系数2……,通过训练注意力模型中的注意力计算函数的参数,可以使样本序列中和目标向量相关度更高的参考向量被有效提取出来,相关度低的参考向量被有效抑制。常用的注意力计算函数有多层感知机、Bilinear函数、点积函数、scaled-dot Product等。在本发明中,采用Bilinear函数作为注意力计算函数,通过一个权重矩阵直接建立目标向量和参考向量的关系映射,这种方法比较简洁直接,且计算速度较快,Bilinear函数公式如下所示:
Va=q T Wk
上述公式中,Va表示计算得到的系数,q表示目标向量,k表示参考向量,W为Bilinear函数中需要通过训练预先确定的参数矩阵。
在本申请中,在针对一个样本序列执行步骤S103时,目标向量可以是这个样本序列中最后一个视频向量,除最后一个视频向量以外的每一个视频向量则是图2中的参考向量。即对于一个长度为M的样本序列,在计算相关系数时,以样本序列的第M个视频向量作为目标向量,以前M-1个视频向量作为参考向量,输入图2所示的注意力模型进行计算。
下面具体说明图2所示的注意力模型的计算过程:
设M等于10,一个长度为10的样本序列记为(视频向量1,视频向量2……视频向量10)。
首先,将视频向量10确定为图2中的目标向量,用q表示,将视频向量1至9确定为图2所示的参考向量,分别记为k1至k9
然后,将k1和q代入前文的Bilinear函数公式,得到:
Va1=q T Wk 1
Va1即是图2所示的参考系数1。
同理,可以将k2和q代入前文的Bilinear函数公式,得到:
Va2=q T Wk 2
Va2即是图2所示的参考系数2。按相同的方式,可以依次计算得到参考系数3至9,即Va3,Va4……Va9。
最后,可以将k1至k9累加得到ks,即:
Figure 84539DEST_PATH_IMAGE001
然后将ks和q代入前文的Bilinear函数公式,得到:
Va att =q T Wk s
上述公式的Vaatt即是图2所示的注意力系数。
至此,参考系数1至9,以及注意力系数,就构成了步骤S103中所计算得到的样本序列的一组相关系数。
也就是说,在本申请的模型训练过程中,attention模型的query即为最后一条视频的向量,key即为序列中的前M-1条视频的向量,长度不足m-1条视频的序列利用mask进行补齐,然后训练注意力计算函数中的矩阵W,就可以得到观影序列中,前M-1条视频与最后一个视频的相关系数。
S104、针对每一个样本序列,利用该样本序列的相关系数获得该样本序列对应的样本向量。
具体的,步骤S104的执行过程可以是:
对于某一个样本序列,基于样本序列的相关系数将样本序列的前M-1个视频向量融合为一个融合向量,并将融合向量与样本序列的最后一个视频向量拼接,得到样本序列对应的样本向量。
在一个具体的例子中,可以采用如下公式将样本序列的前M-1个视频向量融合:
Figure 882731DEST_PATH_IMAGE003
Vai,就是前文利用Bilinear函数公式计算得到的各个参考系数,Vaatt则是图2所示的注意力系数,ki表示样本序列中的前M-1个视频向量,L为最后融合得到的融合向量。结合步骤S103的例子,融合多个视频向量,实质就是,对样本序列中前M-1个视频向量,用每个视频向量对应的参考系数除以注意力系数,得到一个比值,然后用该比值乘以该视频向量,最后将所有视频向量与对应比值的乘积累加,得到的向量就是钱M-1个视频向量融合得到的融合向量。
将融合向量与样本序列的最后一个视频向量拼接,可以是直接将融合向量添加在样本序列的最后一个视频向量之后,由此得到的新向量就是该样本序列对应的样本向量,例如,将样本序列的最后一个视频向量记为q,将融合向量记为L,则拼接得到的样本向量可以表示为(q,L)。
步骤S101至S104所述的过程,相当于在获取用户观影序列后,先分割成长度为M个视频的样本序列,由于召回结果与用户当前所看的视频相关度最高,因此在得到用户向量时,将前M-1个视频对应的向量做融合,然后和最后一个视频的向量拼接起来,作为深度神经网络的输入进行训练。
其中将前M-1个视频对应的向量做融合,实质就是,将相关系数作为权重对前M-1条视频的向量做加权求和。
S105、利用预设的标签向量和各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型。
其中,预设的标签向量是,用户在第二预设时间段内观看的视频的视频向量。换言之,步骤S105相当于,以用户在第二预设时间段内观看的视频的视频向量作为标签向量(即label),利用各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型。
本发明所述的深度神经网络,可以是一个三层的全连接神经网络。
步骤S101至S105所述的过程可以理解为本申请提供的方法中的模型训练过程。
第二预设时间段,可以是距当前时刻较近的一个时间段,例如,可以是最近12小时,或者最近1天,也就是说,步骤S105中,可以将用户在最近12小时内观看的视频对应的视频向量作为标签向量,当最近12小时内有多个观看的视频时,可以选择其中观看时间最晚的那个视频的视频向量作为标签向量,或者可以选择其中观看次数最多的那个视频的视频向量作为标签向量。
下面对步骤S105的具体训练过程进行说明:
1.1、针对每一个样本序列,利用深度神经网络处理样本序列对应的样本向量,得到样本序列对应的样本用户向量。
需要说明的是,输出的样本用户向量的维度和视频向量的维度一致,如每个视频向量包含20个元素,则每个样本用户向量也包括20个元素。
1.2、针对每一个样本用户向量,利用最近邻搜索算法进行视频召回,得到样本用户向量对应的样本视频向量。
具体的,可以预先设定一个召回数量K,例如设K等于2,那么1.2可以是,对每一个样本用户向量,计算视频库中用户未观看过的每一个视频的视频向量和这个样本用户向量的相似度,然后选择其中相似度最高的前2个视频向量作为样本视频向量,假设1.1中共获得了4个样本用户向量,那么在K等于2时,1.2中可以获得共计8个样本视频向量。
1.3、分别计算每一个样本视频向量与标签向量的相似度,并根据各个样本视频向量与标签向量的相似度计算得到深度神经网络的损失值。
1.2和1.3中计算两个向量之间的相似度时,可以采用任意一种现有的向量相似度的计算方法,此处不再赘述。
可选的,在1.3中可以将计算所有样本视频向量和标签向量的相似度的平均值,然后用1减去该平均值,得到的差值就作为深度神经网络的损失值。
1.4、若损失值不满足预设的收敛条件,根据损失值更新深度神经网络的参数,返回执行针对每一个样本序列,利用深度神经网络处理样本序列对应的样本向量,得到样本序列对应的样本用户向量,直至损失值满足收敛条件为止。
根据损失值更新深度神经网络的参数的具体方法可以参考与神经网络的训练过程相关的现有技术,此处不再赘述。
1.5、若损失值满足收敛条件,将当前的深度神经网络确定为用户的视频推荐模型。
收敛条件可以是,损失值小于预设的损失阈值,换言之,若某一次计算得到的损失值小于损失阈值,则当前的深度神经网络就是所需的视频推荐模型。
步骤S105,相当于,以当前用户观看的视频作为label,训练该深度神经网络,最终就可以得到用户的向量和视频向量及视频特征对应的向量。
S106、重复删除用户的观影序列中最后一个视频向量,直至获得一定数量的子观影序列为止。
步骤S106的具体执行过程可以是:
删除用户的观影序列中最后一个视频向量,得到一个子观影序列。
判断子观影序列的数量是否达到数量阈值。
若判断结果为否,即子观影序列的数量未达到数量阈值,则执行步骤直至子观影序列的数量达到数量阈值为止,若判断结果为是,即子观影序列的数量达到数量阈值。
从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列。
举例来说,假设有一个包含20个视频向量的观影序列:
(视频向量1,视频向量2……视频向量19,视频向量20)。
设定的数量阈值为5。那么在步骤S106中,首先可以删除观影序列的最后一个视频向量,即视频向量20,得到如下的一个子观影序列:
(视频向量1,视频向量2……视频向量19)。
此时子观影序列的数量为1,于是对当前最长的子观影序列重复执行删除最后一个视频向量的步骤,得到第二个子观影序列:
(视频向量1,视频向量2……视频向量18)。
以此类推,通过步骤S106获得的剩余3个子观影序列分别是:
(视频向量1,视频向量2……视频向量17);
(视频向量1,视频向量2……视频向量16);
(视频向量1,视频向量2……视频向量15)。
步骤S106,相当于,在执行视频召回(视频推荐时),为了实现多召回的目的,对观影序列进行切割,每次去掉最后一个视频得到一条子序列,循环n次得到n条序列,对每条序列分别进行输入视频推荐模型,以得到多条召回结果(即多个待推荐视频)。
S107、利用注意力模型计算得到每一个子观影序列对应的相关系数。
可以看出,子观影序列和前文划分得到的多个样本序列的结构相似,均是由多个视频向量排列成的序列,因此,利用注意力模型计算得到每一个子观影序列对应的相关系数,与前文利用注意力模型计算得到样本序列对应的相关系数的过程类似,在步骤S107中,只需将子观影序列的最后一个视频向量作为图2所示的目标向量,将除最后一个视频向量以外的其他各个视频向量作为图2所示的参考向量即可,具体的计算过程可以参考步骤S103,此处不再赘述。
S108、针对每一个子观影序列,基于子观影序列对应的相关系数获得子观影序列对应的输入向量。
步骤S108的具体执行过程为:
针对每一个子观影序列,基于子观影序列对应的相关系数将子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将子观影序列中最后一个视频向量与融合向量拼接,得到子观影序列对应的输入向量。
步骤S108中,将子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量的过程,与步骤S104中将样本序列的前M-1个视频向量融合为一个融合向量的过程基本一致,即利用前一步骤计算得到的相关系数分别计算每个视频向量对应的比值,然后用比值乘以视频向量,再将与比值相乘后的各个视频向量累加即可,具体过程可以参考步骤S104,此处不再赘述。
同理,将子观影序列中最后一个视频向量与融合向量拼接,实质就是,将融合向量添加至子观影序列中最后一个视频向量之后,由此得到的向量就是这个子观影序列对应的输入向量。
S109、利用用户的视频推荐模型分别处理各个子观影序列对应的输入向量,得到用户的多个用户向量。
对于每一个子观影序列,视频推荐模型均会通过处理该子观影序列对应的输入向量,生成这个子观影序列对应的一个用户向量。需要说明的是,步骤S109所述的用户向量的维度和视频向量的维度一致,如每个视频向量包含20个元素,则每个用户向量也包括20个元素。
S110、基于各个用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给用户的多个待推荐视频。
步骤S110,可以在设定好相关的参数后,利用现有的向量搜索工具(如vearch)实现。
与步骤S105中的1.2类似,在执行步骤S110时,需要预先设定一个召回数量,如设定召回数量为2。
由此,在执行步骤S110时,对于每一个用户向量,可以分别计算该用户未观看的每一个视频的视频向量和这个用户向量的相似度,然后取其中相似度最高的前2个视频向量,将这2个视频向量对应的视频确定为该用户的待推荐视频。
步骤S106至S110所述的过程,可以理解为本申请实施例提供的方法中,利用训练好的视频推荐模型进行视频推荐的过程。
需要说明的是,在本申请提供的方案中,模型训练过程和视频推荐过程可以分别独立执行,例如,可以先执行模型训练过程,针对某个用户训练出一个视频推荐模型,然后保存该视频推荐模型,之后在任意时刻需要向该用户推荐视频时,再读取之前保存的视频推荐模型,基于该视频推荐模型执行本方案中的视频推荐的过程,从而为该用户推荐视频。
步骤S106至S110所述的过程,相当于,在做线上的实时召回时,首先取到多条截断的观影序列(即步骤S106所述的子观影序列),然后输入注意力模型,得到多个子观影序列对应的输入向量,然后将输入向量输入到已训练好的深度神经网络中(即视频推荐模型),得到多条用户的向量,然后通过vearch,在视频向量矩阵中,以最近邻搜索的方式得到视频的多条召回结果(即待推荐视频)。
可选的,在执行步骤S110之后可以获得多个召回结果(即多个待推荐视频),此时可以对多个召回结果进行交叉融合,交叉融合,具体是指:
将重复出现的待推荐视频优先推荐给用户,即对于重复出现的召回结果置顶,例如,步骤S110中获得了10个待推荐视频,其中3个待推荐视频均为视频A,那么在向用户推荐视频的时候,优先向用户推荐视频A。
本发明的目的在于,通过将多兴趣召回、注意力机制和视频推荐模型相结合,更精准地提取出用户的多个兴趣点,而针对多个兴趣向量进行视频召回,可以达到增加召回结果的多样性和精准度,提高产品对用户的吸引力的目的。
本发明首先利用注意力模型计算得到观影序列融合的权重值,再对观影序列进行截断(即步骤S106),对于每个截断的子序列都输入YoutubeNet网络得到一个召回结果,最后将多个召回结果进行交叉融合,并将多次出现的视频前置(即优先推荐重复出现的待推荐视频)。
本申请提供一种视频推荐的方法,包括,获取用户的观影序列;其中,观影序列为用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;将观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;针对每一个样本序列,利用预先构建的注意力模型计算得到样本序列的相关系数;针对每一个样本序列,基于样本序列的相关系数将样本序列的前M-1个视频向量融合为一个融合向量,并将融合向量与样本序列的最后一个视频向量拼接,得到样本序列对应的样本向量;以用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型;删除用户的观影序列中最后一个视频向量,得到一个子观影序列;若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;利用注意力模型计算得到每一个子观影序列对应的相关系数;针对每一个子观影序列,基于子观影序列对应的相关系数将子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将子观影序列中最后一个视频向量与融合向量拼接,得到子观影序列对应的输入向量;利用用户的视频推荐模型分别处理各个子观影序列对应的输入向量,得到用户的多个用户向量;基于各个用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给用户的多个待推荐视频。本方案利用用户的观影序列产生多个子观影序列,获得该用户的多个用户向量,分别用多个用户向量进行视频召回,从而为用户筛选出多个不同领域的待推荐视频。
结合本申请实施例提供的视频推荐的方法,本申请实施例还提供一种视频推荐的装置,请参考图3,该装置可以包括如下单元:
获取单元301,用于获取用户的观影序列。
其中,观影序列为用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列。
划分单元302,用于将观影序列划分为多个长度为M的样本序列。
其中,M为预设的正整数。
计算单元303,用于针对每一个样本序列,利用预先构建的注意力模型计算得到样本序列的相关系数。
融合单元304,用于针对每一个样本序列,基于样本序列的相关系数将样本序列的前M-1个视频向量融合为一个融合向量,并将融合向量与样本序列的最后一个视频向量拼接,得到样本序列对应的样本向量。
训练单元305,用于以用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型。
删除单元306,用于删除用户的观影序列中最后一个视频向量,得到一个子观影序列。
删除单元306,用于若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止。
计算单元303,用于利用注意力模型计算得到每一个子观影序列对应的相关系数。
融合单元304,用于针对每一个子观影序列,基于子观影序列对应的相关系数将子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将子观影序列中最后一个视频向量与融合向量拼接,得到子观影序列对应的输入向量。
处理单元307,用于利用用户的视频推荐模型分别处理各个子观影序列对应的输入向量,得到用户的多个用户向量。
召回单元308,用于基于各个用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给用户的多个待推荐视频。
可选的,融合单元304基于样本序列的相关系数将样本序列的前M-1个视频向量融合为一个融合向量时,具体用于:
基于样本序列的相关系数,对样本序列的前M-1个视频向量进行加权求和,得到融合向量。
可选的,训练单元305以用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型时,具体用于:
针对每一个样本序列,利用深度神经网络处理样本序列对应的样本向量,得到样本序列对应的样本用户向量;
针对每一个样本用户向量,利用最近邻搜索算法进行视频召回,得到样本用户向量对应的样本视频向量;
分别计算每一个样本视频向量与标签向量的相似度,并根据各个样本视频向量与标签向量的相似度计算得到深度神经网络的损失值;
若损失值不满足预设的收敛条件,根据损失值更新深度神经网络的参数,返回执行针对每一个样本序列,利用深度神经网络处理样本序列对应的样本向量,得到样本序列对应的样本用户向量,直至损失值满足收敛条件为止;
若损失值满足收敛条件,将当前的深度神经网络确定为用户的视频推荐模型。
可选的,召回单元308基于各个用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给用户的多个待推荐视频时,具体用于:
针对每一个用户向量,在视频向量集合中,根据视频向量与用户向量的相似度由高至低搜索得到N个目标视频向量;其中,视频向量集合包括多个用户未观看的视频对应的视频向量;N为预设的正整数;
将目标视频向量对应的视频确定为待推荐视频。
本申请实施例提供的视频推荐的装置,其具体工作原理可以参考本申请任一实施例所提供的视频推荐的方法中的相关步骤,此处不再赘述。
本申请提供一种视频推荐的装置,其中,获取单元301获取用户的观影序列;其中,观影序列为用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;划分单元302将观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;计算单元303针对每一个样本序列,利用预先构建的注意力模型计算得到样本序列的相关系数;融合单元304针对每一个样本序列,基于样本序列的相关系数将样本序列的前M-1个视频向量融合为一个融合向量,并将融合向量与样本序列的最后一个视频向量拼接,得到样本序列对应的样本向量;训练单元305以用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个样本序列对应的样本向量训练深度神经网络,得到用户的视频推荐模型;删除单元306删除用户的观影序列中最后一个视频向量,得到一个子观影序列;若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;计算单元303利用注意力模型计算得到每一个子观影序列对应的相关系数;融合单元304针对每一个子观影序列,基于子观影序列对应的相关系数将子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将子观影序列中最后一个视频向量与融合向量拼接,得到子观影序列对应的输入向量;处理单元307利用用户的视频推荐模型分别处理各个子观影序列对应的输入向量,得到用户的多个用户向量;召回单元308基于各个用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给用户的多个待推荐视频。本方案利用用户的观影序列产生多个子观影序列,获得该用户的多个用户向量,分别用多个用户向量进行视频召回,从而为用户筛选出多个不同领域的待推荐视频。
本申请实施例还提供一种电子设备,请参考图4,该电子设备可以包括存储器401和处理器402。
其中,存储器401用于存储计算机程序。
处理器402用于执行上述计算机程序,具体用于实现本申请任一实施例所提供的视频推荐的方法。
本申请实施例还提供一种计算机存储介质,用于存储计算机程序,存储的计算机程序被执行时,具体用于实现本申请任一实施例所提供的视频推荐的方法。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
需要注意,本发明中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种视频推荐的方法,其特征在于,包括:
模型训练过程:
获取用户的观影序列;其中,所述观影序列为所述用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;
将所述观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;
针对每一个所述样本序列,利用预先构建的注意力模型计算得到所述样本序列的相关系数;
针对每一个所述样本序列,基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量,并将所述融合向量与所述样本序列的最后一个视频向量拼接,得到所述样本序列对应的样本向量;
以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型;
视频推荐过程:
删除所述用户的观影序列中最后一个视频向量,得到一个子观影序列;
若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;
利用所述注意力模型计算得到每一个所述子观影序列对应的相关系数;
针对每一个所述子观影序列,基于所述子观影序列对应的相关系数将所述子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将所述子观影序列中最后一个视频向量与所述融合向量拼接,得到所述子观影序列对应的输入向量;
利用所述用户的视频推荐模型分别处理各个所述子观影序列对应的输入向量,得到所述用户的多个用户向量;
基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频。
2.根据权利要求1所述的方法,其特征在于,所述基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量,包括:
基于所述样本序列的相关系数,对所述样本序列的前M-1个视频向量进行加权求和,得到融合向量。
3.根据权利要求1所述的方法,其特征在于,所述以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型,包括:
针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量;
针对每一个所述样本用户向量,利用最近邻搜索算法进行视频召回,得到所述样本用户向量对应的样本视频向量;
分别计算每一个所述样本视频向量与所述标签向量的相似度,并根据各个所述样本视频向量与所述标签向量的相似度计算得到所述深度神经网络的损失值;
若所述损失值不满足预设的收敛条件,根据所述损失值更新所述深度神经网络的参数,返回执行所述针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量,直至所述损失值满足所述收敛条件为止;
若所述损失值满足所述收敛条件,将当前的深度神经网络确定为所述用户的视频推荐模型。
4.根据权利要求1所述的方法,其特征在于,所述基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频,包括:
针对每一个所述用户向量,在视频向量集合中,根据视频向量与所述用户向量的相似度由高至低搜索得到N个目标视频向量;其中,所述视频向量集合包括多个所述用户未观看的视频对应的视频向量;N为预设的正整数;
将所述目标视频向量对应的视频确定为待推荐视频。
5.一种视频推荐的装置,其特征在于,包括:
获取单元,用于获取用户的观影序列;其中,所述观影序列为所述用户在第一预设时间段内观看的每一个视频对应的视频向量组成的序列;
划分单元,用于将所述观影序列划分为多个长度为M的样本序列;其中,M为预设的正整数;
计算单元,用于针对每一个所述样本序列,利用预先构建的注意力模型计算得到所述样本序列的相关系数;
融合单元,用于针对每一个所述样本序列,基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量,并将所述融合向量与所述样本序列的最后一个视频向量拼接,得到所述样本序列对应的样本向量;
训练单元,用于以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型;
删除单元,用于删除所述用户的观影序列中最后一个视频向量,得到一个子观影序列;
所述删除单元,用于若子观影序列的数量未达到数量阈值,从已获得的长度最短的子观影序列中删除最后一个视频向量,得到一个新的子观影序列,直至子观影序列的数量达到数量阈值为止;
所述计算单元,用于利用所述注意力模型计算得到每一个所述子观影序列对应的相关系数;
所述融合单元,用于针对每一个所述子观影序列,基于所述子观影序列对应的相关系数将所述子观影序列中除最后一个视频向量以外的每一个视频向量融合为一个融合向量,并将所述子观影序列中最后一个视频向量与所述融合向量拼接,得到所述子观影序列对应的输入向量;
处理单元,用于利用所述用户的视频推荐模型分别处理各个所述子观影序列对应的输入向量,得到所述用户的多个用户向量;
召回单元,用于基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频。
6.根据权利要求5所述的装置,其特征在于,所述融合单元基于所述样本序列的相关系数将所述样本序列的前M-1个视频向量融合为一个融合向量时,具体用于:
基于所述样本序列的相关系数,对所述样本序列的前M-1个视频向量进行加权求和,得到融合向量。
7.根据权利要求5所述的装置,其特征在于,所述训练单元以所述用户在第二预设时间段内观看的视频的视频向量作为标签向量,利用各个所述样本序列对应的样本向量训练深度神经网络,得到所述用户的视频推荐模型时,具体用于:
针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量;
针对每一个所述样本用户向量,利用最近邻搜索算法进行视频召回,得到所述样本用户向量对应的样本视频向量;
分别计算每一个所述样本视频向量与所述标签向量的相似度,并根据各个所述样本视频向量与所述标签向量的相似度计算得到所述深度神经网络的损失值;
若所述损失值不满足预设的收敛条件,根据所述损失值更新所述深度神经网络的参数,返回执行所述针对每一个所述样本序列,利用深度神经网络处理所述样本序列对应的样本向量,得到所述样本序列对应的样本用户向量,直至所述损失值满足所述收敛条件为止;
若所述损失值满足所述收敛条件,将当前的深度神经网络确定为所述用户的视频推荐模型。
8.根据权利要求5所述的装置,其特征在于,所述召回单元基于各个所述用户向量,利用最近邻搜索算法进行视频召回,得到待推荐给所述用户的多个待推荐视频时,具体用于:
针对每一个所述用户向量,在视频向量集合中,根据视频向量与所述用户向量的相似度由高至低搜索得到N个目标视频向量;其中,所述视频向量集合包括多个所述用户未观看的视频对应的视频向量;N为预设的正整数;
将所述目标视频向量对应的视频确定为待推荐视频。
9.一种电子设备,其特征在于,包括存储器和处理器;
其中,所述存储器用于存储计算机程序;
所述处理器用于执行所述计算机程序,具体用于实现如权利要求1至4任意一项所述的视频推荐的方法。
10.一种计算机存储介质,其特征在于,用于存储计算机程序,所述计算机程序被执行时,具体用于实现如权利要求1至4任意一项所述的视频推荐的方法。
CN202111472430.XA 2021-12-06 2021-12-06 视频推荐的方法、装置、设备和存储介质 Active CN113868466B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111472430.XA CN113868466B (zh) 2021-12-06 2021-12-06 视频推荐的方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111472430.XA CN113868466B (zh) 2021-12-06 2021-12-06 视频推荐的方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN113868466A true CN113868466A (zh) 2021-12-31
CN113868466B CN113868466B (zh) 2022-03-01

Family

ID=78985944

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111472430.XA Active CN113868466B (zh) 2021-12-06 2021-12-06 视频推荐的方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN113868466B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114519143A (zh) * 2022-02-18 2022-05-20 北京百度网讯科技有限公司 课程推荐模型的训练方法、课程推荐方法及装置
CN114615524A (zh) * 2022-02-18 2022-06-10 聚好看科技股份有限公司 服务器、媒资推荐网络的训练方法及媒资推荐方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005286A (ja) * 2016-06-27 2018-01-11 日本放送協会 コンテンツ推薦装置、コンテンツ推薦方法及びコンテンツ推薦プログラム
CN110196946A (zh) * 2019-05-29 2019-09-03 华南理工大学 一种基于深度学习的个性化推荐方法
CN111666450A (zh) * 2020-06-04 2020-09-15 北京奇艺世纪科技有限公司 视频召回方法、装置、电子设备及计算机可读存储介质
CN111753209A (zh) * 2020-07-02 2020-10-09 南京工业大学 一种基于改进时序卷积网络的序列推荐列表生成方法
CN112801760A (zh) * 2021-03-30 2021-05-14 南京蓝鲸人网络科技有限公司 一种内容个性化推荐系统的排序优化方法及系统
US20210281918A1 (en) * 2019-04-23 2021-09-09 Tencent Technology (Shenzhen) Company Limited Video recommendation method and device, computer device and storage medium
US20210326674A1 (en) * 2019-05-13 2021-10-21 Tencent Technology (Shenzhen) Company Limited Content recommendation method and apparatus, device, and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005286A (ja) * 2016-06-27 2018-01-11 日本放送協会 コンテンツ推薦装置、コンテンツ推薦方法及びコンテンツ推薦プログラム
US20210281918A1 (en) * 2019-04-23 2021-09-09 Tencent Technology (Shenzhen) Company Limited Video recommendation method and device, computer device and storage medium
US20210326674A1 (en) * 2019-05-13 2021-10-21 Tencent Technology (Shenzhen) Company Limited Content recommendation method and apparatus, device, and storage medium
CN110196946A (zh) * 2019-05-29 2019-09-03 华南理工大学 一种基于深度学习的个性化推荐方法
CN111666450A (zh) * 2020-06-04 2020-09-15 北京奇艺世纪科技有限公司 视频召回方法、装置、电子设备及计算机可读存储介质
CN111753209A (zh) * 2020-07-02 2020-10-09 南京工业大学 一种基于改进时序卷积网络的序列推荐列表生成方法
CN112801760A (zh) * 2021-03-30 2021-05-14 南京蓝鲸人网络科技有限公司 一种内容个性化推荐系统的排序优化方法及系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PAUL COVINGTON等: "Deep Neural Networks for YouTube Recommendations", 《CONFERENCE|[P]RECOMMENDER SYSTEMS2016》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114519143A (zh) * 2022-02-18 2022-05-20 北京百度网讯科技有限公司 课程推荐模型的训练方法、课程推荐方法及装置
CN114615524A (zh) * 2022-02-18 2022-06-10 聚好看科技股份有限公司 服务器、媒资推荐网络的训练方法及媒资推荐方法
CN114615524B (zh) * 2022-02-18 2023-10-24 聚好看科技股份有限公司 服务器、媒资推荐网络的训练方法及媒资推荐方法
CN114519143B (zh) * 2022-02-18 2024-05-14 北京百度网讯科技有限公司 课程推荐模型的训练方法、课程推荐方法及装置

Also Published As

Publication number Publication date
CN113868466B (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
Zhou et al. Interactive recommender system via knowledge graph-enhanced reinforcement learning
CN110717098B (zh) 基于元路径的上下文感知用户建模方法、序列推荐方法
CN110321422B (zh) 在线训练模型的方法、推送方法、装置以及设备
CN110162698B (zh) 一种用户画像数据处理方法、装置及存储介质
CN110910218B (zh) 一种基于深度学习的多行为迁移推荐方法
CN110795657B (zh) 文章推送及模型训练方法、装置、存储介质和计算机设备
CN113868466B (zh) 视频推荐的方法、装置、设备和存储介质
EP3371765A1 (en) End-to-end deep collaborative filtering
CN111506820B (zh) 推荐模型、方法、装置、设备及存储介质
CN111382283B (zh) 资源类别标签标注方法、装置、计算机设备和存储介质
CN110008397B (zh) 一种推荐模型训练方法及装置
JP2005521144A (ja) 複数の推薦スコアを用いる推薦システム
CN112434184B (zh) 基于历史影视海报的深度兴趣网络的排序方法
CN112364976A (zh) 基于会话推荐系统的用户偏好预测方法
CN111241394A (zh) 数据处理方法、装置、计算机可读存储介质及电子设备
CN111737586A (zh) 信息推荐方法、装置、设备及计算机可读存储介质
Chen et al. Modeling dynamic user preference via dictionary learning for sequential recommendation
CN113536105A (zh) 推荐模型训练方法和装置
CN112364184A (zh) 多媒体数据的排序方法、装置、服务器及存储介质
CN113641811B (zh) 促进购买行为的会话推荐方法、系统、设备及存储介质
CN117391824A (zh) 基于大语言模型和搜索引擎推荐物品的方法及装置
CN113051468A (zh) 一种基于知识图谱和强化学习的电影推荐方法及系统
CN115482021A (zh) 多媒体信息推荐方法、装置、电子设备及存储介质
CN114817692A (zh) 确定推荐对象的方法、装置和设备及计算机存储介质
CN116541592A (zh) 向量生成方法、信息推荐方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant