CN112685596A - 视频推荐方法及装置、终端、存储介质 - Google Patents
视频推荐方法及装置、终端、存储介质 Download PDFInfo
- Publication number
- CN112685596A CN112685596A CN201910993977.0A CN201910993977A CN112685596A CN 112685596 A CN112685596 A CN 112685596A CN 201910993977 A CN201910993977 A CN 201910993977A CN 112685596 A CN112685596 A CN 112685596A
- Authority
- CN
- China
- Prior art keywords
- recommended
- browsing
- video
- browsing behavior
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例涉及个性化推荐领域,涉及但不限定于视频推荐方法及装置、终端、存储介质,其中,所述视频推荐方法包括:响应于视频推荐需求,获取采集的待推荐对象的面部图像;从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征;获取所述待推荐对象的浏览行为;根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。本申请实施例通过采集用户的面部图像,从中提取基本特征,用以在视频推荐的过程中补充用户维度信息,如此解决了用户维度信息稀疏和缺乏真实性的问题,能够得到更加符合用户个性化视频推荐的期望结果。
Description
技术领域
本申请涉及个性化推荐领域,涉及但不限定于视频推荐方法及装置、终端、存储介质。
背景技术
随着计算机视觉和互联网技术的快速发展,各种网站和播放终端为人们的生活和娱乐带来了便利,如何从海量视频信息中快速定位给用户带来了困扰。在现有技术中,通常的视频推荐方式是,视频播放终端根据用户维度信息、视频维度信息及其历史观看记录等信息,查找出与用户期望观看相似的一些未观看过的视频。
现有推荐算法中,如协同过滤算法、矩阵分解推荐算法、深度学习推荐算法等,在数据稀疏时,都无法找到与观看历史记录相似的物品或用户,并且数据的真实性无法保证,甚至无法保证用户个性化推荐结果的多样性。对上述存在的问题,目前尚未发现有较好的技术架构或方案实现解决。
发明内容
有鉴于此,本申请实施例为解决现有技术中存在的至少一个问题而提供一种视频推荐方法及装置,解决了在视频推荐的过程中用户维度信息稀疏和缺乏真实性的问题,能够保证用户个性化推荐结果的多样性。
本申请实施例的技术方案是这样实现的:
第一方面,本申请实施例提供一种视频推荐方法,所述方法包括:响应于视频推荐需求,获取采集的待推荐对象的面部图像;从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征;获取所述待推荐对象的浏览行为;根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。
第二方面,本申请实施例提供一种视频推荐装置,所述装置包括第一获取模块、提取模块、第二获取模块和生成模块,其中:第一获取模块,用于响应于视频推荐需求,获取采集的待推荐对象的面部图像;提取模块,用于从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征;第二获取模块,用于获取所述待推荐对象的浏览行为;生成模块,用于根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。
第三方面,本申请实施例提供一种视频推荐终端,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述视频推荐方法中的步骤。
第四方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述视频推荐方法中的步骤。
本申请实施例提供了一种视频推荐方法及装置、终端、存储介质,其中所述方法包括:首先,响应于视频推荐需求,对于采集的待推荐对象的面部图像,其次,提取所述待推荐对象的基本特征,然后,获取所述待推荐对象的浏览行为,最后,根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果;这样,通过采集用户的面部图像,从中提取基本特征,用以在视频推荐的过程中补充用户维度信息,如此解决了用户维度信息稀疏和缺乏真实性的问题,能够得到更加符合用户个性化视频推荐的期望结果。
附图说明
图1为本申请实施例一提供的一种视频推荐方法的流程示意图;
图2-1为本申请实施例二提供的一种视频推荐方法的流程示意图;
图2-2为本申请实施例三提供的一种视频推荐方法的流程示意图;
图2-3为本申请实施例四提供的一种视频推荐方法的流程示意图;
图3-1为本申请实施例五提供的一种视频推荐方法的组成结构示意图;
图3-2为本申请实施例五提供的一种视频推荐方法的整体流程示意图;
图3-3为本申请实施例五中面部关键点的示意图;
图3-4为本申请实施例五中获取用户浏览行为的流程示意图;
图3-5为本申请实施例五中生成用户兴趣点列表的流程示意图;
图3-6为本申请实施例五中候选生成和评分排序两层推荐架构;
图3-7为本申请实施例五中候选生成模型的示意图;
图3-8为本申请实施例五中评分排序模型的示意图;
图3-9为本申请实施例五中推荐策略的示意图;
图4为本申请实施例六提供的一种视频推荐装置的组成结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
实施例一
本申请实施例提供一种视频推荐方法,所述视频推荐方法应用于终端,所述终端可以为手机,平板电脑或者个人电脑等,本申请实施例对此不做限定。图1为本申请实施例提供的一种视频推荐方法的流程示意图,如图1所示,所述方法包括:
步骤S101,响应于视频推荐需求,获取采集的待推荐对象的面部图像。
这里,所述待推荐对象为在终端面前浏览视频的用户,在需要进行视频推荐的时候,所述待推荐对象的面部图像可以为通过人脸检测技术实时采集得到的,也可以为用户预先采集好的,只要所述面部图像能够表明待推荐对象的真实信息,本申请实施例对此不作限定。
步骤S102,从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征。
这里,所述待推荐对象的基本特征,至少包括以下之一:待推荐对象的年龄、性别、面部关键点和眼睛的视线方向,如此,通过提取待推荐对象的用户年龄、性别特征补充了用户维度信息,解决了用户维度人口统计学信息的数据稀疏性问题和真实性问题。
步骤S103,获取所述待推荐对象的浏览行为。
这里,所述待推荐对象的浏览行为包括用户当前浏览行为和历史浏览行为,其中浏览行为可以形成记录表,因此历史浏览行为可以这样确定:通过用户ID,查询用户的历史浏览行为记录表而得到用户的历史浏览行为;而当前浏览行为可以这样确定:根据用户眼睛的视线方向与当前浏览页面之间的交互记录,确定用户的当前浏览行为,当然也包括其他任何能够得到用户的浏览行为的途径,本申请实施例对此不作限定。
步骤S104,根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。
这里,所述视频推荐结果可以为与用户期望观看的内容相似的一些未观看过的视频序列。根据真实的用户维度信息、视频维度信息及其当前和历史观看记录等信息,在数据库中查找出满足不同用户的特定浏览喜好的一些视频序列推荐给用户。
在本申请实施例中,响应于视频推荐需求,对于采集的待推荐对象的面部图像,首先,提取所述待推荐对象的基本特征,然后,获取所述待推荐对象的浏览行为,最后,根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果;这样,通过采集用户的面部图像,从中提取基本特征,用以在视频推荐的过程中补充用户维度信息,如此解决了用户维度信息稀疏和缺乏真实性的问题,能够得到更加符合用户个性化视频推荐的期望结果。
实施例二
本申请实施例提供一种视频推荐方法,应用于终端,图2-1为本申请实施例提供的一种视频推荐方法的流程示意图,如图2-1所示,所述方法包括:
步骤S201,响应于视频推荐需求,获取采集的待推荐对象的面部图像。
步骤S202,从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征。
步骤S203,获取所述待推荐对象的眼睛的视线方向与浏览页面之间的交互信息。
这里,待推荐对象的眼睛的视线方向是步骤S202中从所述待推荐对象的面部图像中提取的。所述获取的交互信息至少包括以下之一:所述视线方向落在所述浏览页面上的开始时间、停留时间和观看时长。
步骤S204,根据所述交互信息,确定所述待推荐对象的浏览行为。
这里,根据待推荐对象的眼睛的视线方向落在此时浏览页面的开始时间、停留时间,可以得到用户当前和已有的浏览行为。
进一步地,根据所述交互信息,确定所述待推荐对象的浏览行为之后,还可以判断所述待推荐对象是否为新用户,如果所述待推荐对象为非新用户,将所述待推荐对象的历史浏览行为并入所述浏览行为。
上述步骤S203和S204提出了一种实现“获取所述待推荐对象的浏览行为”的方式,在该方式中通过眼睛视线方向与当前页面的交互记录,包含开始时间、视线停留时间,得到用户当前和已有的浏览历史,如此,可获得新用户的浏览行为记录,能够有效解决新用户冷启动问题。
步骤S205,根据所述待推荐对象的浏览行为,通过候选生成模型从视频库中得到召回视频序列。
这里,候选生成模型是一个训练好的模型,该候选生成模型基于待推荐对象的浏览行为,能够以较高的召回率指标从海量视频库中得到数百个数量级的电影ID作为预测的用户即将观看的视频序列。
示例地,在标准数据集上划分训练集和测试集,通过模型的训练和测试,Top300(排序前300)的平均召回率达到80.44%,Top1000(排序前1000)的平均召回率达到90.1%,可以取得较高的召回率。基于获得较高的召回率的目的,通过模型训练,可获得用户预测的视频候选集。
步骤S206,根据所述待推荐对象的基本特征,通过评分排序模型对所述召回视频序列进行评分预测,生成视频推荐结果。
这里,评分排序模型是一个训练好的模型,该评分排序模型能够根据用户的基本特征,对召回视频序列进行打分,在预测打分完成之后,根据预测打分的结果确定视频推荐结果,例如将按照打分结果满足条件的视频作为视频推荐结果。在其他实施例中,评分排序模型根据得到的召回视频序列、用户的基本特征及视频序列的时间戳信息,以较高的准确率指标得到最终的视频推荐结果。
示例地,根据用户的浏览记录,输入用户维度的用户身份标识(ID,Identity)、年龄、职业、受教育程度,电影维度的电影ID、电影导演、电影演员、电影时长等,以及电影评分和时间戳;根据获取到的观看开始时间按照时间戳对用户所浏览的视频序列进行排序,然后将排序后的视频序列经过三层的全连接送入最后的多分类器Softmax层进行分类,最后将分类后的视频序列输入评分排序模型,得到用户对不同类别的电影的预测打分。
上述步骤S205和S206给出了一种实现“根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果”的方式,在该方式中基于候选生成模型和评分排序模型两层架构,保证了根据用户维度信息和浏览行为生成的视频推荐结果的准确率。
在本申请实施例中,本申请实施例在视频推荐中融入了用户当前和历史的浏览行为和提取的待推荐对象的基本特征,同时通过评分排序模型对所述召回视频序列进行评分预测,根据预测结果确定视频推荐结果,使得评分排序模型的特征更为真实和丰富,使得推荐结果更具个性化。同时,基于用户当前的基本特征和视线方向,生成用户当前的浏览行为,新用户也能进行个性化视频推荐。
实施例三
本申请实施例提供一种视频推荐方法,应用于终端,图2-2为本申请实施例提供的一种视频推荐方法的流程示意图,如图2-2所示,所述方法包括:
步骤S221,响应于视频推荐需求,获取采集的待推荐对象的面部图像。
步骤S222,从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征。
步骤S223,获取所述待推荐对象的浏览行为。
所述待推荐对象的基本特征包括所述待推荐对象的眼睛的视线方向时:
步骤S224,获取所述待推荐对象的眼睛的视线方向与所浏览页面之间的交互信息。
这里,所述交互信息至少包括以下之一:所述视线方向落在所述浏览页面上的开始时间、停留时间和观看时长。在实现中,可以通过计算机视觉库OpenFace实现眼睛视线的检测和跟踪,并分析得到用户眼睛视线方向与当前页面的交互记录,以得到交互信息。
步骤S225,如果所述交互信息表明所述眼睛的视线方向与所述浏览页面之间有交互行为,根据所述交互信息中的观看时长和所述浏览页面对应的视频时长,确定所述浏览行为包含的每一浏览内容的兴趣系数。
这里,如果有交互行为时,计算所述交互信息中的观看时长和所述浏览页面对应的视频时长之间的比值,将这一比值映射为所述浏览行为包含的每一浏览内容的兴趣系数。在其他实施例中,如果无交互行为时,根据所述基本特征中的面部关键点生成所述待推荐对象的心情标签;根据所述心情标签的等级级别和所述交互信息中的停留时间,确定所述浏览行为包含的每一浏览内容的兴趣系数。
示例地,首先计算当前视频的观看时长和视频时长之间的比值,然后按照分割步长为0.2,将该比值落在区间[0-0.2)、[0.2-0.4)、[0.4-0.6)、[0.6-0.8)和[0.8-1]分别映射为1、2、3、4和5的兴趣评分,记为兴趣系数1,其中区间[0-0.2)表示取值范围为大于等于0且小于0.2,区间[0.2-0.4)表示取值范围为大于等于0.2且小于0.4,区间[0.4-0.6)表示取值范围为大于等于0.4且小于0.6,区间[0.6-0.8)表示取值范围大于等于0.6且小于0.8,区间[0.8-1]表示取值范围为大于等于0.8且小于等于1。
上述步骤S224和步骤S225给出了所述待推荐对象的基本特征包括所述待推荐对象的眼睛的视线方向时,一种实现“根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,确定所述浏览行为包含的每一浏览内容的兴趣系数”的方式,在该方式中得到所述眼睛的视线方向与所述浏览页面之间有交互行为时,所述浏览行为包含的每一浏览内容对应的兴趣系数。
步骤S226,通过对所述浏览行为包含的每一浏览内容进行统计,得到所述浏览内容对应的类别分布。
这里,通过对用户的浏览内容进行统计,首先得到所述浏览行为包含的每一浏览内容的视频类别,然后计算用户浏览每一类别视频的频次和用户所浏览的视频序列的总次数,再通过计算所浏览每一类别视频的频次占浏览视频序列的总次数的比例,得到该类别视频对应的类别概率,最后,根据所述浏览行为包含的每一浏览内容的视频类别及对应类别概率得到类别分布。
进一步地,考虑到视频类别有多种,而若用户独钟于某一类别视频,会失去视频类别的多样性和新颖性,故所述推荐策略包括热门视频类别在所述类别分布中的权重,所述通过对所述浏览行为包含的每一浏览内容进行统计,得到所述浏览内容的视频类别之后,所述方法还包括:根据所述待推荐对象的偏好确定热门视频类别;通过减少所述类别分布中所述热门视频类别的权重,并增加与所述热门视频类别相关联的视频类别的权重,以实现更新所述推荐策略。
这里,所述热门视频类别为针对每个用户的特殊喜好确定的,所述与所述热门视频类别相关联的视频类别可以为与用户偏好的视频相关的视频对应的类别,比如,用户喜欢浏览健康养生类的节目,可以适时推荐与健康养生相关联的运动健身类的视频。
这里,所述热门视频类别在所述类别分布中的权重表示所述热门视频类别占总体视频类别的比例,为了防止最终得到的视频推荐序列失去视频类别的多样性和新颖性,需要调整所述类别分布中各视频类别所占的比例,如可以减少所述类别分布中所述热门视频类别的权重,并增加与所述热门视频类别相关联的视频类别的权重。通常的做法是采取以下措施进行调整,比如对用户偏好的某一类别视频增加惩罚项,或者对用户未接触的某一类别视频增加奖励项。
步骤S227,根据所述兴趣系数和所述类别分布,确定推荐策略。
这里,推荐策略分别考虑用户浏览历史的视频类别和兴趣系数,结合推荐技术及推荐模型,能够保证推荐准确率的同时提升用户体验。
示例地,评分预测模型输出到TopN推荐排序时,以基于统计得到的类别分布和推荐准确率为实际标签,将视频ID对应的相关类别经过数字词典化转换作为输入,以兴趣系数作为初始化参数,送入回归模型f(x)=WTx+b进行训练,其中,f(x)为生成的推荐视频序列,W为兴趣系数矩阵,WT为对应的转置矩阵,b为偏置项,x为视频ID对应的相关类别,最终获得结合兴趣系数和类别分布的推荐视频序列。
步骤S228,根据所述推荐策略,生成所述视频推荐结果。
这里,根据步骤S227中确定的推荐策略,可以生成符合用户当前状态的个性化推荐结果。
本申请实施例在待推荐对象的眼睛的视线方向与所浏览页面之间有交互行为时,通过交互信息中的观看时长和所述浏览页面对应的视频时长得到所述浏览行为包含的每一浏览内容的兴趣系数,同时通过对用户的浏览内容进行统计,得到所述浏览内容对应的类别分布,如此生成融入用户的兴趣系数和类别分布的推荐策略,提高了推荐模型的准确率。
实施例四
本申请实施例提供一种视频推荐方法,图2-3为本申请实施例提供的一种视频推荐方法的流程示意图,如图2-3所示,所述方法包括:
步骤S231,响应于视频推荐需求,获取采集的待推荐对象的面部图像。
步骤S232,从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征。
步骤S233,获取所述待推荐对象的浏览行为。
所述待推荐对象的基本特征还包括所述待推荐对象的面部关键点时:
步骤S234,如果所述交互信息表明所述眼睛的视线方向与所述浏览页面之间无交互行为,根据所述基本特征中的面部关键点生成所述待推荐对象的心情标签。
这里,所述步骤S234可以通过以下过程实现:
第一步,如果所述面部关键点中的上下唇关键点之间的距离满足第一预设条件,生成第一等级的心情标签。
这里,所述第一预设条件为所述上下唇关键点之间的距离小于第一阈值,或所述上下唇关键点之间的距离大于所述待推荐对象的嘴巴外接矩形的长宽比系数阈值。
第二步,如果所述面部关键点中的双眉关键点之间的距离满足第二预设条件,生成第三等级的心情标签;
这里,所述第二预设条件为所述双眉关键点之间的距离大于第二阈值。
第三步,如果所述面部关键点均不满足所述第一预设条件和所述第二预设条件,生成第二等级的心情标签;
这里,第一等级的心情标签、第二等级的心情标签、第三等级的心情标签表示待推荐对象对当前浏览页面的感兴趣度依次降低。
步骤S235,根据所述心情标签的等级级别和所述交互信息中的停留时间,确定所述浏览行为包含的每一浏览内容的兴趣系数。
这里,所述步骤S235可以通过以下过程实现:
第一步,根据所述交互信息中的停留时间和所述待推荐对象的视线与所述浏览页面之间的交互总时长,确定所述视线的停留时间的归一化系数。
这里,将所述交互信息中的停留时间与所述待推荐对象的视线与所述浏览页面的交互总时长之间的比值,作为所述视线在浏览页面的停留时间的归一化系数,按照如下公式(1)计算:
其中,i为变量,pi为第i次视线在浏览页面的停留时间的归一化系数,ti为第i次视线在浏览页面的停留时间,n为当前视线与浏览页面的总交互次数,UEye为用户视线与浏览页面的总交互次数,为用户视线与浏览页面的交互总时长。
第二步,获取间隔时间t的图像帧中左右眼睛的视线方向向量。
这里,记左右眼睛的视线方向向量分别为a和b,记左眼睛在间隔时间t的图像帧中的视线方向向量分别为a1和at+1,右眼睛在间隔时间t的图像帧中的视线方向向量分别为b1和bt+1,在实现中,可以通过计算机视觉库OpenFace实现眼睛视线的检测和跟踪,进一步分析得到上述视线方向向量。
第三步,根据所述视线方向向量,确定所述视线方向向量的余弦相似度。
这里,所述余弦相似度用于表示所述待推荐对象的视线方向的一致性,按照如下公式(2)计算:
其中,a和b分别代表左右眼睛的视线方向向量,a·b为向量a与b的乘积,||a||和||b||分别为向量a的模和向量b的模。
相应地,根据上述公式(2)依次计算在间隔时间t的图像帧中左眼的视线方向向量a1和at+1之间的余弦相似度cos(a1,at+1),在间隔时间t的图像帧中右眼的视线方向向量b1和bt+1之间的余弦相似度cos(b1,bt+1)。
第四步,如果所述余弦相似度满足用于表征视线方向一致的第三预设条件,根据所述归一化系数和所述心情标签的等级级别,确定所述浏览行为包含的每一浏览内容的兴趣系数。
这里,所述第三预设条件为所述余弦相似度大于第三阈值,并小于第四阈值,使得所述待推荐对象的视线方向一致,其中,所述余弦相似度包括cos(a,b)、cos(a1,at+1)和cos(b1,bt+1),所述第三阈值为最小值0,所述第四阈值为最大值1。
这里,所述心情标签包括第一等级的心情标签、第二等级的心情标签和第三等级的心情标签,对应的等级级别分别为1、0和-1。
这里,将所述归一化系数和所述心情标签的等级级别之间的乘积,作为所述浏览行为包含的每一浏览内容的兴趣系数,按照如下公式(3)计算:
其中,POI代表兴趣系数,0代表不感兴趣,λ代表当前心情标签的等级级别,pi为步骤S235中得到的停留时间的归一化系数。
上述步骤S234和步骤S235给出了所述待推荐对象的基本特征还包括所述待推荐对象的面部关键点时,一种实现“根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,确定所述浏览行为包含的每一浏览内容的兴趣系数”的方式,在该方式中得到所述眼睛的视线方向与所述浏览页面之间无交互行为时,所述浏览行为包含的每一浏览内容对应的心情系数。
步骤S236,通过对所述浏览行为包含的每一浏览内容进行统计,得到所述每一浏览内容对应的视频类别。
步骤S237,根据所述兴趣系数和所述视频类别,确定推荐策略。
步骤S238,根据所述推荐策略,生成所述视频推荐结果。
本申请实施例在待推荐对象的眼睛的视线方向与所浏览页面之间无交互行为时,首先根据所述基本特征中的面部关键点生成待推荐对象的心情标签,然后根据所述心情标签的等级级别和所述交互信息中的停留时间,确定所述浏览行为包含的每一浏览内容的兴趣系数,如此在视频推荐中融入了用户当前的心情标签,生成适用于用户当前心情的推荐策略,有利于改善用户心情,从而提升用户体验,突出了推荐结果的个性化,同时保证了用户当前推荐结果的准确性。
实施例五
本申请实施例提供一种视频推荐方法,如图3-1所示,该方案由人脸检测用户特征获取模块31,用户浏览行为获取模块32,兴趣点生成模块33和推荐模块34组成,该方案的整体流程如图3-2所示,包括以下步骤:
步骤S301,人脸检测用户特征获取模块31获取当前用户的基本特征、面部关键点定位和眼睛视线方向。
步骤S302,用户浏览行为获取模块32获取用户当前的浏览行为。
步骤S303,将上述获取的用户维度信息和浏览行为上传服务器。
步骤S304,兴趣点生成模块33生成当前浏览行为的兴趣列表。
步骤S305,推荐模块34推荐模块结合用户当前兴趣列表和浏览行为生成推荐策略。
步骤S306,预测下一页面的浏览内容,生成个性化的视频推荐结果。
方案中各模块的功能具体如下:
I、人脸检测用户特征获取模块31包括年龄检测单元,性别检测单元,面部特征点检测单元和眼睛视线方向检测单元,主要是响应于视频推荐需求,启动人脸检测进程,获取采集的用户的面部图像,对该面部图像分析得到当前用户的基本特征、面部关键点定位和眼睛视线方向。其中,各单元的具体功能如下:
年龄检测单元,结合视频推荐领域对用户年龄信息的预处理方法,当用户有视频推荐需求时,将采集的用户面部图像,送入年龄检测模型,得到该用户的年龄特征。在应用中,可以将年龄进行分段,例如分为1(<18)、18(18-24)、25(25-34)、35(35-44)、45(45-49)、50(50-55)、56(56+)等七个年龄段,并通过以下步骤得到年龄检测模型:1)收集人脸图片的正、负样本,对样本数据进行预处理及归一化,并进行年龄标注;2)使用卷积神经网络进行特征提取和年龄分类;3)通过模型训练得到最终的年龄检测模型。
性别检测单元,主要是为了获取当前用户的性别维度信息。考虑到人类性别分为男性和女性的实际情况,将性别的检测问题转化为对性别的一个二分类问题,将采集的人脸图像送入分类器模型,得到该用户的性别。
在应用中,可以通过以下步骤得到能够检测性别的分类器模型:1)收集人脸图片的正、负样本,对样本数据进行预处理及归一化,并进行性别标注;2)提取正、负样本图像的梯度直方图特征(Histogram of Oriented Gradient,HOG);3)将提取的正、负样本的HOG特征,送入支持向量机(Support Vector Machine,SVM);4)迭代训练得到最终的分类器模型。
面部关键点检测单元通过计算机视觉库Dlib检测得到面部的68个关键点,如图3-3所示,比如面部的关键点22和23为双眉关键点,面部的关键点52和58为上下唇关键点。
眼睛视线方向检测单元通过计算机视觉库OpenFace实现眼睛视线的检测和跟踪,并分析得到用户眼睛视线方向与当前页面的交互记录。
II、用户浏览行为获取模块32,主要通过眼睛视线方向与当前页面的交互记录,包含眼睛视线方向停留在当前页面的开始时间、停留时间等,获取用户当前浏览行为记录,其获取过程如下图3-4所示:
步骤S3201,首先获取用户ID;
步骤S3202,根据用户ID判断当前用户是否为新用户;
步骤S3203,针对新用户,通过本模块获取其当前浏览行为记录,其当前浏览行为记录即为新用户浏览行为记录;
步骤S3204,针对老用户,通过本模块,获取其当前浏览行为记录,同时将当前浏览行为记录与其历史浏览行为记录进行合并,合并后即为老用户的浏览行为记录。
这里,浏览行为可以形成记录表,用户的历史浏览行为记录则可以通过查记录表得到,当然也包括其他任何能够得到用户的浏览行为的途径,本申请实施例对此不作限定。
该方法可获得新用户的浏览行为记录,有效解决了新用户冷启动问题。
III、兴趣点生成模块33,主要通过用户眼睛的视线方向与此时浏览页面之间的交互记录,包含视线停留在所浏览页面的开始时间、停留时间、观看时长以及视频时长等,再结合用户此时的浏览心情生成用户该条浏览行为的兴趣系数,进而根据浏览行为记录,可获得浏览行为及其兴趣系数的列表,也就是生成用户的兴趣点,其生成过程如图3-5所示,包括:
步骤S3301,获取用户当前的浏览行为。
这里,所述浏览行为通过用户浏览行为获取模块32得到。
步骤S3302,判断视线方向与浏览页面是否交互。
这里,所述视线方向为眼睛视线方向检测单元通过计算机视觉库OpenFace实现眼睛视线的检测和跟踪,并分析判断该视线方向与浏览页面是否交互。
步骤S3303,在视线方向与浏览页面有交互行为记录的情况下,根据视线在浏览页面的观看时长和视频时长得到兴趣系数1。
这里,计算所述交互信息中的观看时长和所述浏览页面对应的视频时长之间的比值,将这一比值系数映射为所述浏览行为包含的每一浏览内容的兴趣系数。
示例地,首先计算当前视频的观看时长和视频时长之间的比值,然后按照分割步长为0.2,将该比值落在区间[0-0.2)、[0.2-0.4)、[0.4-0.6)、[0.6-0.8)和[0.8-1]分别映射为1、2、3、4和5的兴趣评分,记为兴趣系数1,其中区间[0-0.2)表示取值范围为大于等于0且小于0.2,区间[0.2-0.4)表示取值范围为大于等于0.2且小于0.4,区间[0.4-0.6)表示取值范围为大于等于0.4且小于0.6,区间[0.6-0.8)表示取值范围大于等于0.6且小于0.8,区间[0.8-1]表示取值范围为大于等于0.8且小于等于1。
步骤S3304,在视线方向与浏览页面无交互行为记录的情况下,根据面部关键点生成心情标签。
这里,所述心情标签的生成策略根据面部关键点的位置信息,同时结合面部器官的外接矩形的长宽比实现:
首先,根据图像坐标系中,两点之间的欧式距离计算公式得到面部关键点的距离,如公式(4):
其中,P1、P2分别为面部关键点的坐标,Dis(P1,P2)为P1、P2之间的欧式距离。
然后,按照公式(5)计算面部器官外接矩形的长宽比:
Scale=wide/height (5);
其中,Scale为外接矩形的长宽比,wide为外接矩形的长,height为外接矩形的宽。
最后,根据如下公式(6)判别心情标签:
其中,Conditionm代表心情标签,1代表微笑、0代表中性、-1代表皱眉,P52、P58、P22、P23分别为面部关键点52、58、22、23的坐标,thresholdDisM代表上下唇关键点52和58之间的距离阈值,实验中取经验值16,thresholdDisE代表双眉关键点22和23的距离阈值,实验中取经验值18,ScaleM代表嘴巴外接矩形的长宽比系数阈值,实验中取经验值1.8。
步骤S3305,根据停留时间和心情标签得到兴趣系数2。
这里,首先,将视线停留时间进行归一化,如公式(7):
其中,pi为第i次视线在浏览页面的停留时间的归一化系数,ti为第i次视线停留在浏览页面的停留时间,n为当前视线与浏览页面的交互次数,UEye为用户视线与浏览页面的总交互次数,为用户视线与浏览页面的交互总时长。
然后,结合用户当前的心情标签,生成用户视线浏览无交互行为记录情况下的兴趣系数,如公式(8):
其中,POI代表兴趣系数,0代表不感兴趣,λ代表当前心情标签的标签系数,针对微笑、中性、皱眉三大类心情标签,对应的标签系数λ分别为1,0,-1,a、b分别代表左右眼睛的视线方向向量,a1和at+1分别为左眼睛在间隔时间t的图像帧中的视线方向向量,b1和bt+1分别为右眼睛在间隔时间t的图像帧中的视线方向向量,cos(a,b)为向量a和b的余弦相似度,cos(a1,at+1)为向量at和at+1之间的余弦相似度,cos(b1,bt+1)为向量b1和bt+1之间的余弦相似度,具体计算方式如公式(9):
其中,a和b分别代表左右眼睛的视线方向向量,a·b为向量a与b的乘积,||a||和||b||分别为向量a的模和向量b的模。
相应地,根据上述公式(9)依次计算cos(a1,at+1)和cos(b1,bt+1)。
步骤S3306,并入历史兴趣系数。
这里,历史兴趣系数为通过本模块获得的用户的历史浏览行为对应的兴趣系数,也可以为由其他模块提供的历史兴趣系数。
步骤S3307,生成浏览行为对应的兴趣点列表。
这里,根据兴趣系数1、兴趣系数2和历史兴趣系数生成用户的浏览行为对应的兴趣点列表。
IV、推荐模块34基于候选生成模型341和评分排序模型342的两层架构,候选生成模型341以较高的召回率指标,从海量视频库343中得到几百万数量级的视频ID,评分排序模型342根据得到的召回视频信息、用户当前和历史记录记录32及其时间戳信息,结合兴趣点生成模块33,以较高的准确率指标,得到最终的个性化推荐列表345,如图3-6所示。
其中,候选生成模型341基于用户浏览的具有时间相关性的一组序列,预测观看的视频ID序列。在一个实施例中,对用户的浏览行为记录,根据获取到的观看开始时间,按照时间戳进行排序,最终得到用户浏览记录的一组序列,如图3-7所示。
在标准数据集上划分训练集和测试集,通过模型的训练和测试,前300名的平均召回率达到80.44%,前1000名的平均召回率达到90.1%,取得较高的召回率。基于获得较高的召回率的目的,根据模型训练,该模块可获得用户预测的视频候选集。
其中,评分排序模型342基于用户浏览行为获取模块32得到的用户的浏览行为记录,对召回视频进行预测打分,如图3-8所示。在一个实施例中,根据用户浏览行为,输入用户维度的用户ID、年龄、职业、受教育程度,视频维度的视频ID、视频导演、视频演员、视频时长等,以及视频评分和时间戳;对获取到的观看开始时间按照时间戳进行排序,并经过三层的全连接送入最后的多分类器(Softmax层)进行分类,然后将分类后的视频序列输入评分排序模型,最终得到当前用户对不同类别的视频的预测打分。
最后,基于用户浏览行为记录,经过评分排序模型342得到召回视频的预测打分,同时结合兴趣点生成模块33生成符合用户当前状态的个性化推荐结果345,如图3-9所示的推荐策略,结合当前候选召回序列和历史候选召回序列,再送入评分排序模型342,得到用户的个性化推荐结果。
在实现中推荐策略分别考虑用户浏览历史的总体类别分布和评分排序模型的推荐准确性。通过对用户的浏览历史进行统计,首先得到所述浏览行为包含的每一浏览内容的视频类别,然后计算用户浏览每一类别视频的频次和用户所浏览的视频序列的总次数,再通过计算所浏览每一类别视频的频次占浏览视频序列的总次数的比例,得到该类别视频对应的类别概率,最后,根据所述浏览行为包含的每一浏览内容的视频类别及对应类别概率得到类别分布。另外,考虑到视频类别有多种,而若用户独钟于某一类别视频,会失去视频类别的多样性和新颖性,故可以采取一定的措施以调整某一视频类别占总体类别的权重,比如对用户有特殊喜好的热门视频类别添加惩罚项,以减少总体类别中热门视频类别的权重,同时增加与该热门视频类别关联的交叉视频类别的权重,实施步骤如下面公式(10)和(11)所示:
其中,i和j分别为不同类别视频的ID,ω(i,j)为类别概率,N(i)N(j)分别为表示不同的类别视频。
添加惩罚项后,转换到公式(11):
评分排序模型342输出到Top N推荐排序时,基于以上类别分布和推荐准确率为实际标签,将视频ID对应的相关类别通过数字词典化转换作为输入,以兴趣点列表作为初始化参数,送入回归模型f(x)=WTx+b进行训练,其中,f(x)为生成的推荐视频序列,W为兴趣系数矩阵,WT为对应的转置矩阵,b为偏置项,x为视频ID对应的相关类别,最终获得结合兴趣系数和类别分布的推荐列表。
本申请实施例中首先通过人脸检测进程,获取用户的年龄、性别特征、面部关键点和用户眼睛视线方向,然后根据眼睛视线方向与当前页面的交互记录获取用户浏览行为记录,结合面部关键点生成用户浏览行为对应的兴趣点列表,预测当前场景下用户对尚未观看视频的感兴趣程度。最后,根据感兴趣程度,结合推荐技术及其推荐策略,生成个性化的视频推荐结果。有利于改善用户心情,提升用户体验,更加符合用户个性化视频推荐的期望结果。
实施例六
本申请实施例提供一种视频推荐装置400,该装置包括所包括的各模块、以及各模块所包括的各单元,可以通过计算机设备中的处理器来实现;当然也可通过具体的逻辑电路实现;在实施的过程中,处理器可以为中央处理器(CPU)、微处理器(MPU)、数字信号处理器(DSP)或现场可编程门阵列(FPGA)等。
图4为本申请实施例视频推荐装置的组成结构示意图,如图4所示,所述视频推荐装置400包括:第一获取模块401、提取模块402、第二获取模块403和生成模块404,其中:
所述第一获取模块401,用于响应于视频推荐需求,获取采集的待推荐对象的面部图像;
所述提取模块402,用于从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征;
所述第二获取模块403,用于获取所述待推荐对象的浏览行为;
所述生成模块404,用于根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。
在所述装置中,所述提取模块402提取的所述待推荐对象的基本特征至少包括以下之一:待推荐对象的年龄、性别、面部关键点和眼睛的视线方向。
在所述装置中,所述第二获取模块403,包括:
第一获取子模块,用于获取所述待推荐对象的眼睛的视线方向与浏览页面之间的交互信息;
第一确定子模块,用于根据所述交互信息,确定所述待推荐对象的浏览行为。
在所述装置中,所述第一获取子模块获取的交互信息至少包括以下之一:所述视线方向在所述浏览页面上的开始时间、停留时间和观看时长。
在所述装置中,如果所述待推荐对象为非新用户,所述第二获取模块403还包括并入子模块,用于将所述待推荐对象的历史浏览行为并入所述浏览行为。
在所述装置中,所述生成模块404包括:
候选生成子模块,用于根据所述待推荐对象的浏览行为,通过候选生成模型从视频库中得到召回视频序列;
评分预测子模块,根据所述待推荐对象的基本特征,通过评分排序模型对所述召回视频序列进行评分预测,生成视频推荐结果。
在所述装置中,所述生成模块404包括:
第二确定子模块,用于根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,确定所述浏览行为包含的每一浏览内容的兴趣系数;
统计子模块,用于通过对所述浏览行为包含的每一浏览内容进行统计,得到所述每一浏览内容对应的视频类别;
第三确定子模块,用于根据所述兴趣系数和所述视频类别,确定推荐策略;
生成子模块,根据所述推荐策略,生成所述视频推荐结果。
在所述装置中,所述待推荐对象的基本特征包括所述待推荐对象的眼睛的视线方向时,所述第二确定子模块,包括:
第一获取单元,用于获取所述待推荐对象的眼睛的视线方向与所浏览页面之间的交互信息;
第一确定单元,用于如果所述交互信息表明所述眼睛的视线方向与所述浏览页面之间有交互行为,根据所述交互信息中的观看时长和所述浏览页面对应的视频时长,确定所述浏览行为包含的每一浏览内容的兴趣系数。
在所述装置中,所述待推荐对象的基本特征还包括所述待推荐对象的面部关键点时,所述第二确定子模块,还包括:
第一生成单元,用于根据如果所述交互信息表明所述眼睛的视线方向与所述浏览页面之间无交互行为,根据所述基本特征中的面部关键点生成待推荐对象的心情标签;
第二确定单元,用于根据所述心情标签的等级级别和所述交互信息中的停留时间,确定所述浏览行为包含的每一浏览内容的兴趣系数。
在所述装置中,所述第一生成单元,包括:
第一生成子单元,用于如果所述面部关键点中的上下唇关键点之间的距离满足第一预设条件,生成第一等级的心情标签;
第二生成子单元,用于如果所述面部关键点中的双眉关键点之间的距离满足第二预设条件,生成第三等级的心情标签;
第三生成子单元,用于如果所述面部关键点均不满足所述第一预设条件和所述第二预设条件,生成第二等级的心情标签;
其中,第一等级的心情标签、第二等级的心情标签、第三等级的心情标签表示待推荐对象对当前浏览页面的感兴趣度依次降低。
在所述装置中,所述第一生成子单元中的第一预设条件为所述上下唇关键点之间的距离小于第一阈值,或所述上下唇关键点之间的距离大于所述待推荐对象的嘴巴外接矩形的长宽比系数阈值;所述第二生成子单元中的第二预设条件为所述双眉关键点之间的距离大于第二阈值。
在所述装置中,所述第二确定单元包括:
第一确定子单元,用于根据所述交互信息中的停留时间与所述待推荐对象的视线与所述浏览页面之间的交互总时长,确定所述视线的停留时间的归一化系数;
第一获取子单元,用于获取间隔时间t的图像帧中左右眼睛的视线方向向量;
第二确定子单元,用于根据所述视线方向向量,确定所述视线方向向量的余弦相似度;所述余弦相似度用于表示所述待推荐对象的视线方向的一致性;
第三确定子单元,用于如果所述余弦相似度满足第三预设条件,根据所述归一化系数和所述心情标签的等级级别,确定所述浏览行为包含的每一浏览内容的兴趣系数。
在所述装置中,所述统计子模块还包括:
更新单元,用于根据所述待推荐对象的偏好确定所述待推荐对象所浏览内容的热门视频类别,通过减少所述类别分布中所述热门视频类别的权重,并增加与所述热门视频类别关联的视频类别的权重,以实现更新所述推荐策略。
以上装置实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请装置实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
需要说明的是,本申请实施例中,如果以软件功能模块的形式实现上述的视频推荐方法,并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得包含该存储介质的设备自动测试线执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。
对应地,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中提供的视频推荐方法中的步骤。
这里需要指出的是:以上存储介质和设备实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本申请存储介质和设备实施例中未披露的技术细节,请参照本申请方法实施例的描述而理解。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本申请的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本申请实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(Read Only Memory,ROM)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得设备自动测试线执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (15)
1.一种视频推荐方法,其特征在于,所述方法包括:
响应于视频推荐需求,获取采集的待推荐对象的面部图像;
从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征;
获取所述待推荐对象的浏览行为;
根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。
2.根据权利要求1所述的方法,其特征在于,所述待推荐对象的基本特征,至少包括以下之一:待推荐对象的年龄、性别、面部关键点和眼睛的视线方向。
3.根据权利要求2所述的方法,其特征在于,所述获取待推荐对象的浏览行为,包括:
获取所述待推荐对象的眼睛的视线方向与浏览页面之间的交互信息;
根据所述交互信息,确定所述待推荐对象的浏览行为。
4.根据权利要求3所述的方法,其特征在于,所述交互信息至少包括以下之一:所述视线方向在所述浏览页面上的开始时间、停留时间和观看时长。
5.根据权利要求3所述的方法,其特征在于,所述根据所述交互信息,确定所述待推荐对象的浏览行为之后,所述方法还包括:
如果所述待推荐对象为非新用户,将所述待推荐对象的历史浏览行为并入所述浏览行为。
6.根据权利要求1所述的方法,所述根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果,包括:
根据所述待推荐对象的浏览行为,通过候选生成模型从视频库中得到召回视频序列;
根据所述待推荐对象的基本特征,通过评分排序模型对所述召回视频序列进行评分预测,生成视频推荐结果。
7.根据权利要求1所述的方法,其特征在于,所述根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果,包括:
根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,确定所述浏览行为包含的每一浏览内容的兴趣系数;
通过对所述浏览行为包含的每一浏览内容进行统计,得到所述浏览内容的类别分布;
根据所述兴趣系数和所述类别分布,确定推荐策略;
根据所述推荐策略,生成所述视频推荐结果。
8.根据权利要求7所述的方法,其特征在于,所述待推荐对象的基本特征包括所述待推荐对象的眼睛的视线方向时,
所述根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,确定所述浏览行为包含的每一浏览内容的兴趣系数,包括:
获取所述待推荐对象的眼睛的视线方向与所浏览页面之间的交互信息;
如果所述交互信息表明所述眼睛的视线方向与所述浏览页面之间有交互行为,根据所述交互信息中的观看时长和所述浏览页面对应的视频时长,确定所述浏览行为包含的每一浏览内容的兴趣系数。
9.根据权利要求8所述的方法,其特征在于,所述待推荐对象的基本特征还包括所述待推荐对象的面部关键点时,
所述根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,确定所述浏览行为包含的每一浏览内容的兴趣系数,还包括:
如果所述交互信息表明所述眼睛的视线方向与所述浏览页面之间无交互行为,根据所述基本特征中的面部关键点生成所述待推荐对象的心情标签;
根据所述心情标签的等级级别和所述交互信息中的停留时间,确定所述浏览行为包含的每一浏览内容的兴趣系数。
10.根据权利要求9所述的方法,其特征在于,所述根据所述面部关键点生成待推荐对象的心情标签,包括:
如果所述面部关键点中的上下唇关键点之间的距离满足第一预设条件,生成第一等级的心情标签;
如果所述面部关键点中的双眉关键点之间的距离满足第二预设条件,生成第三等级的心情标签;
如果所述面部关键点均不满足所述第一预设条件和所述第二预设条件,生成第二等级的心情标签;
其中,第一等级的心情标签、第二等级的心情标签、第三等级的心情标签表示待推荐对象对当前浏览页面的感兴趣度依次降低;
其中,所述第一预设条件为所述上下唇关键点之间的距离小于第一阈值,或所述上下唇关键点之间的距离大于所述待推荐对象的嘴巴外接矩形的长宽比系数阈值;
所述第二预设条件为所述双眉关键点之间的距离大于第二阈值。
11.根据权利要求9所述的方法,其特征在于,所述根据所述心情标签的等级级别和所述交互信息中的停留时间,确定所述浏览行为包含的每一浏览内容的兴趣系数,包括:
根据所述交互信息中的停留时间和所述待推荐对象的视线与所述浏览页面之间的交互总时长,确定所述视线的停留时间的归一化系数;
获取间隔时间t的图像帧中左右眼睛的视线方向向量;
根据所述视线方向向量,确定所述视线方向向量的余弦相似度;所述余弦相似度用于表示所述待推荐对象的视线方向的一致性;
如果所述余弦相似度满足用于表征视线方向一致的第三预设条件,根据所述归一化系数和所述心情标签的等级级别,确定所述浏览行为包含的每一浏览内容的兴趣系数。
12.根据权利要求7所述的方法,其特征在于,所述推荐策略包括热门视频类别在所述类别分布中的权重,所述通过对所述浏览行为包含的每一浏览内容进行统计,得到所述浏览内容的类别分布之后,所述方法还包括:
根据所述待推荐对象的偏好确定所述待推荐对象所浏览内容的热门视频类别;
通过减少所述类别分布中所述热门视频类别的权重,并增加与所述热门视频类别相关联的视频类别的权重,以实现更新所述推荐策略。
13.一种视频推荐装置,其特征在于,所述装置包括第一获取模块、提取模块、第二获取模块和生成模块,其中:
所述第一获取模块,用于响应于视频推荐需求,获取采集的待推荐对象的面部图像;
所述提取模块,用于从所述待推荐对象的面部图像中,提取所述待推荐对象的基本特征;
所述第二获取模块,用于获取所述待推荐对象的浏览行为;
所述生成模块,用于根据所述待推荐对象的基本特征和所述待推荐对象的浏览行为,生成视频推荐结果。
14.一种视频推荐终端,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至12任一项所述方法中的步骤。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至12中任一项所述方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910993977.0A CN112685596B (zh) | 2019-10-18 | 2019-10-18 | 视频推荐方法及装置、终端、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910993977.0A CN112685596B (zh) | 2019-10-18 | 2019-10-18 | 视频推荐方法及装置、终端、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112685596A true CN112685596A (zh) | 2021-04-20 |
CN112685596B CN112685596B (zh) | 2023-04-14 |
Family
ID=75445121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910993977.0A Active CN112685596B (zh) | 2019-10-18 | 2019-10-18 | 视频推荐方法及装置、终端、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112685596B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222712A (zh) * | 2021-05-31 | 2021-08-06 | 中国银行股份有限公司 | 一种产品推荐方法和装置 |
CN114581192A (zh) * | 2022-03-08 | 2022-06-03 | 山东大学 | 基于用户隐性数据的金融产品推荐方法及系统 |
CN117290543A (zh) * | 2023-10-13 | 2023-12-26 | 广东乐阳智能设备有限公司 | 一种基于ar交互的短视频推荐系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107480265A (zh) * | 2017-08-17 | 2017-12-15 | 广州视源电子科技股份有限公司 | 数据推荐方法、装置、设备以及存储介质 |
CN107679067A (zh) * | 2017-08-04 | 2018-02-09 | 平安科技(深圳)有限公司 | 信息推荐方法及移动终端 |
US20190164210A1 (en) * | 2017-11-29 | 2019-05-30 | Ditto Technologies, Inc. | Recommendation system based on a user's physical features |
CN110321477A (zh) * | 2019-05-24 | 2019-10-11 | 平安科技(深圳)有限公司 | 信息推荐方法、装置、终端及存储介质 |
-
2019
- 2019-10-18 CN CN201910993977.0A patent/CN112685596B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679067A (zh) * | 2017-08-04 | 2018-02-09 | 平安科技(深圳)有限公司 | 信息推荐方法及移动终端 |
CN107480265A (zh) * | 2017-08-17 | 2017-12-15 | 广州视源电子科技股份有限公司 | 数据推荐方法、装置、设备以及存储介质 |
US20190164210A1 (en) * | 2017-11-29 | 2019-05-30 | Ditto Technologies, Inc. | Recommendation system based on a user's physical features |
CN110321477A (zh) * | 2019-05-24 | 2019-10-11 | 平安科技(深圳)有限公司 | 信息推荐方法、装置、终端及存储介质 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222712A (zh) * | 2021-05-31 | 2021-08-06 | 中国银行股份有限公司 | 一种产品推荐方法和装置 |
CN114581192A (zh) * | 2022-03-08 | 2022-06-03 | 山东大学 | 基于用户隐性数据的金融产品推荐方法及系统 |
CN114581192B (zh) * | 2022-03-08 | 2024-01-26 | 山东大学 | 基于用户隐性数据的金融产品推荐方法及系统 |
CN117290543A (zh) * | 2023-10-13 | 2023-12-26 | 广东乐阳智能设备有限公司 | 一种基于ar交互的短视频推荐系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112685596B (zh) | 2023-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tian et al. | Multimodal deep representation learning for video classification | |
US20200228359A1 (en) | Live streaming analytics within a shared digital environment | |
US9589205B2 (en) | Systems and methods for identifying a user's demographic characteristics based on the user's social media photographs | |
US20190172458A1 (en) | Speech analysis for cross-language mental state identification | |
US10019653B2 (en) | Method and system for predicting personality traits, capabilities and suggested interactions from images of a person | |
Yuan et al. | Sentribute: image sentiment analysis from a mid-level perspective | |
CN113158023B (zh) | 基于混合推荐算法的公共数字生活精准分类服务方法 | |
US8301498B1 (en) | Video content analysis for automatic demographics recognition of users and videos | |
CN102207954B (zh) | 电子设备、内容推荐方法及其程序 | |
US20170308753A1 (en) | Systems and Methods for Identifying Activities and/or Events in Media Contents Based on Object Data and Scene Data | |
CN110737801A (zh) | 内容分类方法、装置、计算机设备和存储介质 | |
CN112685596B (zh) | 视频推荐方法及装置、终端、存储介质 | |
US20170095192A1 (en) | Mental state analysis using web servers | |
CN110737783A (zh) | 一种推荐多媒体内容的方法、装置及计算设备 | |
CN103365936A (zh) | 视频推荐系统及其方法 | |
US11430561B2 (en) | Remote computing analysis for cognitive state data metrics | |
Abousaleh et al. | Multimodal deep learning framework for image popularity prediction on social media | |
Li et al. | Videography-based unconstrained video analysis | |
CN111597446A (zh) | 基于人工智能的内容推送方法、装置、服务器和存储介质 | |
Glavan et al. | InstaIndoor and multi-modal deep learning for indoor scene recognition | |
CN115935049A (zh) | 基于人工智能的推荐处理方法、装置及电子设备 | |
Kofler et al. | Uploader intent for online video: typology, inference, and applications | |
CN113705310A (zh) | 特征学习的方法、目标物体的识别方法和对应装置 | |
Miniakhmetova et al. | An approach to personalized video summarization based on user preferences analysis | |
Balfaqih | A Hybrid Movies Recommendation System Based on Demographics and Facial Expression Analysis using Machine Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |