CN112492389A - 视频推送方法、视频播放方法、计算机设备和存储介质 - Google Patents

视频推送方法、视频播放方法、计算机设备和存储介质 Download PDF

Info

Publication number
CN112492389A
CN112492389A CN201910862861.3A CN201910862861A CN112492389A CN 112492389 A CN112492389 A CN 112492389A CN 201910862861 A CN201910862861 A CN 201910862861A CN 112492389 A CN112492389 A CN 112492389A
Authority
CN
China
Prior art keywords
video
facial
expression
user
xth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910862861.3A
Other languages
English (en)
Other versions
CN112492389B (zh
Inventor
张忻正
黄忆旻
金健翔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bilibili Technology Co Ltd
Original Assignee
Shanghai Bilibili Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bilibili Technology Co Ltd filed Critical Shanghai Bilibili Technology Co Ltd
Priority to CN201910862861.3A priority Critical patent/CN112492389B/zh
Publication of CN112492389A publication Critical patent/CN112492389A/zh
Application granted granted Critical
Publication of CN112492389B publication Critical patent/CN112492389B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre

Abstract

本发明提供了一种视频推送方法、视频播放方法、计算机设备和计算机可读存储介质。该视频推送方法包括:根据用户观看视频时的面部表情确定所述用户的视频偏好向量;在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户;向所述目标用户推送所述匹配用户的观看记录中的视频。通过本发明,能够在推送多元化视频的同时,提升推送视频与用户的贴合度。

Description

视频推送方法、视频播放方法、计算机设备和存储介质
技术领域
本发明涉及数据处理技术领域,尤其涉及一种视频推送方法、视频播放方法、计算机设备和存储介质。
背景技术
对着移动客户终端的普及和通信能力的提升,终端的视频播放技术也在持续更新迭代。现有技术中,为了提升用户体验,提出了两类型的视频推送方法,发明人研究,在第一类型的视频推送方法中,根据用户自身的特点进行视频推送,该方法需要获取包括用户年龄、性别以及职业等用户的个性化的信息生成用户标签,然后将与用户标签相匹配的视频推送至用户,这种类型的方法需要搜集用户的个性化信息,当信息不完善时,无法得到细粒度化的用户标签,从而使得推送至用户的视频与用户的贴合度低。在第二类型的视频推送方法中,根据用户的播放记录进行视频推送,该方法将与用户播放记录同类型的视频推送至用户,这种类型的方法导致推送的视频的类型较局限,不满足用户多元化的需求。
因此,提供一种视频推送方法、视频播放方法、计算机设备和存储介质,能够在推送多元化视频的同时,提升推送视频与用户的贴合度,成为本领域亟需解决的技术问题。
发明内容
本发明的目的是提供一种视频推送方法、视频播放方法、计算机设备和计算机可读存储介质,用于解决现有技术中存在的推送视频与用户的贴合度低以及推送视频的类型较局限的技术问题。
一方面,为实现上述目的,本发明提供了一种视频推送方法。
该视频推送方法包括:根据用户观看视频时的面部表情确定用户的视频偏好向量;在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户;向目标用户推送匹配用户的观看记录中的视频。
进一步地,在根据用户观看视频时的面部表情确定用户的视频偏好向量的步骤之前,视频推送方法还包括:采集用户观看多个视频时的面部图像,其中,针对同一个视频采集多个面部图像,不同的面部图像对应视频的不同位置;以及确定面部图像所属的面部表情。
进一步地,确定面部图像所属的面部表情的步骤包括:对面部图像进行图像识别,确定面部元素的描述数据,其中,面部元素包括左眼、右眼、嘴巴、下颚、眉毛和/或鼻子;预设面部元素的描述数据与面部表情的关联关系;以及根据面部元素的描述数据和关联关系确定面部图像所属的面部表情。
进一步地,面部元素的描述数据包括面部元素符合元素状态的程度值,其中:左眼和右眼的元素状态分别包括:眨眼、向下看、向上看、向里看、向外看、眯眼和张眼;嘴巴的元素状态包括:闭嘴、鼓嘴、抿嘴、嘴左撇、嘴右撇、嘴弧度向下左倾、嘴弧度向下右倾、嘴弧度向上左倾和嘴弧度向上右倾;下颚的元素状态包括:下颚前倾、下颚左倾和下颚右倾;眉毛的元素状态包括:眉毛左下垂、眉毛右下垂和眉毛向中间下垂;鼻子的元素状态包括:左鼻孔张开和右鼻孔张开。
进一步地,预设面部元素的描述数据与面部表情的关联关系的步骤包括:定义每种面部表情对应的表情模型,其中,表情模型包括若干种面部元素、每种面部元素需要符合的元素状态和符合每种元素状态的程度值的范围;根据面部元素的描述数据和关联关系确定面部图像所属的面部表情的步骤包括:将面部元素的描述数据与表情模型进行匹配,将匹配到的表情模型对应的面部表情作为面部图像所属的面部表情。
进一步地,确定面部图像所属的面部表情的步骤具体为:在预设的N种面部表情中确定面部图像所属的面部表情,其中,N为大于2的正整数;根据用户观看视频时的面部表情确定用户的视频偏好向量的步骤包括:统计用户观看每个视频时属于同一种面部表情的面部图像的数量,以得到每个视频对应的第一统计量至第N统计量,其中,第X统计量对应第X种面部表情,X大于等于1且小于等于N;以及根据多个视频的第X统计量确定视频偏好向量的第X分量。
进一步地,根据多个视频的第X统计量确定视频偏好向量的第X分量的步骤包括:确定每个视频对应第X种面部表情的表情可信值;根据多个视频对应第X种面部表情的表情可信值和第X统计量确定视频偏好向量的第X分量。
进一步地,确定每个视频对应第X种面部表情的表情可信值的步骤包括:预设每种视频标签的权重参数和对应第X种面部表情的可信量;获取视频的视频标签;计算获取到的每种视频标签的权重参数与对应第X种面部表情可信量的乘积;以及计算获取到的所有视频标签的乘积的和作为视频对应第X种面部表情的表情可信值。
进一步地,根据多个视频对应第X种面部表情的表情可信值和第X统计量确定视频偏好向量的第X分量的步骤包括:预设表情可信值的第一权重参数和第X统计量的第二权重参数;计算每个视频对应第X种面部表情的表情可信值与第一权重参数的乘积,得到第一乘积;计算每个视频的第X统计量与第二权重参数的乘积,得到第二乘积;计算多个视频的所有第一乘积和第二乘积的和作为视频偏好向量的第X分量。
进一步地,向目标用户推送匹配用户的观看记录中的视频的步骤包括:获取目标用户的观看记录,得到第一观看记录;获取匹配用户的观看记录,得到第二观看记录;去除第二观看记录中与第一观看记录重叠的视频,得到待推送记录;以及向目标用户推送待推送记录中的视频。
进一步地,第一视频为向目标用户推送的任一视频,向目标用户推送第一视频的步骤包括:获取观看第一视频的用户对应的若干条表情标识数据,其中,每条表情标识数据对应一个用户观看第一视频时采集到的一个面部图像,表情标识数据包括识别面部图像确定的面部元素的描述数据、采集面部图像时第一视频的位置数据和面部图像所属的面部表情;对第一视频对应的所有表情标识数据进行聚类分析,以得到若干个类别组;确定类别组的类中心,以得到中心表情标识数据;根据中心表情标识数据中的位置数据和面部表情生成播放控制数据;向目标用户推送第一视频的播放控制数据。
进一步地,根据中心表情标识数据中的位置数据和面部表情生成播放控制数据的步骤包括:根据中心表情标识数据中的位置数据和面部表情生成控制播放进度条的播放控制数据,其中,播放控制数据用于在播放进度条对应位置数据的进度处显示面部表情对应的图标。
进一步地,根据中心表情标识数据中的位置数据和面部表情生成播放控制数据的步骤包括:根据中心表情标识数据中的位置数据和面部表情生成控制弹幕的播放控制数据,其中,播放控制数据用于在位置数据对应的第一视频的播放画面上显示面部表情对应的弹幕。
另一方面,为实现上述目的,本发明提供了一种视频播放方法。
该视频播放方法包括:显示视频推送列表,其中,视频推送列表包括通过本发明提供的任意一种视频推送方法推送的视频;响应于用户在视频推送列表中的选择操作,播放选择操作选定的视频。
进一步地,播放选择操作选定的视频的步骤包括:获取选择操作选定的视频的播放控制数据,其中,播放控制数据根据位置数据和面部表情生成,面部表情由历史观看视频的用户的面部图像确定,位置数据对应采集面部图像时视频的位置;根据播放控制数据播放选择操作选定的视频。
进一步地,根据播放控制数据播放选择操作选定的视频的步骤包括:在播放进度条对应位置数据的进度处显示面部表情对应的图标。
进一步地,根据播放控制数据播放选择操作选定的视频的步骤包括:在位置数据对应的播放画面上显示面部表情对应的弹幕。
为实现上述目的,本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
为实现上述目的,本发明还提供计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本发明提供的视频推送方法、视频播放方法、计算机设备和计算机可读存储介质,首先根据用户观看视频时的面部表情确定用户的视频偏好向量,然后在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户,最后向目标用户推送匹配用户的观看记录中的视频,由于面部表情与用户视频偏好的强相关性,使得该实施例中用户的视频偏好向量能够更加准确的反应出用户对视频的偏好程度,在此基础上,基于视频偏好向量进行视频推送,也即,对于目标用户而言,推送视频来源于视频偏好向量最接近的匹配用户的观看记录,从而使得目标用户得到的推送视频中视频的种类能够更加贴近目标用户对视频的偏好,提升了推送视频与目标用户的贴合度;此外,推送视频来源于其他用户的观看记录,与推送视频为自身播放记录同类型的视频相比,不局限于视频类型,实现了多元化视频的推送。
附图说明
图1为本发明实施例一提供的视频推送方法的流程图;
图2为本发明实施例二提供的视频播放方法的流程图;
图3为本发明实施例三提供的视频推送装置的框图;
图4为本发明实施例四提供的视频播放装置的框图;
图5为本发明实施例五提供的计算机设备的硬件结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供了一种视频推送方法、视频播放方法、视频推送装置、视频播放装置、计算机设备和存储介质。在本发明提供的视频推送方法中,通过用户观看视频时的面部表情确定用户的视频偏好向量,其中,视频偏好向量为多维向量,每一维分量用于标识用户对一种视频的偏好程度,则视频偏好向量能够标识出用户对多种视频的偏好程度。进行视频推送时,在一个确定的用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户,也即目标用户与匹配用户对多种视频的偏好程度最接近,此时,向目标用户推送匹配用户的观看记录中的视频。基于该视频推送方法,一方面,推送的视频来源于视频偏好向量与目标用户接近的匹配用户,使得推送的视频贴合于目标用户对多种视频的偏好程度,从而能够提升推送视频与目标用户的贴合度;另一方面,推送的视频来源于匹配用户的观看记录,并不局限于一类型的视频,实现了多元化视频的推送。在本发明提供的视频播放方法中,在播放基于上述视频推送方法推送的视频的基础上,进一步根据推送的播放控制数据进行播放,具体可包括在播放进度条的对应位置处显示面部表情对应的图标,在对应的播放画面上显示面部表情对应的弹幕等,其中的面部表情来源于历史观看视频的用户的面部图像,从而在观看视频过程中可以获得其他相同观看过的人的对视频内容的反馈,增加观看视频时的互动体验。
关于本发明提供的视频推送方法、视频播放方法、视频推送装置、视频播放装置、计算机设备和存储介质的具体实施例,将在下文中详细描述。
实施例一
本发明实施例提供了一种视频推送方法,该方法可应用于视频门户网站、视频播放器等前端对应的后台服务器,以根据该实施例提供的视频推送方法进行视频推送,供前端用户进行选择。通过该方法,能够提升推送视频与目标用户的贴合度,同时实现多元化视频的推送。具体地,图1为本发明实施例一提供的视频推送方法的流程图,如图1所示,该实施例提供的视频推送方法包括如下的步骤S101至步骤S103。
步骤S101:根据用户观看视频时的面部表情确定用户的视频偏好向量。
其中,视频偏好向量为多维向量,例如视频偏好向量A(a1,a2,a3…aN)为N维向量,其中,N大于或等于2。每一维分量用于标识用户对一种视频的偏好程度,例如,a1分量用于标识用户对甲种视频的偏好程度,a2分量用于标识用户对乙种视频的偏好程度,a3分量用于标识用户对丁种视频的偏好程度…,则视频偏好向量能够标识出用户对多种视频的偏好程度。
视频的种类可以包括搞笑类视频、恐怖类视频、悲伤类视频、愤怒类视频、快乐类视频和活跃类视频等,而人类在观看不同的视频时,会自动真实的产生相应的面部表情,例如在观看搞笑类视频时,会产生哈哈大笑或类似的面部表情,在观看恐怖类视频时,会产生惊恐或类似的面部表情,因此,观看者在观看视频时,哈哈大笑的面部表情的多少可反应出用户对搞笑类视频的偏好程度,惊恐的面部表情的多少可反应出用户对恐怖类视频的偏好程度,也就是说,观看者的面部表情与观看者的视频偏好向量相关,在确定用户的视频偏好向量时,将用户的面部表情列为影响因素,能够增加视频偏好向量的准确性。
具体地,可预设多种面部表情,以及面部表情与视频偏好向量中分量的对应关系,在根据用户观看视频时的面部表情确定用户的视频偏好向量中的每一个分量时,根据该分量对应的面部表情进行确定。
针对多个用户,根据每个用户观看视频时的面部表情能够确定每个用户的视频偏好向量。
步骤S102:在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户。
其中,预设用户范围可以为前端所有账号的用户,也可以为某一地域范围内的用户,或者为某一特征群体内的用户等,将预设用户范围内用户的视频偏好向量与目标用户的视频偏好向量进行匹配,以找到与目标用户的视频偏好向量最接近一个视频偏好向量,该最接近视频偏好向量对应的用户定义为匹配用户。
可选地,在进行视频偏好向量的匹配时,可计算两个视频偏好向量的欧几里德距离,欧几里德距离越小,两个视频偏好向量越接近,或者也可以采用现有技术中其他评价两个多维向量是否接近的数学方法,本申请对此不再赘述。
目标用户与匹配用户的视频偏好向量最接近,也即目标用户与匹配用户对多种视频的偏好程度最一致,则对于目标用户而言,匹配用户的观看记录与目标用户的贴合度最高。
步骤S103:向目标用户推送匹配用户的观看记录中的视频。
在该步骤中,向目标用户推送的视频来源于匹配用户的观看记录,可以将匹配用户的观看记录全部推送至目标用户,也可以将匹配用户的观看记录进一步处理和筛选后推送至目标用户。
采用该实施例提供的视频推送方法,首先根据用户观看视频时的面部表情确定用户的视频偏好向量,然后在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户,最后向目标用户推送匹配用户的观看记录中的视频,由于面部表情与用户视频偏好的强相关性,使得该实施例中用户的视频偏好向量能够更加准确的反应出用户对视频的偏好程度,在此基础上,基于视频偏好向量进行视频推送,也即,对于目标用户而言,推送视频来源于视频偏好向量最接近的匹配用户的观看记录,从而使得目标用户得到的推送视频中视频的种类能够更加贴近目标用户对视频的偏好,提升了推送视频与目标用户的贴合度;此外,推送视频来源于其他用户的观看记录,与推送视频为自身播放记录同类型的视频相比,不局限于视频类型,实现了多元化视频的推送。
可选地,在一种实施例中,在上述步骤S101之前,也即根据用户观看视频时的面部表情确定用户的视频偏好向量的步骤之前,该视频推送方法还包括:接收用户上传的面部录像,其中,该面部录像为用户观看视频时的录像;截取面部录像中的视频帧得到面部图像,其中,针对同一个视频截取多个视频帧,以得到多个面部图像,不同的面部图像对应视频的不同位置;以及确定面部图像所属的面部表情。
在该实施例提供的视频推送方法,可以在用户观看视频时开启播放终端的摄像设备对用户的面部进行录像,在视频结束后,将面部录像上传。采用该实施例提供的视频推送方法,对于线上视频播放,能够在视频播放结束后上传面部录像,避免面部录像实时线上上传对视频播放通信质量的影响。
可选地,在另一种实施例中,在上述步骤S101之前,也即根据用户观看视频时的面部表情确定用户的视频偏好向量的步骤之前,该视频推送方法还包括:采集用户观看多个视频时的面部图像,其中,针对同一个视频采集多个面部图像,不同的面部图像对应视频的不同位置;以及确定面部图像所属的面部表情。
具体而言,在该实施例提供的视频推送方法中,用户观看视频时,可自动实时进行面部图像的采集,无需用户关注,在用户权限允许的情况下,观看过程中可不经意的进行采集。同时,在观看多个视频时均进行采集,同时,在每个视频的不同位置进行采集,以获得多个面部图像,进而能够确定用户的多个面部表情,以增加确定视频偏好向量时面部表情的数量,进一步增加确定视频偏好向量的准确性。
可选地,在一种实施例中,确定面部图像所属的面部表情的步骤包括:对面部图像进行图像识别,确定面部元素的描述数据,其中,面部元素包括左眼、右眼、嘴巴、下颚、眉毛和/或鼻子;预设面部元素的描述数据与面部表情的关联关系;以及根据面部元素的描述数据和关联关系确定面部图像所属的面部表情。
具体而言,对于采集到的面部图像,首先进行图像识别,识别出图像中的面部元素,然后进一步确定面部元素的描述数据,其中,面部元素的描述数据用于描述的是面部元素的特征,例如面部元素的形态等。确定面部元素的描述数据后,根据预设的描述数据与面部表情的关联关系,确定出面部图像所属的面部表情。
进一步地,可采集多个面部图像作为样本图像,根据样本图像确定面部元素的描述数据得到样本描述数据,同时表示面部图像对应的面部表情得到样本面部表情,以样本描述数据和对应的样本面部表情对人工智能模型进行训练,得到反应描述数据与面部表情的关联关系的智能模型,从而将确定的面部元素的描述数据输入至该智能模型后,即可确定出面部图像所属的面部表情。
人类的面部表情转换,主要体现在面部元素形态变化的差异上,例如嘴巴的弧度,眼睛睁开的大小等,在该实施例提供的视频推送方法中,通过面部元素的描述数据确定面部表情,能够提升确定面部图像所属的面部表情的准确性。
可选地,在一种实施例中,面部元素的描述数据包括面部元素符合元素状态的程度值,其中:左眼和右眼的元素状态分别包括:眨眼、向下看、向上看、向里看、向外看、眯眼和张眼;嘴巴的元素状态包括:闭嘴、鼓嘴、抿嘴、嘴左撇、嘴右撇、嘴弧度向下左倾、嘴弧度向下右倾、嘴弧度向上左倾和嘴弧度向上右倾;下颚的元素状态包括:下颚前倾、下颚左倾和下颚右倾;眉毛的元素状态包括:眉毛左下垂、眉毛右下垂和眉毛向中间下垂;鼻子的元素状态包括:左鼻孔张开和右鼻孔张开。
具体而言,可设置0~100之间的数值为面部元素符合元素状态的程度值,程度值越大,表示该面部元素越符合该元素状态,例如,嘴巴符合嘴弧度向上左倾的程度值越大,表示嘴巴越符合向上左倾的状态。而面部表情不同时,面部元素的状态不同,因此,通过面部元素符合元素状态的程度,能够确定出面部表情。
可选地,在一种实施例中,预设面部元素的描述数据与面部表情的关联关系的步骤包括:定义每种面部表情对应的表情模型,其中,表情模型包括若干种面部元素、每种面部元素需要符合的元素状态和符合每种元素状态的程度值的范围;根据面部元素的描述数据和关联关系确定面部图像所属的面部表情的步骤包括:将面部元素的描述数据与表情模型进行匹配,将匹配到的表情模型对应的面部表情作为面部图像所属的面部表情。
具体而言,以面部元素的描述数据来定义表情模型,从而针对每种表情均定义一种表情模型。该表情模型的模型参数包括若干种面部元素,可以为一种或多种,例如,对应喜悦表情的表情模型的模型参数包括嘴巴和眼睛两种面部元素,对应恐惧表情的表情模型的模型参数包括眉毛、嘴巴和眼睛共三种面部元素;该表情模型的模型参数还包括每种面部元素需要符合的元素状态,例如,对应喜悦表情的表情模型的模型参数包括嘴巴需要符合嘴弧度向上左倾和嘴弧度向上右倾;该表情模型的模型参数还包括符合每种元素状态的程度值的范围,例如,对应喜悦表情的表情模型的模型参数包括嘴巴符合嘴弧度向上左倾的程度值应大于70。
在此基础上,根据面部元素的描述数据和上述表情模型确定面部图像所属的面部表情时,将面部元素的描述数据与各个表情模型进行匹配,当面部元素的描述数据与某个表情模型相匹配时,该匹配到的表情模型对应的面部表情即为面部图像所属的面部表情。
采用该实施例提供的视频推送方法,通过面部元素的描述数据来定义表情模型,在确定面部表情时,直接将根据面部图像确定的面部元素的描述数据与表情模型进行比对即可,处理方法简单。
可选地,在一种实施例中,确定面部图像所属的面部表情的步骤具体为:在预设的N种面部表情中确定面部图像所属的面部表情,其中,N为大于2的正整数;根据用户观看视频时的面部表情确定用户的视频偏好向量的步骤包括:统计用户观看每个视频时属于同一种面部表情的面部图像的数量,以得到每个视频对应的第一统计量至第N统计量,其中,第X统计量对应第X种面部表情,X大于等于1且小于等于N;以及根据多个视频的第X统计量确定视频偏好向量的第X分量。
具体而言,在用户观看每个视频时均采集多个面部图像,对每个面部图像,在预设的N种面部表情中确定其所属的一种,从而可确定对应每个视频的一个面部表情组,在确定用户的视频偏好向量时,在该面部表情组中,统计属于每种面部表情的面部图像的数量,即可得到N个统计量,每个统计量反应的是用户针对某一视频表现出一种面部表情的数量,在确定视频偏好向量时,每个分量通过多个视频的同一种统计量来确定。
需要说明的是,该实施例以及下文中的第X统计量,并不限定于某一特定的统计量,而是示意性的说明一种统计量的情况,其他种统计量的情况类似,本文中不再逐一描述。
可选地,在一种实施例中,根据多个视频的第X统计量确定视频偏好向量的第X分量的步骤包括:计算多个视频的第X统计量的和,作为视频偏好向量的第X分量。
可选地,在另一种实施例中,根据多个视频的第X统计量确定视频偏好向量的第X分量的步骤包括:确定每个视频对应第X种面部表情的表情可信值;根据多个视频对应第X种面部表情的表情可信值和第X统计量确定视频偏好向量的第X分量。
具体而言,一个视频对应每种面部表情均具有一个表情可信值,该表情可信值用于标识理论上,用户观看该视频时出现一种面部表情的可能性,一个视频对应一种面部表情的表情可信值越高,表明用户观看该视频时出现该种面部表情的可能性越大,例如,N种面部表情具体包括喜悦表情、愤怒表情、悲伤表情和快乐表情,一种轻喜剧视频对应喜悦表情的表情可信值为L1,对应愤怒表情的表情可信值为L2,对应悲伤表情的表情可信值为L3,对应快乐表情的表情可信值为L4,其中,L4>L14>L3>L2,标识用户在观看该轻喜剧视频时,表现出快乐表情的可能性最大,表现出愤怒的可能性最小。可选地,可设定每个视频对应每种面部表情的表情可信值,或者也可根据视频的标签等参数确定视频对应每种面部表情的表情可信值。
对于一个视频而言,第X统计量表示用户实际在观看该视频时表现出第X种面部表情的数量,视频对应第X种面部表情的表情可信值反应的是用户理论上在观看该视频时表现出第X种面部表情的可能性,因此,采用该实施例提供的视频推送方法,将理论上用户观看视频表现出第X种面部表情的情况和实际中用户观看视频表现出第X种面部表情的情况相结合,来计算确定视频偏好向量的第X分量,与单独采用第X分量来确定视频偏好向量相比,减小用户非常规状态下观看视频的异常表情对常规状态下视频偏好向量的影响。例如用户处于一个极度悲伤的非常规状态时,采集该用户观看喜剧视频时的面部图像,很可能捕捉不到用户的快乐表情,捕捉到的均是悲伤表情,此时,通过喜剧视频对应快乐表情的可信值,也即用户理论上观看喜剧视频时表现出快乐表情的可能性,同时作为确定视频偏好向量的因素,能够减小用户在极度悲伤的状态下观看喜剧视频的悲伤表情对常规状态下视频偏好向量的影响。
可选地,在一种实施例中,确定每个视频对应第X种面部表情的表情可信值的步骤包括:预设每种视频标签的权重参数和对应第X种面部表情的可信量;获取视频的视频标签;计算获取到的每种视频标签的权重参数与对应第X种面部表情可信量的乘积;以及计算获取到的所有视频标签的乘积的和作为视频对应第X种面部表情的表情可信值。
具体而言,每个视频均可以由若干种视频标签,该视频标签可包括视频的关键词,视频所在的分区等多种类型,预设每种视频标签的权重参数和对应第X种面部表情的可信量,例如视频的关键词在体现视频对应一种面部表情的表情可信量时,影响因素较小,视频所在的分区在体现视频对应一种面部表情的表情可信量时,影响因素较大,所以设置视频的关键词的权重参数大,视频所在的分区的权重参数小。进一步,对于同一种视频标签,视频标签的值不同,对应不同种面部表情的可信量不同,例如,对于视频的关键词,关键词可包括直播、热门、纪录片、时尚、娱乐等,每一种关键词对应每种面部表情均有一个可信量。
在确定视频对应第X种面部表情的表情可信值时,先获取该视频的视频标签,可获取到多种视频标签,针对每种视频标签,按照前述预设的内容,根据视频标签的类型确定视频标签的权重参数,根据视频标签的内容确定对应第X种面部表情可信量,将确定的权重参数与表情可信量相乘得到一个乘积,再将所有视频标签的乘积相加,得到的和即为视频对应第X种面部表情的表情可信值。
可选地,在一种实施例中,根据多个视频对应第X种面部表情的表情可信值和第X统计量确定视频偏好向量的第X分量的步骤包括:预设表情可信值的第一权重参数和第X统计量的第二权重参数;计算每个视频对应第X种面部表情的表情可信值与第一权重参数的乘积,得到第一乘积;计算每个视频的第X统计量与第二权重参数的乘积,得到第二乘积;计算多个视频的所有第一乘积和第二乘积的和作为视频偏好向量的第X分量。
具体而言,对应表情可信值与统计量对视频偏好向量的影响程度,分别设置表情可信值的权重参数,也即第一权重参数,和统计量的权重参数,也即第二权重参数,该第一权重参数和第二权重参数可以相同,也可以不同,可以为固定值,也可以为变化值,对于不同视频的第一权重参数(或第二权重参数)可以相同,也可以不同。
在此基础上,在确定视频偏好向量的第X分量时,对于每个视屏,将对应第X种面部表情的表情可信值与第一权重参数相乘得到一个第一乘积,将第X统计量与第二权重参数的乘积相乘得到一个第二乘积,将多个视频的第一乘积和第二乘积加和,得到视频偏好向量的第X分量。
可选地,在一种实施例中,向目标用户推送匹配用户的观看记录中的视频的步骤包括:获取目标用户的观看记录,得到第一观看记录;获取匹配用户的观看记录,得到第二观看记录;去除第二观看记录中与第一观看记录重叠的视频,得到待推送记录;以及向目标用户推送待推送记录中的视频。
采用该实施例提供的视频推送方法,在向目标用户推送匹配用户的观看记录中的视频失,将目标用户已观看的视频剔除而不进行推送,避免向目标用户推送已观看的视频,提升用户体验。
可选地,在一种实施例中,第一视频为向目标用户推送的任一视频,向目标用户推送第一视频的步骤包括:获取观看第一视频的用户对应的若干条表情标识数据,其中,每条表情标识数据对应一个用户观看第一视频时采集到的一个面部图像,表情标识数据包括识别面部图像确定的面部元素的描述数据、采集面部图像时第一视频的位置数据和面部图像所属的面部表情;对第一视频对应的所有表情标识数据进行聚类分析,以得到若干个类别组;确定类别组的类中心,以得到中心表情标识数据;根据中心表情标识数据中的位置数据和面部表情生成播放控制数据;向目标用户推送第一视频的播放控制数据。
在该实施例提供的视频推送方法,每个用户在观看视频时,均进行面部图像的采集,并确定面部图像所述的面部表情,从而能够得到一个面部表情的数据库,在该数据库中,获取不同用户观看同一视频的面部表情,再对获取到的面部表情进行数据处理,得到多条表情标识数据,每条表情标识数据对应一个用户观看一个视频时采集到的一个面部图像,该表情标识数据包括识别面部图像确定的面部元素的描述数据、采集面部图像时视频的位置数据和面部图像所属的面部表情,因此,通过一个视频对应的所有表情标识数据,能够得到用户对该视频在不同位置的表情反馈,基于该表情反馈,能够在视频播放时,对视频进行一些标注,从而目标用户在观看视频时,可以获得其他相同观看过的人的对视频内容的反馈。
具体地,在向目标用户推送某视频(该实施例定义为第一视频)时,同时推送播放控制数据,该播放控制数据能够使得播放器在视频播放时,对视频进行相关的标注。其中,在生成播放控制数据时,首先对第一视频对应的所有表情标识数据进行聚类分析,以得到若干个类别组,每个类别组可标识在视频的某一个位置范围内用户出现的一些表情,然后确定每个类别组的类中心,以得到中心表情标识数据,该中心表情标识数据体现的是在视频的某一个位置处用户出现的一个表情,最后根据中心表情标识数据中的位置数据和面部表情生成播放控制数据。
该实施例提供的视频推送方法,在向目标用户推送一个视频时,同时还推动该视频对应的播放控制数据,该播放控制数据由其他用户观看该视频的面部表情的反馈形成,从而目标用户在观看视频时,可以获得其他相同观看过的人的对视频内容的反馈,提升用户体验。
可选地,在一种实施例中,根据中心表情标识数据中的位置数据和面部表情生成播放控制数据的步骤包括:根据中心表情标识数据中的位置数据和面部表情生成控制播放进度条的播放控制数据,其中,播放控制数据用于在播放进度条对应位置数据的进度处显示面部表情对应的图标。
具体地,可将播放进度条对应位置数据的进度处高亮显示,同时在该进度处显示一个标识面部表情的图标。
可选地,在一种实施例中,根据中心表情标识数据中的位置数据和面部表情生成播放控制数据的步骤包括:根据中心表情标识数据中的位置数据和面部表情生成控制弹幕的播放控制数据,其中,播放控制数据用于在位置数据对应的第一视频的播放画面上显示面部表情对应的弹幕。
具体地,当第一视频的播放画面即将到达位置数据对应的视频帧时,获取该位置处预设的与面部表情对应的弹幕并进行显示,同时,该弹幕相对于其他用户发出的普通弹幕,可增大显示权重,压在其他弹幕之上进行效果输出。
实施例二
本发明实施例二提供了一种视频播放方法,该视频播放方法播放的视频可由采用上述任意一种实施例提供的视频推送方法推送。具体地,图2为本发明实施例二提供的视频播放方法的流程图,如图2所示,该实施例二提供的视频播放方法包括如下的步骤S201至步骤S202。
步骤S201:显示视频推送列表。
其中,通过上述任意一种视频推送方法推送的视频,在前端可形成视频推送列表,前端显示该视频推送列表以供用户选择。
步骤S202:响应于用户在视频推送列表中的选择操作,播放选择操作选定的视频。
可选地,在一种实施例中,播放选择操作选定的视频的步骤包括:获取选择操作选定的视频的播放控制数据,其中,播放控制数据根据位置数据和面部表情生成,面部表情由历史观看视频的用户的面部图像确定,位置数据对应采集面部图像时视频的位置;根据播放控制数据播放选择操作选定的视频。
具体地,在推送视频时同时推送播放控制数据,该播放控制数据在上文中描述视频推送方法时已经详细描述,该处不再赘述。在播放推送视频时,根据播放控制数据进行视频,以在视频的某些位置形成对应面部表情的标注。
进一步地,在一种实施例中,根据播放控制数据播放选择操作选定的视频的步骤包括:在播放进度条对应位置数据的进度处显示面部表情对应的图标。
具体地,在播放推送视频时,可将播放进度条对应位置数据的进度处高亮显示,同时在该进度处显示一个标识面部表情的图标。
进一步地,在一种实施例中,根据播放控制数据播放选择操作选定的视频的步骤包括:在位置数据对应的播放画面上显示面部表情对应的弹幕。
具体地,当第一视频的播放画面即将到达位置数据对应的视频帧时,获取该位置处预设的与面部表情对应的弹幕并进行显示,同时,该弹幕相对于其他用户发出的普通弹幕,可增大显示权重,压在其他弹幕之上进行效果输出。
实施例三
对应于上述实施例一,本发明实施例三提供了一种视频推送装置,该装置与上述视频推送方法相对应,相应的技术特征和技术效果在该处不再赘述,具体可参考上文。图3为本发明实施例三提供的视频推送装置的框图,如图3所示,该装置包括:第一确定模块301、匹配模块302和推送模块303。
其中,第一确定模块301用于根据用户观看视频时的面部表情确定用户的视频偏好向量;匹配模块302用于在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户;推送模块303用于向目标用户推送匹配用户的观看记录中的视频。
可选地,视频推送装置还包括采集模块和第二确定模块。其中,采集模块用于在第一确定模块301确定用户的视频偏好向量的步骤之前,采集用户观看多个视频时的面部图像,其中,针对同一个视频采集多个面部图像,不同的面部图像对应视频的不同位置;第二确定模块用于确定面部图像所属的面部表情。
可选地,视频推送装置还包括第一存储模块,该第一存储模块用于存储预设面部元素的描述数据与面部表情的关联关系,第二确定模块包括识别单元和第一确定单元,其中,识别单元用于对面部图像进行图像识别,确定面部元素的描述数据,其中,面部元素包括左眼、右眼、嘴巴、下颚、眉毛和/或鼻子;第一确定单元用于根据面部元素的描述数据和关联关系确定面部图像所属的面部表情。
可选地,面部元素的描述数据包括面部元素符合元素状态的程度值,其中:左眼和右眼的元素状态分别包括:眨眼、向下看、向上看、向里看、向外看、眯眼和张眼;嘴巴的元素状态包括:闭嘴、鼓嘴、抿嘴、嘴左撇、嘴右撇、嘴弧度向下左倾、嘴弧度向下右倾、嘴弧度向上左倾和嘴弧度向上右倾;下颚的元素状态包括:下颚前倾、下颚左倾和下颚右倾;眉毛的元素状态包括:眉毛左下垂、眉毛右下垂和眉毛向中间下垂;鼻子的元素状态包括:左鼻孔张开和右鼻孔张开。
可选地,第一存储模块存储的关联关系具体为每种面部表情对应的表情模型,其中,表情模型包括若干种面部元素、每种面部元素需要符合的元素状态和符合每种元素状态的程度值的范围;第一确定单元在确定面部表情时,具体执行的步骤包括:将面部元素的描述数据与表情模型进行匹配,将匹配到的表情模型对应的面部表情作为面部图像所属的面部表情。
可选地,第二确定模块确定面部图像所属的面部表情时,执行的步骤具体为:在预设的N种面部表情中确定面部图像所属的面部表情,其中,N为大于2的正整数;第一确定模块301包括统计单元和第二确定单元,其中,统计单元用于统计用户观看每个视频时属于同一种面部表情的面部图像的数量,以得到每个视频对应的第一统计量至第N统计量,其中,第X统计量对应第X种面部表情,X大于等于1且小于等于N;第二确定单元用于根据多个视频的第X统计量确定视频偏好向量的第X分量。
可选地,第二确定单元包括表情可信值确定部分和视频偏好向量分量确定部分,其中,表情可信值确定部分用于确定每个视频对应第X种面部表情的表情可信值;视频偏好向量分量确定部分用于根据多个视频对应第X种面部表情的表情可信值和第X统计量确定视频偏好向量的第X分量。
可选地,表情可信值确定部分确定每个视频对应第X种面部表情的表情可信值时,具体执行的步骤包括:预设每种视频标签的权重参数和对应第X种面部表情的可信量;获取视频的视频标签;计算获取到的每种视频标签的权重参数与对应第X种面部表情可信量的乘积;以及计算获取到的所有视频标签的乘积的和作为视频对应第X种面部表情的表情可信值。
可选地,视频偏好向量分量确定部分确定视频偏好向量的第X分量时,具体执行的步骤包括:预设表情可信值的第一权重参数和第X统计量的第二权重参数;计算每个视频对应第X种面部表情的表情可信值与第一权重参数的乘积,得到第一乘积;计算每个视频的第X统计量与第二权重参数的乘积,得到第二乘积;计算多个视频的所有第一乘积和第二乘积的和作为视频偏好向量的第X分量。
可选地,推送模块303包括:第一获取单元、第二获取单元、处理单元和推送单元,其中,第一获取单元用于获取目标用户的观看记录,得到第一观看记录;第二获取单元用于获取匹配用户的观看记录,得到第二观看记录;处理单元用于去除第二观看记录中与第一观看记录重叠的视频,得到待推送记录;以及推送单元用于向目标用户推送待推送记录中的视频。
可选地,第一视频为向目标用户推送的任一视频,推送模块303包括向目标用户推送第一视频时,具体执行的步骤包括:获取观看第一视频的用户对应的若干条表情标识数据,其中,每条表情标识数据对应一个用户观看第一视频时采集到的一个面部图像,表情标识数据包括识别面部图像确定的面部元素的描述数据、采集面部图像时第一视频的位置数据和面部图像所属的面部表情;对第一视频对应的所有表情标识数据进行聚类分析,以得到若干个类别组;确定类别组的类中心,以得到中心表情标识数据;根据中心表情标识数据中的位置数据和面部表情生成播放控制数据;向目标用户推送第一视频的播放控制数据。
可选地,推送模块303在生成播放控制数据时,具体执行的步骤包括:根据中心表情标识数据中的位置数据和面部表情生成控制播放进度条的播放控制数据,其中,播放控制数据用于在播放进度条对应位置数据的进度处显示面部表情对应的图标。
可选地,推送模块303在生成播放控制数据时,具体执行的步骤包括:根据中心表情标识数据中的位置数据和面部表情生成控制弹幕的播放控制数据,其中,播放控制数据用于在位置数据对应的第一视频的播放画面上显示面部表情对应的弹幕。
实施例四
对应于上述实施例二,本发明实施例四提供了一种视频播放装置,该装置与上述视频播放方法相对应,相应的技术特征和技术效果在该处不再赘述,具体可参考上文。图4为本发明实施例四提供的视频播放装置的框图,如图4所示,该装置包括:显示模块401和播放模块402。
其中,显示模块401用于显示视频推送列表,其中,视频推送列表包括通过上述任意一种视频推送方法推送的视频;播放模块402响应于用户在视频推送列表中的选择操作,播放选择操作选定的视频。
可选地,播放模块402包括获取单元和播放单元,其中,获取单元用于获取选择操作选定的视频的播放控制数据,其中,播放控制数据根据位置数据和面部表情生成,面部表情由历史观看视频的用户的面部图像确定,位置数据对应采集面部图像时视频的位置;播放单元用于根据播放控制数据播放选择操作选定的视频。
可选地,播放单元在根据播放控制数据播放选择操作选定的视频时,具体执行的步骤包括:在播放进度条对应位置数据的进度处显示面部表情对应的图标。
可选地,播放单元在根据播放控制数据播放选择操作选定的视频时,具体执行的步骤包括:在位置数据对应的播放画面上显示面部表情对应的弹幕。
实施例五
本实施例五还提供一种计算机设备,如可以执行程序的智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务器、刀片式服务器、塔式服务器或机柜式服务器(包括独立的服务器,或者多个服务器所组成的服务器集群)等。如图5所示,本实施例的计算机设备01至少包括但不限于:可通过系统总线相互通信连接的存储器011、处理器012,如图5所示。需要指出的是,图5仅示出了具有组件存储器011和处理器012的计算机设备01,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
本实施例中,存储器011(即可读存储介质)包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器011可以是计算机设备01的内部存储单元,例如该计算机设备01的硬盘或内存。在另一些实施例中,存储器011也可以是计算机设备01的外部存储设备,例如该计算机设备01上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器011还可以既包括计算机设备01的内部存储单元也包括其外部存储设备。本实施例中,存储器011通常用于存储安装于计算机设备01的操作系统和各类应用软件,例如实施例一的视频推送方法,或实施例二的视频播放方法的程序代码等。此外,存储器011还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器012在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器012通常用于控制计算机设备01的总体操作。本实施例中,处理器012用于运行存储器011中存储的程序代码或者处理数据,例如视频推送方法或视频播放方法等。
实施例六
本实施例六还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器执行时实现相应功能。本实施例的计算机可读存储介质用于存储视频推送装置或视频播放装置,被处理器执行时实现实施例一的视频推送方法或实施例二的视频播放方法。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (19)

1.一种视频推送方法,其特征在于,包括:
根据用户观看视频时的面部表情确定所述用户的视频偏好向量;
在预设用户范围内,匹配视频偏好向量与目标用户的视频偏好向量最接近的匹配用户;
向所述目标用户推送所述匹配用户的观看记录中的视频。
2.根据权利要求1所述的视频推送方法,其特征在于,在根据用户观看视频时的面部表情确定用户的视频偏好向量的步骤之前,所述视频推送方法还包括:
采集用户观看多个视频时的面部图像,其中,针对同一个视频采集多个所述面部图像,不同的所述面部图像对应视频的不同位置;以及
确定所述面部图像所属的面部表情。
3.根据权利要求2所述的视频推送方法,其特征在于,确定所述面部图像所属的面部表情的步骤包括:
对所述面部图像进行图像识别,确定面部元素的描述数据,其中,所述面部元素包括左眼、右眼、嘴巴、下颚、眉毛和/或鼻子;
预设所述面部元素的描述数据与所述面部表情的关联关系;以及
根据所述面部元素的描述数据和所述关联关系确定所述面部图像所属的面部表情。
4.根据权利要求3所述的视频推送方法,其特征在于,所述面部元素的描述数据包括所述面部元素符合元素状态的程度值,其中:
所述左眼和所述右眼的元素状态分别包括:眨眼、向下看、向上看、向里看、向外看、眯眼和张眼;
所述嘴巴的元素状态包括:闭嘴、鼓嘴、抿嘴、嘴左撇、嘴右撇、嘴弧度向下左倾、嘴弧度向下右倾、嘴弧度向上左倾和嘴弧度向上右倾;
所述下颚的元素状态包括:下颚前倾、下颚左倾和下颚右倾;
所述眉毛的元素状态包括:眉毛左下垂、眉毛右下垂和眉毛向中间下垂;
所述鼻子的元素状态包括:左鼻孔张开和右鼻孔张开。
5.根据权利要求4所述的视频推送方法,其特征在于,
预设所述面部元素的描述数据与所述面部表情的关联关系的步骤包括:定义每种所述面部表情对应的表情模型,其中,所述表情模型包括若干种所述面部元素、每种面部元素需要符合的元素状态和符合每种元素状态的程度值的范围;
根据所述面部元素的描述数据和所述关联关系确定所述面部图像所属的面部表情的步骤包括:将所述面部元素的描述数据与所述表情模型进行匹配,将匹配到的所述表情模型对应的面部表情作为所述面部图像所属的面部表情。
6.根据权利要求2所述的视频推送方法,其特征在于,
确定所述面部图像所属的面部表情的步骤具体为:在预设的N种面部表情中确定所述面部图像所属的面部表情,其中,N为大于2的正整数;
根据用户观看视频时的面部表情确定所述用户的视频偏好向量的步骤包括:
统计所述用户观看每个视频时属于同一种面部表情的面部图像的数量,以得到每个所述视频对应的第一统计量至第N统计量,其中,第X统计量对应第X种面部表情,X大于等于1且小于等于N;以及
根据所述多个视频的第X统计量确定所述视频偏好向量的第X分量。
7.根据权利要求6所述的视频推送方法,其特征在于,根据所述多个视频的第X统计量确定所述视频偏好向量的第X分量的步骤包括:
确定每个所述视频对应所述第X种面部表情的表情可信值;
根据所述多个视频对应所述第X种面部表情的表情可信值和所述第X统计量确定所述视频偏好向量的第X分量。
8.根据权利要求7所述的视频推送方法,其特征在于,确定每个所述视频对应所述第X种面部表情的表情可信值的步骤包括:
预设每种视频标签的权重参数和对应第X种面部表情的可信量;
获取所述视频的视频标签;
计算获取到的每种视频标签的权重参数与对应第X种面部表情可信量的乘积;以及
计算获取到的所有视频标签的乘积的和作为所述视频对应所述第X种面部表情的表情可信值。
9.根据权利要求7所述的视频推送方法,其特征在于,根据所述多个视频对应所述第X种面部表情的表情可信值和所述第X统计量确定所述视频偏好向量的第X分量的步骤包括:
预设所述表情可信值的第一权重参数和所述第X统计量的第二权重参数;
计算每个视频对应所述第X种面部表情的表情可信值与所述第一权重参数的乘积,得到第一乘积;
计算每个视频的所述第X统计量与所述第二权重参数的乘积,得到第二乘积;
计算所述多个视频的所有所述第一乘积和所述第二乘积的和作为所述视频偏好向量的第X分量。
10.根据权利要求1所述的视频推送方法,其特征在于,向所述目标用户推送所述匹配用户的观看记录中的视频的步骤包括:
获取所述目标用户的观看记录,得到第一观看记录;
获取所述匹配用户的观看记录,得到第二观看记录;
去除所述第二观看记录中与所述第一观看记录重叠的视频,得到待推送记录;以及
向所述目标用户推送所述待推送记录中的视频。
11.根据权利要求3所述的视频推送方法,其特征在于,第一视频为向所述目标用户推送的任一视频,向所述目标用户推送所述第一视频的步骤包括:
获取观看所述第一视频的用户对应的若干条表情标识数据,其中,每条所述表情标识数据对应一个用户观看所述第一视频时采集到的一个面部图像,所述表情标识数据包括识别所述面部图像确定的所述面部元素的描述数据、采集所述面部图像时所述第一视频的位置数据和所述面部图像所属的面部表情;
对所述第一视频对应的所有所述表情标识数据进行聚类分析,以得到若干个类别组;
确定所述类别组的类中心,以得到中心表情标识数据;
根据所述中心表情标识数据中的位置数据和面部表情生成播放控制数据;
向所述目标用户推送所述第一视频的播放控制数据。
12.根据权利要求11所述的视频推送方法,其特征在于,根据所述中心表情标识数据中的位置数据和面部表情生成播放控制数据的步骤包括:
根据所述中心表情标识数据中的位置数据和面部表情生成控制播放进度条的播放控制数据,其中,所述播放控制数据用于在所述播放进度条对应所述位置数据的进度处显示所述面部表情对应的图标。
13.根据权利要求11所述的视频推送方法,其特征在于,根据所述中心表情标识数据中的位置数据和面部表情生成播放控制数据的步骤包括:
根据所述中心表情标识数据中的位置数据和面部表情生成控制弹幕的播放控制数据,其中,所述播放控制数据用于在所述位置数据对应的所述第一视频的播放画面上显示所述面部表情对应的弹幕。
14.一种视频播放方法,其特征在于,包括:
显示视频推送列表,其中,所述视频推送列表包括通过权利要求1至13中任一项所述的视频推送方法推送的视频;
响应于用户在所述视频推送列表中的选择操作,播放所述选择操作选定的视频。
15.根据权利要求14的视频播放方法,其特征在于,播放所述选择操作选定的视频的步骤包括:
获取所述选择操作选定的视频的播放控制数据,其中,所述播放控制数据根据位置数据和面部表情生成,所述面部表情由历史观看所述视频的用户的面部图像确定,所述位置数据对应采集所述面部图像时所述视频的位置;
根据所述播放控制数据播放所述选择操作选定的视频。
16.根据权利要求15的视频播放方法,其特征在于,根据所述播放控制数据播放所述选择操作选定的视频的步骤包括:
在播放进度条对应所述位置数据的进度处显示所述面部表情对应的图标。
17.根据权利要求15的视频播放方法,其特征在于,根据所述播放控制数据播放所述选择操作选定的视频的步骤包括:
在所述位置数据对应的播放画面上显示所述面部表情对应的弹幕。
18.一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至17任一项所述方法的步骤。
19.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至17任一项所述方法的步骤。
CN201910862861.3A 2019-09-12 2019-09-12 视频推送方法、视频播放方法、计算机设备和存储介质 Active CN112492389B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910862861.3A CN112492389B (zh) 2019-09-12 2019-09-12 视频推送方法、视频播放方法、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910862861.3A CN112492389B (zh) 2019-09-12 2019-09-12 视频推送方法、视频播放方法、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN112492389A true CN112492389A (zh) 2021-03-12
CN112492389B CN112492389B (zh) 2022-07-19

Family

ID=74920631

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910862861.3A Active CN112492389B (zh) 2019-09-12 2019-09-12 视频推送方法、视频播放方法、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN112492389B (zh)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831447A (zh) * 2012-08-30 2012-12-19 北京理工大学 多类别面部表情高精度识别方法
CN103313108A (zh) * 2013-06-14 2013-09-18 山东科技大学 一种基于情景感知的智能电视节目推荐方法
CN103731738A (zh) * 2014-01-23 2014-04-16 哈尔滨理工大学 基于用户群组行为分析的视频推荐方法及装置
CN104298682A (zh) * 2013-07-18 2015-01-21 广州华久信息科技有限公司 一种基于人脸表情图像的信息推荐效果的评价方法及手机
CN104408210A (zh) * 2014-12-31 2015-03-11 合一网络技术(北京)有限公司 基于意见领袖的视频推荐方法
CN104504112A (zh) * 2014-12-30 2015-04-08 何业文 影院信息采集系统
CN104837059A (zh) * 2014-04-15 2015-08-12 腾讯科技(北京)有限公司 视频处理方法、装置和系统
CN105975563A (zh) * 2016-04-29 2016-09-28 腾讯科技(深圳)有限公司 表情推荐方法及装置
CN106127139A (zh) * 2016-06-21 2016-11-16 东北大学 一种mooc课程中学生面部表情的动态识别方法
US20160357253A1 (en) * 2015-06-05 2016-12-08 International Business Machines Corporation Initiating actions responsive to user expressions of a user while reading media content
CN106407418A (zh) * 2016-09-23 2017-02-15 Tcl集团股份有限公司 一种基于人脸识别的个性化视频推荐方法及推荐系统
EP3229178A1 (en) * 2016-04-08 2017-10-11 Orange Content categorization using facial expression recognition, with improved detection of moments of interest
CN108287857A (zh) * 2017-02-13 2018-07-17 腾讯科技(深圳)有限公司 表情图片推荐方法及装置
CN109327736A (zh) * 2018-10-25 2019-02-12 安徽澳视科技有限公司 一种基于节目观看表情与用户信息的节目推荐方法
CN109376598A (zh) * 2018-09-17 2019-02-22 平安科技(深圳)有限公司 面部表情图片处理方法、装置、计算机设备和存储介质
CN109785066A (zh) * 2019-01-17 2019-05-21 深圳壹账通智能科技有限公司 基于微表情的产品推荐方法、装置、设备及存储介质
CN109874054A (zh) * 2019-02-14 2019-06-11 深兰科技(上海)有限公司 一种广告推荐方法及装置

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102831447A (zh) * 2012-08-30 2012-12-19 北京理工大学 多类别面部表情高精度识别方法
CN103313108A (zh) * 2013-06-14 2013-09-18 山东科技大学 一种基于情景感知的智能电视节目推荐方法
CN104298682A (zh) * 2013-07-18 2015-01-21 广州华久信息科技有限公司 一种基于人脸表情图像的信息推荐效果的评价方法及手机
CN103731738A (zh) * 2014-01-23 2014-04-16 哈尔滨理工大学 基于用户群组行为分析的视频推荐方法及装置
CN104837059A (zh) * 2014-04-15 2015-08-12 腾讯科技(北京)有限公司 视频处理方法、装置和系统
CN104504112A (zh) * 2014-12-30 2015-04-08 何业文 影院信息采集系统
CN104408210A (zh) * 2014-12-31 2015-03-11 合一网络技术(北京)有限公司 基于意见领袖的视频推荐方法
US20160357253A1 (en) * 2015-06-05 2016-12-08 International Business Machines Corporation Initiating actions responsive to user expressions of a user while reading media content
EP3229178A1 (en) * 2016-04-08 2017-10-11 Orange Content categorization using facial expression recognition, with improved detection of moments of interest
CN105975563A (zh) * 2016-04-29 2016-09-28 腾讯科技(深圳)有限公司 表情推荐方法及装置
CN106127139A (zh) * 2016-06-21 2016-11-16 东北大学 一种mooc课程中学生面部表情的动态识别方法
CN106407418A (zh) * 2016-09-23 2017-02-15 Tcl集团股份有限公司 一种基于人脸识别的个性化视频推荐方法及推荐系统
CN108287857A (zh) * 2017-02-13 2018-07-17 腾讯科技(深圳)有限公司 表情图片推荐方法及装置
CN109376598A (zh) * 2018-09-17 2019-02-22 平安科技(深圳)有限公司 面部表情图片处理方法、装置、计算机设备和存储介质
CN109327736A (zh) * 2018-10-25 2019-02-12 安徽澳视科技有限公司 一种基于节目观看表情与用户信息的节目推荐方法
CN109785066A (zh) * 2019-01-17 2019-05-21 深圳壹账通智能科技有限公司 基于微表情的产品推荐方法、装置、设备及存储介质
CN109874054A (zh) * 2019-02-14 2019-06-11 深兰科技(上海)有限公司 一种广告推荐方法及装置

Also Published As

Publication number Publication date
CN112492389B (zh) 2022-07-19

Similar Documents

Publication Publication Date Title
CN110166827B (zh) 视频片段的确定方法、装置、存储介质及电子装置
CN106326391B (zh) 多媒体资源推荐方法及装置
US8804999B2 (en) Video recommendation system and method thereof
CN111209970B (zh) 视频分类方法、装置、存储介质及服务器
CN107194817B (zh) 用户社交信息的展示方法、装置和计算机设备
EP3410258B1 (en) Method for pushing picture, mobile terminal and storage medium
CN111050193A (zh) 用户画像构建方法、装置、计算机设备和存储介质
CN108197336B (zh) 一种视频查找的方法及装置
CN111209490A (zh) 基于用户信息的交友推荐方法、电子装置及存储介质
CN110610125A (zh) 基于神经网络的牛脸识别方法、装置、设备及存储介质
CN110648170A (zh) 一种物品推荐的方法及相关装置
CN112102157A (zh) 视频换脸方法、电子设备和计算机可读存储介质
JP2023543640A (ja) 酒ラベル識別方法、酒製品情報管理方法及びその装置、デバイス及び記憶媒体
CN109213397B (zh) 数据处理方法、装置和用户端
CN112492397A (zh) 视频处理方法、计算机设备和存储介质
CN111444822B (zh) 对象识别方法和装置、存储介质和电子装置
CN108024148B (zh) 基于行为特征的多媒体文件识别方法、处理方法及装置
CN115514995A (zh) 一种直播间推荐信息的展示方法、装置以及设备
CN112492389B (zh) 视频推送方法、视频播放方法、计算机设备和存储介质
CN111144141A (zh) 基于拍照功能的翻译方法
CN116363725A (zh) 显示设备的人像追踪方法、系统、显示设备及存储介质
CN110879944A (zh) 基于人脸相似度的主播推荐方法、存储介质、设备及系统
CN112188116B (zh) 基于对象的视频合成方法、客户端及系统
CN110399527B (zh) 影视推荐方法、装置及存储介质
CN110381339B (zh) 图片传输方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant