CN106101831A - 视频向量化方法及装置 - Google Patents

视频向量化方法及装置 Download PDF

Info

Publication number
CN106101831A
CN106101831A CN201610561899.3A CN201610561899A CN106101831A CN 106101831 A CN106101831 A CN 106101831A CN 201610561899 A CN201610561899 A CN 201610561899A CN 106101831 A CN106101831 A CN 106101831A
Authority
CN
China
Prior art keywords
video
videos
list
user behavior
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610561899.3A
Other languages
English (en)
Other versions
CN106101831B (zh
Inventor
刘荣
吴强
赵磊
单明辉
尹玉宗
姚键
潘柏宇
王冀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba China Co Ltd
Youku Network Technology Beijing Co Ltd
Original Assignee
1Verge Internet Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 1Verge Internet Technology Beijing Co Ltd filed Critical 1Verge Internet Technology Beijing Co Ltd
Priority to CN201610561899.3A priority Critical patent/CN106101831B/zh
Publication of CN106101831A publication Critical patent/CN106101831A/zh
Application granted granted Critical
Publication of CN106101831B publication Critical patent/CN106101831B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44222Analytics of user selections, e.g. selection of programs or purchase activity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及视频向量化方法及装置。该方法包括:采集目标用户的用户行为数据,并根据所述用户行为数据生成第一视频列表;提取所述第一视频列表中的各个视频的前后视频的特征向量;根据所述各个视频的前后视频的特征向量建立第一视频向量模型;采集视频样本,并通过所述视频样本训练所述第一视频向量模型,得到第二视频向量模型;通过所述第二视频向量模型对所述第一视频列表中的视频进行向量化。根据本发明的视频向量化方法及装置无需对视频逐帧进行向量化,而是对视频的整体进行向量化,大大降低了视频向量化的数据量及噪声,提高了视频向量化的处理速度,且结合用户行为数据建立视频向量模型,从而使视频向量能够更准备地反映视频信息。

Description

视频向量化方法及装置
技术领域
本发明涉及信息技术领域,尤其涉及一种视频向量化方法及装置。
背景技术
互联网时代是信息爆炸的时代,信息的数量以指数级增长。在视频领域,视频的数量以井喷式增长。目前,YouTube网站每分钟大约有60个小时的视频被上传,YouTube网站总的视频数量达到了数亿。如何对如此庞大数量的视频进行快速有效的分析和量化成为目前研究的重点。
目前,对视频进行向量化处理主要基于卷积神经网络的视频特征提取方法。该方法将视频进行逐帧分析,提取视频的每一帧图像分别进行向量化,具体来说,通过卷积神经网络对每张图像进行多维度的特征提取,再进行向量映射。由于对视频中的每帧图像分别进行向量化,导致视频向量化得到的数据量较大,且图像对应的向量的信息表示不明确,噪声较大。
发明内容
技术问题
有鉴于此,本发明要解决的技术问题是,现有的视频向量化技术得到的数据量较大,且图像对应的向量的信息表示不明确,噪声较大。
解决方案
为了解决上述技术问题,根据本发明的一实施例,提供了一种视频向量化方法,包括:
采集目标用户的用户行为数据,并根据所述用户行为数据生成第一视频列表;
提取所述第一视频列表中的各个视频的前后视频的特征向量;
根据所述各个视频的前后视频的特征向量建立第一视频向量模型;
采集视频样本,并通过所述视频样本训练所述第一视频向量模型,得到第二视频向量模型;
通过所述第二视频向量模型对所述第一视频列表中的视频进行向量化。
对于上述方法,在一种可能的实现方式中,采集目标用户的用户行为数据,根据所述用户行为数据生成第一视频列表,包括:
采集指定时间段内的所述目标用户的所有用户行为数据;
从所采集的用户行为数据中筛选出有效的用户行为数据;
按照所述有效的用户行为数据对应的时间对所述有效的用户行为数据进行排序,得到所述第一视频列表。
对于上述方法,在一种可能的实现方式中,提取所述第一视频列表中的各个视频的前后视频的特征向量,具体用于:
采用式1提取所述第一视频列表中的第j个视频vj的前后视频的特征向量f(vj+k);
其中,vj+k表示所述第一视频列表中的第j+k个视频,K表示用于计算所述第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,H(vj+k)表示所述第j+k个视频的初始向量;根据式2计算;
对于上述方法,在一种可能的实现方式中,根据所述各个视频的前后视频的特征向量建立第一视频向量模型,具体用于:
根据式3建立所述第一视频向量模型;
E(vj)=logp(vj|vj+k) 式3;
其中,-K<k<K,k≠0,p(vj|vj+k)根据式4确定;
p(vj|vj+k)=cosin[H(vj),f(vj+k)] 式4;
其中,cosin[H(vj),f(vj+k)]表示H(vj)与f(vj+k)之间的余弦距离。
对于上述方法,在一种可能的实现方式中,采集视频样本,包括:
从区间(0,1)中产生一个随机数;
若所述随机数落在区间Ii上,则将所述第一视频列表中的第i-1个视频作为所述视频样本;其中,Ii=(li-1,li),i=1,2...N,l0=0,i表示观看次数区间,N表示所述观看次数区间的总个数,counter(vj)表示所述第一视频列表中的第j个视频被所有用户观看的总次数,表示所述第一视频列表中的所有视频被所有用户观看的总次数。
为了解决上述技术问题,根据本发明的另一实施例,提供了一种视频向量化装置,包括:
第一视频列表生成模块,用于采集目标用户的用户行为数据,并根据所述用户行为数据生成第一视频列表;
前后视频特征向量提取模块,用于提取所述第一视频列表中的各个视频的前后视频的特征向量;
第一视频向量模型建立模块,用于根据所述各个视频的前后视频的特征向量建立第一视频向量模型;
视频向量模型训练模块,用于采集视频样本,并通过所述视频样本训练所述第一视频向量模型,得到第二视频向量模型;
向量化模块,用于通过所述第二视频向量模型对所述第一视频列表中的视频进行向量化。
对于上述装置,在一种可能的实现方式中,所述第一视频列表生成模块包括:
用户行为数据采集子模块,用于采集指定时间段内的所述目标用户的所有用户行为数据;
用户行为数据筛选子模块,用于从所采集的用户行为数据中筛选出有效的用户行为数据;
第一视频列表生成子模块,用于按照所述有效的用户行为数据对应的时间对所述有效的用户行为数据进行排序,得到所述第一视频列表。
对于上述装置,在一种可能的实现方式中,所述前后视频特征向量提取模块具体用于:
采用式1提取所述第一视频列表中的第j个视频vj的前后视频的特征向量f(vj+k);
其中,vj+k表示所述第一视频列表中的第j+k个视频,K表示用于计算所述第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,H(vj+k)表示所述第j+k个视频的初始向量;根据式2计算;
对于上述装置,在一种可能的实现方式中,所述第一视频向量模型建立模块具体用于:
根据式3建立所述第一视频向量模型;
E(vj)=logp(vj|vj+k) 式3;
其中,-K<k<K,k≠0,p(vj|vj+k)根据式4确定;
p(vj|vj+k)=cosin[H(vj),f(vj+k)] 式4;
其中,cosin[H(vj),f(vj+k)]表示H(vj)与f(vj+k)之间的余弦距离。
对于上述装置,在一种可能的实现方式中,所述视频向量模型训练模块包括:
随机数产生子模块,用于从区间(0,1)中产生一个随机数;
视频样本采集子模块,用于若所述随机数落在区间Ii上,则将所述第一视频列表中的第i-1个视频作为所述视频样本;其中,Ii=(li-1,li),i=1,2...N,i表示观看次数区间,N表示所述观看次数区间的总个数,counter(vj)表示所述第一视频列表中的第j个视频被所有用户观看的总次数,表示所述第一视频列表中的所有视频被所有用户观看的总次数。
有益效果
通过采集目标用户的用户行为数据并生成第一视频列表,提取第一视频列表中各个视频的前后视频的特征向量以建立第一视频向量模型,采集视频样本训练第一视频向量模型得到第二视频向量模型,并根据第二视频向量模型对视频进行向量化,根据本发明实施例的视频向量化方法及装置无需对视频逐帧进行向量化,而是对视频的整体进行向量化,大大降低了视频向量化的数据量及噪声,提高了视频向量化的处理速度,且结合用户行为数据建立视频向量模型,从而使视频向量能够更准备地反映视频信息。
根据下面参考附图对示例性实施例的详细说明,本发明的其它特征及方面将变得清楚。
附图说明
包含在说明书中并且构成说明书的一部分的附图与说明书一起示出了本发明的示例性实施例、特征和方面,并且用于解释本发明的原理。
图1示出根据本发明一实施例的视频向量化方法的实现流程图;
图2示出根据本发明一实施例的视频向量化方法步骤S101的一示例性的具体实现流程图;
图3示出根据本发明另一实施例的视频向量化装置的结构框图;
图4示出根据本发明另一实施例的视频向量化装置的一示例性的结构框图;
图5示出了本发明的另一个实施例的一种视频向量化设备的结构框图。
具体实施方式
以下将参考附图详细说明本发明的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
另外,为了更好的说明本发明,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本发明同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本发明的主旨。
实施例1
图1示出根据本发明一实施例的视频向量化方法的实现流程图。如图1所示,该方法主要包括:
在步骤S101中,采集目标用户的用户行为数据,并根据用户行为数据生成第一视频列表。
其中,目标用户的用户行为数据可以包括但不限于以下至少一项:目标用户观看视频的数据、目标用户评论视频的数据、目标用户订阅视频的数据和目标用户顶踩视频的数据。
在步骤S102中,提取第一视频列表中的各个视频的前后视频的特征向量。
在本发明实施例中,通过提取第一视频列表中的各个视频的前后视频的特征向量,从而在建立视频向量模型的过程中,考虑了目标用户观看的视频之间的相关性,从而能够提高视频向量模型的质量。
在步骤S103中,根据各个视频的前后视频的特征向量建立第一视频向量模型。
作为本发明实施例的一个示例,可以采用能够处理复杂特征的人工神经网络来建立第一视频向量模型。其中,复杂特征可以包括声音和视频等。该人工神经网络可以包括输入层、映射层和输出层。输入层的输入可以为第一视频列表中的各个视频的前后视频,例如,第一视频列表中的第j个视频为vj,则输入层的输入可以为vj的前K个视频和后K个视频,其中,前K个视频可以为vj-K,……,vj-1,后K个视频可以为vj+1,……,vj+K。其中,j和K为正整数。需要说明的是,K的值可以根据需要灵活设置。例如,K可以为2,在此不作限定。
需要说明的是,本示例中的人工神经网络可以利用现有的人工神经网络技术实现,在此不再对人工神经网络的工作原理进行赘述。
在步骤S104中,采集视频样本,并通过视频样本训练第一视频向量模型,得到第二视频向量模型。
作为本发明实施例的一个示例,在得到第二视频向量模型之后,该方法还可以包括:存储第二视频向量模型。
在步骤S105中,通过第二视频向量模型对第一视频列表中的视频进行向量化。
图2示出根据本发明一实施例的视频向量化方法步骤S101的一示例性的具体实现流程图。如图2所示,采集目标用户的用户行为数据,根据用户行为数据生成第一视频列表,包括:
在步骤S201中,采集指定时间段内的目标用户的所有用户行为数据。
在步骤S202中,从所采集的用户行为数据中筛选出有效的用户行为数据。
例如,可以将重复观看视频的用户行为数据确定为无效的用户行为数据,也可以将观看视频的完成比例很小的用户行为数据确定为无效的用户行为数据,在此不作限定。
在步骤S203中,按照有效的用户行为数据对应的时间对有效的用户行为数据进行排序,得到第一视频列表。
其中,有效的用户行为数据对应的时间可以为该有效的用户行为数据的发生时间。按照有效的用户行为数据对应的时间对有效的用户行为数据进行排序可以为:按照有效的用户行为数据由近到远的时间顺序对有效的用户行为数据进行排序。
作为本发明实施例的一个示例,在得到第一视频列表之后,可以存储该第一视频列表。
在一种可能的实现方式中,提取第一视频列表中的各个视频的前后视频的特征向量,具体用于:
采用式1提取第一视频列表中的第j个视频vj的前后视频的特征向量f(vj+k);
其中,vj+k表示第一视频列表中的第j+k个视频,K表示用于计算第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,H(vj+k)表示第j+k个视频的初始向量;根据式2计算;
作为本发明实施例的一个示例,可以通过人工神经网络的映射层将第一视频列表的各个视频的前后视频的初始向量取和后进行非线性变换。例如,可以采用式1提取第一视频列表中的第j个视频vj的前后视频vj-K,……,vj-1,vj+1,……,vj+K的特征向量f(vj+k)。其中,K可以表示用于计算第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,即第j个视频vj对应的特征向量f(vj+k)根据第j个视频vj和前K个视频和后K个视频的初始向量确定。
作为本发明实施例的一个示例,在采用式1提取第一视频列表中的第j个视频vj的前后视频vj-K,……,vj-1,vj+1,……,vj+K的特征向量f(vj+k)之前,该方法还可以包括:将第一视频列表中的各个视频进行初始化映射,得到各个视频的初始向量,且映射得到的视频的初始向量的值可以控制为大于0且小于1。例如,第一视频列表中第j+k个视频的初始向量为H(vj+k)。需要说明的是,随着视频向量模型的训练,视频向量将由初始向量收敛到某个值。
在一种可能的实现方式中,根据各个视频的前后视频的特征向量建立第一视频向量模型,具体用于:
根据式3建立第一视频向量模型;
E(vj)=logp(vj|vj+k) 式3;
其中,-K<k<K,k≠0,p(vj|vj+k)根据式4确定;
p(vj|vj+k)=cosin[H(vj),f(vj+k)] 式4;
其中,cosin[H(vj),f(vj+k)]表示H(vj)与f(vj+k)之间的余弦距离。
作为本发明实施例的一个示例,可以通过人工神经网络的映射层建立第一视频向量模型,并对第一视频向量模型进行训练优化,得到第二视频向量模型。在该示例中,可以采用最大似然估计算法训练优化第一视频向量模型。p(vj|vj+k)=cosin[H(vj),f(vj+k)]的值越小,则表明H(vj)与f(vj+k)的相似度越高。
在一种可能的实现方式中,采集视频样本,包括:从区间(0,1)中产生一个随机数;若随机数落在区间Ii上,则将第一视频列表中的第i-1个视频作为视频样本;其中,Ii=(li-1,li),i=1,2...N,l0=0,i表示观看次数区间,N表示观看次数区间的总个数,counter(vj)表示第一视频列表中的第j个视频被所有用户观看的总次数,表示第一视频列表中的所有视频被所有用户观看的总次数。例如,i=1对应的观看次数区间为0-20,i=2对应的观看次数区间为21-300,i=3对应的观看次数区间为301-1000,在此不作限定。
由于第一视频列表中视频数量较大,导致训练中的复杂度较高。因此,作为本发明实施例的一个示例,为了快速训练第一视频向量模型,可以利用负采样的方法来加速训练。负采样的方法能够用于提高视频向量模型的训练速度,并能够提高视频向量的质量。在第一视频列表中,各个视频被所有用户观看的总次数不同,对于被所有用户观看的总次数较多的视频,被选为负样本的概率较高;对于被所有用户观看的总次数较少的视频,被选为负样本的概率较低。
这样,通过采集目标用户的用户行为数据并生成第一视频列表,提取第一视频列表中各个视频的前后视频的特征向量以建立第一视频向量模型,采集视频样本训练第一视频向量模型得到第二视频向量模型,并根据第二视频向量模型对视频进行向量化,根据本发明实施例的视频向量化方法无需对视频逐帧进行向量化,而是对视频的整体进行向量化,大大降低了视频向量化的数据量及噪声,提高了视频向量化的处理速度,且结合用户行为数据建立视频向量模型,从而使视频向量能够更准备地反映视频信息。
实施例2
图3示出根据本发明另一实施例的视频向量化装置的结构框图。该装置可以用于运行图1或图2所示的视频向量化方法。为了便于说明,仅示出了与本发明实施例相关的部分。
如图3所示,该装置包括:第一视频列表生成模块31,用于采集目标用户的用户行为数据,并根据所述用户行为数据生成第一视频列表;前后视频特征向量提取模块32,用于提取所述第一视频列表中的各个视频的前后视频的特征向量;第一视频向量模型建立模块33,用于根据所述各个视频的前后视频的特征向量建立第一视频向量模型;视频向量模型训练模块34,用于采集视频样本,并通过所述视频样本训练所述第一视频向量模型,得到第二视频向量模型;向量化模块35,用于通过所述第二视频向量模型对所述第一视频列表中的视频进行向量化。
图4示出根据本发明另一实施例的视频向量化装置的一示例性的结构框图。图4中标号与图3相同的组件具有相同的功能,为简明起见,省略对这些组件的详细说明。为了便于说明,仅示出了与本发明实施例相关的部分。如图4所示:
在一种可能的实现方式中,所述第一视频列表生成模块31包括:用户行为数据采集子模块311,用于采集指定时间段内的所述目标用户的所有用户行为数据;用户行为数据筛选子模块312,用于从所采集的用户行为数据中筛选出有效的用户行为数据;第一视频列表生成子模块313,用于按照所述有效的用户行为数据对应的时间对所述有效的用户行为数据进行排序,得到所述第一视频列表。
在一种可能的实现方式中,所述前后视频特征向量提取模块32具体用于:采用式1提取所述第一视频列表中的第j个视频vj的前后视频的特征向量f(vj+k);
其中,vj+k表示所述第一视频列表中的第j+k个视频,K表示用于计算所述第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,H(vj+k)表示所述第j+k个视频的初始向量;根据式2计算;
在一种可能的实现方式中,所述第一视频向量模型建立模块33具体用于:根据式3建立所述第一视频向量模型;
E(vj)=logp(vj|vj+k) 式3;
其中,-K<k<K,k≠0,p(vj|vj+k)根据式4确定;
p(vj|vj+k)=cosin[H(vj),f(vj+k)] 式4;
其中,cosin[H(vj),f(vj+k)]表示H(vj)与f(vj+k)之间的余弦距离。
在一种可能的实现方式中,所述视频向量模型训练模块34包括:随机数产生子模块341,用于从区间(0,1)中产生一个随机数;视频样本采集子模块342,用于若所述随机数落在区间Ii上,则将所述第一视频列表中的第i-1个视频作为所述视频样本;其中,Ii=(li-1,li),i=1,2...N,l0=0,i表示观看次数区间,N表示所述观看次数区间的总个数,counter(vj)表示所述第一视频列表中的第j个视频被所有用户观看的总次数,表示所述第一视频列表中的所有视频被所有用户观看的总次数。
需要说明的是,这样,通过采集目标用户的用户行为数据并生成第一视频列表,提取第一视频列表中各个视频的前后视频的特征向量以建立第一视频向量模型,采集视频样本训练第一视频向量模型得到第二视频向量模型,并根据第二视频向量模型对视频进行向量化,根据本发明实施例的视频向量化装置无需对视频逐帧进行向量化,而是对视频的整体进行向量化,大大降低了视频向量化的数据量及噪声,提高了视频向量化的处理速度,且结合用户行为数据建立视频向量模型,从而使视频向量能够更准备地反映视频信息。
实施例3
图5示出了本发明的另一个实施例的一种视频向量化设备的结构框图。所述视频向量化设备1100可以是具备计算能力的主机服务器、个人计算机PC、或者可携带的便携式计算机或终端等。本发明具体实施例并不对计算节点的具体实现做限定。
所述视频向量化设备1100包括处理器(processor)1110、通信接口(Communications Interface)1120、存储器(memory)1130和总线1140。其中,处理器1110、通信接口1120、以及存储器1130通过总线1140完成相互间的通信。
通信接口1120用于与网络设备通信,其中网络设备包括例如虚拟机管理中心、共享存储等。
处理器1110用于执行程序。处理器1110可能是一个中央处理器CPU,或者是专用集成电路ASIC(Application Specific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。
存储器1130用于存放文件。存储器1130可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1130也可以是存储器阵列。存储器1130还可能被分块,并且所述块可按一定的规则组合成虚拟卷。
在一种可能的实施方式中,上述程序可为包括计算机操作指令的程序代码。该程序具体可用于:实现实施例1中各步骤的操作。
本领域普通技术人员可以意识到,本文所描述的实施例中的各示例性单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件形式来实现,取决于技术方案的特定应用和设计约束条件。专业技术人员可以针对特定的应用选择不同的方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
如果以计算机软件的形式来实现所述功能并作为独立的产品销售或使用时,则在一定程度上可认为本发明的技术方案的全部或部分(例如对现有技术做出贡献的部分)是以计算机软件产品的形式体现的。该计算机软件产品通常存储在计算机可读取的非易失性存储介质中,包括若干指令用以使得计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各实施例方法的全部或部分步骤。而前述的存储介质包括U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种视频向量化方法,其特征在于,包括:
采集目标用户的用户行为数据,并根据所述用户行为数据生成第一视频列表;
提取所述第一视频列表中的各个视频的前后视频的特征向量;
根据所述各个视频的前后视频的特征向量建立第一视频向量模型;
采集视频样本,并通过所述视频样本训练所述第一视频向量模型,得到第二视频向量模型;
通过所述第二视频向量模型对所述第一视频列表中的视频进行向量化。
2.根据权利要求1所述的方法,其特征在于,采集目标用户的用户行为数据,根据所述用户行为数据生成第一视频列表,包括:
采集指定时间段内的所述目标用户的所有用户行为数据;
从所采集的用户行为数据中筛选出有效的用户行为数据;
按照所述有效的用户行为数据对应的时间对所述有效的用户行为数据进行排序,得到所述第一视频列表。
3.根据权利要求1所述的方法,其特征在于,提取所述第一视频列表中的各个视频的前后视频的特征向量,具体用于:
采用式1提取所述第一视频列表中的第j个视频vj的前后视频的特征向量f(vj+k);
其中,vj+k表示所述第一视频列表中的第j+k个视频,K表示用于计算所述第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,H(vj+k)表示所述第j+k个视频的初始向量;根据式2计算;
4.根据权利要求3所述的方法,其特征在于,根据所述各个视频的前后视频的特征向量建立第一视频向量模型,具体用于:
根据式3建立所述第一视频向量模型;
E(vj)=logp(vj|vj+k) 式3;
其中,-K<k<K,k≠0,p(vj|vj+k)根据式4确定;
p(vj|vj+k)=cosin[H(vj),f(vj+k)] 式4;
其中,cosin[H(vj),f(vj+k)]表示H(vj)与f(vj+k)之间的余弦距离。
5.根据权利要求1所述的方法,其特征在于,采集视频样本,包括:
从区间(0,1)中产生一个随机数;
若所述随机数落在区间Ii上,则将所述第一视频列表中的第i-1个视频作为所述视频样本;其中,Ii=(li-1,li),i=1,2...N,l0=0,i表示观看次数区间,N表示所述观看次数区间的总个数,counter(vj)表示所述第一视频列表中的第j个视频被所有用户观看的总次数,表示所述第一视频列表中的所有视频被所有用户观看的总次数。
6.一种视频向量化装置,其特征在于,包括:
第一视频列表生成模块,用于采集目标用户的用户行为数据,并根据所述用户行为数据生成第一视频列表;
前后视频特征向量提取模块,用于提取所述第一视频列表中的各个视频的前后视频的特征向量;
第一视频向量模型建立模块,用于根据所述各个视频的前后视频的特征向量建立第一视频向量模型;
视频向量模型训练模块,用于采集视频样本,并通过所述视频样本训练所述第一视频向量模型,得到第二视频向量模型;
向量化模块,用于通过所述第二视频向量模型对所述第一视频列表中的视频进行向量化。
7.根据权利要求6所述的装置,其特征在于,所述第一视频列表生成模块包括:
用户行为数据采集子模块,用于采集指定时间段内的所述目标用户的所有用户行为数据;
用户行为数据筛选子模块,用于从所采集的用户行为数据中筛选出有效的用户行为数据;
第一视频列表生成子模块,用于按照所述有效的用户行为数据对应的时间对所述有效的用户行为数据进行排序,得到所述第一视频列表。
8.根据权利要求6所述的装置,其特征在于,所述前后视频特征向量提取模块具体用于:
采用式1提取所述第一视频列表中的第j个视频vj的前后视频的特征向量f(vj+k);
其中,vj+k表示所述第一视频列表中的第j+k个视频,K表示用于计算所述第j个视频vj对应的特征向量f(vj+k)的前后视频的个数,H(vj+k)表示所述第j+k个视频的初始向量;根据式2计算;
9.根据权利要求8所述的装置,其特征在于,所述第一视频向量模型建立模块具体用于:
根据式3建立所述第一视频向量模型;
E(vj)=logp(vj|vj+k) 式3;
其中,-K<k<K,k≠0,p(vj|vj+k)根据式4确定;
p(vj|vj+k)=cosin[H(vj),f(vj+k)] 式4;
其中,cosin[H(vj),f(vj+k)]表示H(vj)与f(vj+k)之间的余弦距离。
10.根据权利要求6所述的装置,其特征在于,所述视频向量模型训练模块包括:
随机数产生子模块,用于从区间(0,1)中产生一个随机数;
视频样本采集子模块,用于若所述随机数落在区间Ii上,则将所述第一视频列表中的第i-1个视频作为所述视频样本;其中,Ii=(li-1,li),i=1,2...N,l0=0,i表示观看次数区间,N表示所述观看次数区间的总个数,counter(vj)表示所述第一视频列表中的第j个视频被所有用户观看的总次数,表示所述第一视频列表中的所有视频被所有用户观看的总次数。
CN201610561899.3A 2016-07-15 2016-07-15 视频向量化方法及装置 Expired - Fee Related CN106101831B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610561899.3A CN106101831B (zh) 2016-07-15 2016-07-15 视频向量化方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610561899.3A CN106101831B (zh) 2016-07-15 2016-07-15 视频向量化方法及装置

Publications (2)

Publication Number Publication Date
CN106101831A true CN106101831A (zh) 2016-11-09
CN106101831B CN106101831B (zh) 2019-06-18

Family

ID=57221483

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610561899.3A Expired - Fee Related CN106101831B (zh) 2016-07-15 2016-07-15 视频向量化方法及装置

Country Status (1)

Country Link
CN (1) CN106101831B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197378A (zh) * 2017-06-23 2017-09-22 深圳天珑无线科技有限公司 一种视频信息的处理方法及装置
CN108154120A (zh) * 2017-12-25 2018-06-12 上海七牛信息技术有限公司 视频分类模型训练方法、装置、存储介质及电子设备
CN109857908A (zh) * 2019-03-04 2019-06-07 北京字节跳动网络技术有限公司 用于匹配视频的方法和装置
CN110012356A (zh) * 2019-04-16 2019-07-12 腾讯科技(深圳)有限公司 视频推荐方法、装置和设备及计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130094756A1 (en) * 2010-11-29 2013-04-18 Huawei Technologies Co., Ltd. Method and system for personalized advertisement push based on user interest learning
CN103744928A (zh) * 2013-12-30 2014-04-23 北京理工大学 一种基于历史访问记录的网络视频分类方法
CN104991899A (zh) * 2015-06-02 2015-10-21 广州酷狗计算机科技有限公司 用户属性的识别方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130094756A1 (en) * 2010-11-29 2013-04-18 Huawei Technologies Co., Ltd. Method and system for personalized advertisement push based on user interest learning
CN103744928A (zh) * 2013-12-30 2014-04-23 北京理工大学 一种基于历史访问记录的网络视频分类方法
CN104991899A (zh) * 2015-06-02 2015-10-21 广州酷狗计算机科技有限公司 用户属性的识别方法及装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107197378A (zh) * 2017-06-23 2017-09-22 深圳天珑无线科技有限公司 一种视频信息的处理方法及装置
CN108154120A (zh) * 2017-12-25 2018-06-12 上海七牛信息技术有限公司 视频分类模型训练方法、装置、存储介质及电子设备
WO2019127940A1 (zh) * 2017-12-25 2019-07-04 上海七牛信息技术有限公司 视频分类模型训练方法、装置、存储介质及电子设备
CN109857908A (zh) * 2019-03-04 2019-06-07 北京字节跳动网络技术有限公司 用于匹配视频的方法和装置
CN109857908B (zh) * 2019-03-04 2021-04-09 北京字节跳动网络技术有限公司 用于匹配视频的方法和装置
CN110012356A (zh) * 2019-04-16 2019-07-12 腾讯科技(深圳)有限公司 视频推荐方法、装置和设备及计算机存储介质
CN110012356B (zh) * 2019-04-16 2020-07-10 腾讯科技(深圳)有限公司 视频推荐方法、装置和设备及计算机存储介质

Also Published As

Publication number Publication date
CN106101831B (zh) 2019-06-18

Similar Documents

Publication Publication Date Title
CN108108821B (zh) 模型训练方法及装置
CN105975641A (zh) 视频推荐方法及装置
US9348898B2 (en) Recommendation system with dual collaborative filter usage matrix
CN104317959B (zh) 基于社交平台的数据挖掘方法及装置
CN109376844A (zh) 基于云平台和模型推荐的神经网络自动训练方法和装置
CN106326391B (zh) 多媒体资源推荐方法及装置
JP2019528502A (ja) パターン認識に適用可能なモデルを最適化するための方法および装置ならびに端末デバイス
CN106101831A (zh) 视频向量化方法及装置
JP6623186B2 (ja) コンテンツ評価予測システム及びコンテンツ評価予測方法
CN106168980A (zh) 多媒体资源推荐排序方法及装置
CN105512156B (zh) 点击模型生成方法和装置
CN112734104B (zh) 一种融合生成对抗网络和自编码器的跨域推荐方法
CN106156351B (zh) 多媒体资源推荐信息生成方法及装置
CN107885716B (zh) 文本识别方法及装置
CN111144407A (zh) 一种目标检测方法、系统、装置及可读存储介质
CN111325212A (zh) 模型训练方法、装置、电子设备和计算机可读存储介质
CN106445922A (zh) 确定多媒体资源的标题的方法及装置
CN113111222B (zh) 短视频模板的生成方法、装置、服务器以及存储介质
CN113920374A (zh) 基于随机森林的用户分类方法、装置、设备及存储介质
CN105677696A (zh) 检索设备和检索方法
Tseng et al. Smartphone app usage log mining
CN103529946B (zh) 一种输入方法及装置
Tan et al. Feature extraction and enhancement for real‐time semantic segmentation
CN116452741B (zh) 对象重建方法、对象重建模型的训练方法、装置及设备
Hassan et al. Modern Ontology and Deep Analysis of Global Social Networks Exploitation.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C

Patentee after: Youku network technology (Beijing) Co.,Ltd.

Address before: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C

Patentee before: 1VERGE INTERNET TECHNOLOGY (BEIJING) Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200520

Address after: 310052 room 508, floor 5, building 4, No. 699, Wangshang Road, Changhe street, Binjiang District, Hangzhou City, Zhejiang Province

Patentee after: Alibaba (China) Co.,Ltd.

Address before: 100080 Beijing Haidian District city Haidian street A Sinosteel International Plaza No. 8 block 5 layer A, C

Patentee before: Youku network technology (Beijing) Co.,Ltd.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190618

Termination date: 20200715