CN109919087B - 一种视频分类的方法、模型训练的方法及装置 - Google Patents
一种视频分类的方法、模型训练的方法及装置 Download PDFInfo
- Publication number
- CN109919087B CN109919087B CN201910168236.9A CN201910168236A CN109919087B CN 109919087 B CN109919087 B CN 109919087B CN 201910168236 A CN201910168236 A CN 201910168236A CN 109919087 B CN109919087 B CN 109919087B
- Authority
- CN
- China
- Prior art keywords
- motion information
- sequence
- video
- appearance information
- appearance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Abstract
本申请公开了一种视频分类的方法,包括:获取待分类视频文件所对应的图像帧序列,其中,图像帧序列中包括T帧图像;通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,外观信息特征序列中包括T个外观信息特征,外观信息特征与图像帧具有对应关系;通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,运动信息特征序列包括T个运动信息特征,运动预测网络模型用于预测外观信息特征所对应的运动信息特征;根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果。本申请还提供一种模型训练的方法以及装置。本申请能够节省计算时间和资源,从而提升了数据处理的效率。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种视频分类的方法、模型训练的方法及装置。
背景技术
视频分类是指给定一个视频片段,对其中包含的内容进行分类。视频类别通常包括动作(比如做蛋糕)、场景(比如海滩)以及物体(比如桌子)等。其中,又以视频动作分类最为热门,毕竟动作本身就包含动态的因素,不是静态的图像所能描述的,因此,基于运动特征对视频进行分类是很常见的。
目前,通常使用的视频分类技术主要是,首先对于从视频红绿蓝(red greenblue,RGB)图像中提取的外观信息特征进行分类,然后进一步利用从光流图像中提取的运动信息特征来提升视频分类的性能。在提取运动信息特征的过程中,需要根据连续两帧或多帧的视频RGB图片计算光流图像,进而利用卷积神经网络或其他方法获得视频的运动信息特征。
然而,在现有方案中需要根据至少两帧RGB图像对光流图像进行计算,对于视频而言,以24帧每秒的分辨率计算,短视频通常包含15秒以上的内容,而长视频常会长达几十分钟。因此,需要大量的时间和空间对光流图像进行计算,以获得视频的光流图像表示,从而导致数据处理的效率较低,且占用的计算资源和存储资源较多。
发明内容
本申请实施例提供了一种视频分类的方法、模型训练的方法及装置,能够实现对视频的自动分类,无需根据视频的外观信息特征计算光流图像,以利用光流图像计算运动信息特征。而是直接通过运动预测网络模型即可获取外观信息特征对应的运动信息特征,由此节省了计算时间和资源,从而提升了数据处理的效率。
有鉴于此,本申请第一方面提供一种视频分类的方法,包括:
获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
根据所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果。
本申请第二方面提供一种模型训练的方法,包括:
获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
根据所述真实运动信息特征序列与所述预测运动信息特征序列,确定模型参数;
采用所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型。
本申请第三方面提供一种视频分类装置,包括:
获取模块,用于获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
所述获取模块,还用于通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
所述获取模块,还用于通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
确定模块,用于根据所述获取模块获取的所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果。
在一种可能的设计中,在本申请实施例的第三方面的第一种实现方式中,
所述获取模块,具体用于获取所述待分类视频文件;
对所述待分类视频文件进行解码处理,得到所述图像帧序列,其中,每个帧图像具有相同的采样频率。
在一种可能的设计中,在本申请实施例的第三方面的第二种实现方式中,
所述获取模块,具体用于通过所述图像分类网络模型获取第t帧图像所对应的外观信息特征,其中,所述t大于或等于1,且小于或等于所述T的整数;
当获取到所述T帧图像中每帧图像所对应的外观信息特征时,根据所述T个外观信息特征生成所述外观信息特征序列。
在一种可能的设计中,在本申请实施例的第三方面的第三种实现方式中,
所述获取模块,具体用于获取第i个步骤所对应的第t个外观信息特征,其中,所述i为大于或等于1的整数,所述t大于或等于1,且小于或等于所述T的整数;
获取第(i-1)个步骤所对应的第(t+1)个运动信息特征以及第(t-1)个运动信息特征;
通过所述运动预测网络模型,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定所述第i个步骤所对应的第t个运动信息特征;
当获取到所述T个外观信息特征中每个外观信息特征所对应的运动信息特征时,根据所述T个运动信息特征生成所述运动信息特征序列。
在一种可能的设计中,在本申请实施例的第三方面的第四种实现方式中,
所述获取模块,具体用于通过所述运动预测网络模型的更新门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量;
通过所述运动预测网络模型的输出门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量;
通过所述运动预测网络模型的隐藏层,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征、第(t-1)个运动信息特征、所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量,计算得到所述第i个步骤所对应的第t个隐藏层特征向量;
通过所述运动预测网络模型的最终输出层,根据所述第t个隐藏层特征向量、所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,计算得到所述第i个步骤所对应的第t个运动信息特征。
在一种可能的设计中,在本申请实施例的第三方面的第五种实现方式中,
所述获取模块,具体用于采用如下方式计算所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量:
其中,所述rt-1表示所述第i个步骤所对应的所述第(t-1)个更新门向量,所述t表示第t个时刻,所述rt+1表示所述第i个步骤所对应的所述第(t+1)个更新门向量,所述σ()表示线性整流函数,所述Wr表示第一参数矩阵,所述Ur,t-1表示所述第(t-1)个更新门向量所对应的第二参数矩阵,所述Ur,t+1表示所述第(t+1)个更新门向量所对应的第三参数矩阵,所述xt表示所述第t个外观信息特征,所述表示所述第(i-1)个步骤所对应的所述第(t-1)个运动信息特征,所述表示所述第(i-1)个步骤所对应的所述第(t+1)个运动信息特征;
采用如下方式计算所述第(t+1)个输出门向量以及所述第(t-1)个输出门向量:
其中,所述zt+1表示所述第i个步骤所对应的所述第(t+1)个输出门向量,所述zt-1表示所述第i个步骤所对应的所述第(t-1)个输出门向量,所述z表示预设输出门向量,所述表示所述第i个步骤所对应的第(t-1)个待处理输出门向量,表示所述第i个步骤所对应的第(t+1)个待处理输出门向量,所述softmax()表示归一化处理函数,所述Wz表示第四参数矩阵,所述Uz,t-1表示所述第(t-1)个输出门向量所对应的第五参数矩阵,所述Uz,t+1表示所述第(t+1)个输出门向量所对应的第六参数矩阵;
采用如下方式计算所述第t个隐藏层特征向量:
采用如下方式计算所述第t个运动信息特征:
在一种可能的设计中,在本申请实施例的第三方面的第六种实现方式中,
所述确定模块,具体用于通过视频分类模型获取所述外观信息特征序列以及所述运动信息特征序列所对应的视频类别向量,其中,所述视频类别向量包括C个视频类别元素,所述C为大于1的整数;
从所述视频类别向量中确定至少一个目标视频类别元素;
根据所述至少一个目标视频类别元素生成所述待分类视频文件的所述视频分类结果。
本申请第四方面提供一种模型训练装置,包括:
获取模块,用于获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
所述获取模块,还用于获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
所述获取模块,还用于根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
所述获取模块,还用于通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
确定模块,用于根据所述获取模块获取的所述真实运动信息特征序列与所述获取模块获取的所述预测运动信息特征序列,确定模型参数;
训练模块,用于采用所述确定模块确定的所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型。
在一种可能的设计中,在本申请实施例的第四方面的第一种实现方式中,
所述确定模块,具体用于采用损失函数对所述真实运动信息特征序列与所述预测运动信息特征序列进行计算,得到目标损失结果;
根据所述目标损失结果确定所述模型参数。
在一种可能的设计中,在本申请实施例的第四方面的第二种实现方式中,
所述确定模块,具体用于采用如下方式计算所述目标损失结果:
其中,所述LMSE表示所述目标损失结果,所述T表示所述真实运动信息特征序列中的真实运动信息特征个数,所述表示所述真实运动信息特征序列中第t个真实运动信息特征,所述St表示所述预测运动信息特征序列中第t个预测运动信息特征,所述t为大于或等于1,且小于或等于所述T的整数。
本申请第五方面提供一种服务器,包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
根据所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
本申请第六方面提供一种服务器,包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
根据所述真实运动信息特征序列与所述预测运动信息特征序列,确定模型参数;
采用所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
本申请的第七方面提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述各方面所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,提供了一种视频分类的方法,首先获取待分类视频文件所对应的图像帧序列,其中,图像帧序列中包括T帧图像,T为大于1的整数,然后通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,其中,外观信息特征序列中包括T个外观信息特征,外观信息特征与图像帧具有对应关系,再通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,其中,运动信息特征序列包括T个运动信息特征,运动信息特征与外观信息特征具有对应关系,运动预测网络模型用于预测外观信息特征所对应的运动信息特征,最后可以根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果。通过上述方式,能够实现对视频的自动分类,无需根据视频的外观信息特征计算光流图像,以利用光流图像计算运动信息特征。而是直接通过运动预测网络模型即可获取外观信息特征对应的运动信息特征,由此节省了计算时间和资源,从而提升了数据处理的效率。
附图说明
图1为本申请实施例中视频分类系统的一个架构示意图;
图2为本申请实施例中结合外观信息特征和运动信息特征的一个视频分类流程图;
图3为本申请实施例中视频分类的一个应用场景示意图;
图4为本申请实施例中视频分类的方法一个实施例示意图;
图5为本申请实施例中运动预测网络模型的一个结构单元示意图;
图6为本申请实施例中运动预测网络模型的一个递归展开示意图;
图7为本申请实施例中模型训练的方法一个实施例示意图;
图8为本申请实施例中视频分类装置一个实施例示意图;
图9为本申请实施例中模型训练装置一个实施例示意图;
图10为本申请实施例中终端设备一个结构示意图;
图11为本申请实施例中服务器一个结构示意图。
具体实施方式
本申请实施例提供了一种视频分类的方法、模型训练的方法及装置,能够实现对视频的自动分类,无需根据视频的外观信息特征计算光流图像,以利用光流图像计算运动信息特征。而是直接通过运动预测网络模型即可获取外观信息特征对应的运动信息特征,由此节省了计算时间和资源,从而提升了数据处理的效率。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应理解,本申请可以应用于视频分类的场景,视频分类即可以为视频贴上“标签”,让视频归属于某一个或某多个类别。在数量庞大的视频数据库中,分类和标签是搜索视频的重要依据。视频能否被更多人看到,能否受大家欢迎,很大程度上取决于分类和标签填写是否恰当。视频分类已覆盖互联网、电视以及移动终端等,并且兼具影视、综艺以及资讯等内容形态,贯通视频内容制作、播出以及发行等环节,成为真正意义的互联网电视媒体,影响视频行业格局及全媒时代的大格局。更具体地,本申请所提供的视频分类方法可以应用于如下几类视频网站。
第一类视频网站为对等(peer-to-peer,P2P)网络电视,即采用P2P技术来实现节目的传输。这种技术的最大优点就是每个用户可以直接和其他用户进行连接,从而突破了服务器和带宽的瓶颈,使用的用户越多,网络互联的效果越好。此种视频网站的特点包含但不仅限于运营成本低,主要表现在服务器、带宽成本低;需要安装P2P插件或者软件;直播类节目流畅度较之点播类节目流畅度高;节目数量有限;主动发布内容,即内容寄存在自身服务器;节目观看前需要一定的缓冲时间。
第二类视频网站为P2P下载观看的视频网站,即实现影视文件观看与下载同步。这种技术的改善了传统P2P下载只能等文件下载完后再观看的缺点。此种视频网站的特点包含但不仅限于表现为中间平台,即内容多为网友提供,然后分享下载,此外,也有服务器自己发布内容的;需要安装P2P软件;点播节目为主;节目数量众多。
第三类视频网站为视频分享网站,即用户创造内容网站(user generatedcontent,UGC),这种网站最大的特点就是采用固态存储器与动画编辑器视频(flashvideo,FLASH FLV)视频播放技术,并含有视频上传、分享以及评价等功能。此种视频网站的特点包含但不仅限于用户体验较好,不需安装软件,可时间即点即播;对服务器及带宽占用较大,运营成本较高;内容多,且多为网友上传;盈利能力较弱。
第四类视频网站为电信平台,即指电信运营商自行开设的视频网站。此种视频网站特点包含但不仅限于采取按次、包月等收费方式,费用支付可以通过手机、电话以及宽带费等;电信运营商提供服务器和带宽,节目提供商提供内容或者整体提供网站平台及内容;节目质量参差不齐;为早期中国网络视频表现模式。
第五类视频网站为视频搜索网站,即提供视频搜索服务的网站。此种视频网站特点包含但不仅限于搜索互联网的视频资源;视频搜索技术难度大,研发成本高,较先进的帧搜索需要建立庞大的索引库;部分视频网站以及搜索引擎已经研发视频搜索功能。
第六类视频网站为垂直视频网站,即以一个行业为中心,提供专业的视频服务。此种视频网站特点包含但不仅限于内容局限于一个行业,用户定位精确;视频播放多为载体,更多的依赖于点评模式、企业与个人(business to customer,B2C)或者个人与个人(customer to customer,C2C)等电子商务模式。
第七类视频网站为门户视频网站,即为门户设立的视频频道。此种视频网站特点包含但不仅限于多种视频表现模式混合;基于视频网站的盈利能力,版权购买力较强;与其门户其他产品的结合度高,具有组合优势;运营没有专业视频网站细致。
为了便于理解,本申请提出了一种视频分类的方法,该方法应用于图1所示的视频分类系统,请参阅图1,图1为本申请实施例中视频分类系统的一个架构示意图,如图所示,视频分类装置可以部署于服务器,也可以部署于具有较高计算能力的客户端,下面将以视频分类装置部署于服务器为例进行介绍。服务器根据视频文件的RGB图像帧提取外观信息特征,然后根据提取到的外观信息特征预测对应视频的光流图像的运动信息特征,在不显式计算光流图像的情况下,根据外观信息特征序列预测视频的运动信息特征序列,并结合视频的外观信息特征序列对视频进行特征描述,提升视频分类的准确性,并且提升目前视频分类模型的性能。本申请所提供的视频特征提取方法,还可以结合各种特征分类框架被应用于服务器端或云端,由此对视频数据库中的视频自动进行多类别的分类。
需要说明的是,客户端部署于终端设备上,其中,终端设备包含但不仅限于平板电脑、笔记本电脑、掌上电脑、手机、语音交互设备及个人电脑(personal computer,PC),此处不做限定。其中,语音交互设备包含但不仅限于智能音响以及智能家电。
为了便于说明,请参阅图2,图2为本申请实施例中结合外观信息特征和运动信息特征的一个视频分类流程图,如图所示,本申请所提供的视频分类方法可以分为三个部分,分别为视频预处理,特征提取及预测以及特征分类。下面将针对各个部分的功能和流程进行介绍,具体地:
步骤S11中,获取视频文件;
步骤S12中,对输入的该视频文件进行编码,获取其对应的RGB图像帧,可以理解的是,RGB图像帧的格式不做限定;
步骤S21中,以RGB图像帧作为图像分类网络模型的输入,由图像分类网络模型对每个RGB图像帧进行外观信息特征的提取,从而组成该视频文件的外观信息特征序列;
步骤S22中,以外观信息特征序列作为运动预测网络模型的输入,由运动预测网络模型预测得到该视频文件的运动信息特征序列;
步骤S31中,以运动信息特征序列以及外观信息特征序列作为视频分类网络模型的输入,对视频文件进行分类,得到视频文件的类别信息。
基于上述流程,本申请提供的视频分类的应用场景如图3所示,请参阅图3,图3为本申请实施例中视频分类的一个应用场景示意图,如图所示,以视频分类服务为例,服务器接收用户上传的视频文件,并给视频文件进行处理,得到RGB图像帧。将RGB图像帧输入至图像分类网络模型,由此输出外观信息特征序列,再将外观信息特征序列输入至运动预测网络模型,由此输出运动信息特征序列,再将外观信息特征序列以及运动信息特征序列输入至视频分类网络模型,由此输出视频分类结果,即视频文件属于A类型、B类型、C类型以及D类型中的至少一类。
结合上述介绍,下面将对本申请中视频分类的方法进行介绍,请参阅图4,本申请实施例中视频分类的方法一个实施例包括:
101、获取待分类视频文件所对应的图像帧序列,其中,图像帧序列中包括T帧图像,T为大于1的整数;
本实施例中,视频分类装置获取待分类视频文件,其中,视频分类装置可以部署于服务器上,也可以部署于终端设备。待分类视频文件可以是通过客户端上传的视频,也可以是预先存储在数据库中的视频,此处不做限定。视频分类装置对待分类视频文件进行解码处理,从而得到图像帧序列,图像帧序列中包括T帧图像,T为大于1的整数,T表示图像帧序列中图像帧的总数,且一帧图像对应一个时刻,即T帧图像对应T个时刻。
102、通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,其中,外观信息特征序列中包括T个外观信息特征,外观信息特征与图像帧具有对应关系;
本实施例中,视频分类装置将图像帧序列中的T帧图像作为图像分类网络模型的输入,通过该图像分类网络模型输出外观信息特征序列,其中,外观信息特征序列包括T个外观信息特征,每个图像帧对应一个外观信息特征。
103、通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,其中,运动信息特征序列包括T个运动信息特征,运动信息特征与外观信息特征具有对应关系,运动预测网络模型用于预测外观信息特征所对应的运动信息特征;
本实施例中,视频分类装置将外观信息特征序列作为运动预测网络(MotionPrediction Network,MoNet)模型的输入,通过该运动预测网络模型输出运动信息特征序列,其中,运动信息特征序列包括T个运动信息特征,即每个外观信息特征对应一个运动信息特征,每个图像帧也对应一个运动信息特征。
104、根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果。
本实施例中,视频分类装置根据外观信息特征序列以及运动信息特征序列,可以对视频文件进行分类,由此输出待分类视频的视频分类结果。通常情况下,待分类视频文件对应至少一个视频分类结果,比如,待分类视频文件可以属于A类型的视频,又比如,待分类视频文件可以同时属于A类型和B类型的视频。
本申请实施例中,提供了一种视频分类的方法,首先获取待分类视频文件所对应的图像帧序列,其中,图像帧序列中包括T帧图像,T为大于1的整数,然后通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,其中,外观信息特征序列中包括T个外观信息特征,外观信息特征与图像帧具有对应关系,再通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,其中,运动信息特征序列包括T个运动信息特征,运动信息特征与外观信息特征具有对应关系,运动预测网络模型用于预测外观信息特征所对应的运动信息特征,最后可以根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果。通过上述方式,能够实现对视频的自动分类,无需根据视频的外观信息特征计算光流图像,以利用光流图像计算运动信息特征。而是直接通过运动预测网络模型即可获取外观信息特征对应的运动信息特征,由此节省了计算时间和资源,从而提升了数据处理的效率。
可选地,在上述图3对应的实施例的基础上,本申请实施例提供的视频分类的方法第一个可选实施例中,获取待分类视频文件所对应的图像帧序列,可以包括:
获取待分类视频文件;
对待分类视频文件进行解码处理,得到图像帧序列,其中,每个帧图像具有相同的采样频率。
本实施例中,提供了一种获取图像帧序列的方法,首先,视频分类装置需要获取待分类视频文件,然后利用音视频解码工具以一定的采样频率(比如每秒1帧)对待分类视频文件进行解码,从而得到RGB图像帧序列以及音频信号序列。
可以理解的是,待分类视频文件的视频格式包含但不仅限于运动图像专家组(motion picture experts group,MPEG)格式、音频视频交错(audio video interleaved,AVI)、格式、高级流格式(advanced streaming format,ASF)、微软媒体视频(Windowsmedia video,WMV)格式、第三代合作伙伴项目计划文件格式(3rd generationpartnership project file format,3GP)、多媒体容器文件格式(multimedia containerfile format,MKV)、流媒体格式(flash video)以及视频容器可变比特率文件格式(RealMedia variable bitrate file format,RMVB)。
可以理解的是,音视频解码工具具体可以是飞梭MPEG(fast forward MPEG,ffmpeg),ffmpeg是一套可以用来记录以及转换数字音频和视频,并能将其转化为流的开源计算机程序。音视频解码工具采用的采样帧率也称为采样率或者采样速度,采样频率定义了每秒从连续信号中提取并组成离散信号的采样个数,它用赫兹(hertz,Hz)来表示。采样频率的倒数叫作采样周期或采样时间,它是采样之间的时间间隔。
可以理解的是,RGB图像帧序列中的RGB图像帧格式包含但不仅限于位图(bitmap,BMP)格式、个人电脑交换(personal computer exchange,PCX)格式、标签图像文件格式(tag image file format,TIFF)、图形交换格式(graphics interchange format,GIF)、联合照片专家组(joint photographic expert group,JPEG)、已标记的图形(taggedgraphics,TGA)格式、可交换的图像文件格式(exchangeable image file Format,EXIF)、闪光照片(kodak flash PiX,FPX)格式、可缩放矢量图形(scalable vector graphics,SVG)、便携式网络图形(portable network graphics,PNG)、微软图元文件格式(Windowsmetafile format,WMF)、封装式页描述语言(encapsulated post script,EPS)格式、高动态范围成像(high dynamic range imaging,HDRI)以及图纸交换格式(drawing exchangeformat,DXF)。
其次,本申请实施例中,介绍了一种视频分类装置获取待分类视频文件所对应的图像帧序列的方式,即先获取待分类视频文件,然后对待分类视频文件进行解码处理,得到图像帧序列,其中,每个帧图像具有相同的采样频率。通过上述方式,能够按照设定好的采用频率对视频文件进行解码,由此得到相应的图像帧序列,进而便于进行后续的处理,从而提升方案的可行性和可操作性。
可选地,在上述图3对应的实施例的基础上,本申请实施例提供的视频分类的方法第二个可选实施例中,通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,可以包括:
通过图像分类网络模型获取第t帧图像所对应的外观信息特征,其中,t大于或等于1,且小于或等于T的整数;
当获取到T帧图像中每帧图像所对应的外观信息特征时,根据T个外观信息特征生成外观信息特征序列。
本实施例中,将介绍一种通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列的方法。首先将图像帧序列中的每帧图像输入至图像分类网络模型,其中,每帧图像均包括外观信息,外观信息包含但不仅限于对象的形状、大小、颜色以及类型等可以直接通过图像获得的信息。通过图像分类网络模型输出每帧图像所对应的外观信息特征,T帧图像对应T个外观信息特征,T个外观信息特征构成外观信息特征序列。外观信息特征指的是利用卷积神经网络对图像进行特征提取后获得的特征。由于图像中包含了外观信息,这些外观信息用特征进行表示,所得的特征即为外观信息特征。
具体地,利用目前常见的视频特征提取方法(例如卷积神经网络或递归神经网络等方法)对待分类视频文件中的图像帧机械能外观信息特征表示。对于具有T帧图像的待分类视频文件而言,能够得到外观信息特征序列本申请使用的视频特征提取方法可以是Inception-V4深度神经网络模型。Inception-V4深度神经网络模型是卷积神经网络图片分类模型。本方案利用在图像网络(ImageNet)数据集上预训练好的Inception-V4模型参数,给定输入图像,获得对应图像的深度神经网络特征,该特征根据网络中的参数以及其中的卷积和非线性激活函数等最后的特征输出,其中,特征维度经过主成分分析算法处理之后为1024维。
主成分分析算法是特征降维的算法,比如说输入特征是4096维,通过主成分分析获得该特征模最大的128个方向,取该特征再这128个方向的投影则得到该特征降维后128维的特征。
可以理解的是,在实际应用中除了可以使用Inception-V4深度神经网络模型以外,还可以使用其他类型的深度神经网络模型,比如残差网络(Residual Networks,ResNets)、Inception-V3深度神经网络模型或者双通道网络结构(Dual Path Network,DPN),此处仅为一个示意,并不应理解为对本申请的限定。
其次,本申请实施例中,提供了一种通过图像分类网络模型获取外观信息特征序列的方法,即视频分类装置先通过图像分类网络模型获取第t帧图像所对应的外观信息特征,当获取到T帧图像中每帧图像所对应的外观信息特征时,根据视频分类装置T个外观信息特征生成外观信息特征序列。通过上述方式,可以直接利用图像分类网络模型输出视频文件的外观信息特征序列,不需要以人工提取特征序列,一方面可以提升特征预测的准确度,另一方面节省了人工成本,还能够提升特征提取的效率。
可选地,在上述图3对应的实施例的基础上,本申请实施例提供的视频分类的方法第三个可选实施例中,通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,可以包括:
获取第i个步骤所对应的第t个外观信息特征,其中,i为大于或等于1的整数,t大于或等于1,且小于或等于T的整数;
获取第(i-1)个步骤所对应的第(t+1)个运动信息特征以及第(t-1)个运动信息特征;
通过运动预测网络模型,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定第i个步骤所对应的第t个运动信息特征;
当获取到T个外观信息特征中每个外观信息特征所对应的运动信息特征时,根据T个运动信息特征生成运动信息特征序列。
本实施例中,介绍了一种生成运动信息特征序列的方式,对于给定一系列属于某个视频的T个D维外观信息特征序列作为输入,T为待分类视频文件的时间维度数目,D维指单个特征的特征维度(长度)。比如说描述物体的位置可以用3维(x,y,z)的特征来描述。在这里外观信息特征是指通过卷积神经网络获得的特征,是1024维的。但对于不同的卷积神经网络,计算获得的维度可能不一样,可以通过设置的方式进行调整。
比如,对长度为60秒的待分类视频文件,以每秒一个特征的频率提取特征,则会提取得到T=60个D维特征,其时间维度按时间顺序排列。本申请提出运动预测网络模型对运动信息特征序列进行预测,得到待分类视频文件的外观信息特征序列以及运动信息特征序列,进而进行视频分类。其中,运动信息具体可以包括物体运动的方向,运动的强度等运动相关的信息。
由于运动信息特征计算需要同时接收前一时刻和后一时刻的运动信息特征,假设当前时刻为t,那么前一个时刻为(t-1)个时刻,后一个时刻为(t+1)个时刻,将第(t+1)个运动信息特征以及第(t-1)个运动信息特征作为输入,用于估计当前时刻的运动信息特征,这在实现的过程中并不能直接获得。因此本申请采取递归的方式进行估计。假设当前步骤为i,那么上一个步骤表示为(i-1)个步骤,将第i个步骤的第t个外观信息特征、第(i-1)个步骤计算得到的第(t-1)个时刻的运动信息特征以及第(t-1)个时刻的运动信息特征共同输入至运动预测网络模型,由运动预测网络模型输出第i个步骤的第t个运动信息特征。类似地,获取T个外观信息特征中每个外观信息特征所对应的运动信息特征,由T个运动信息特征构成运动信息特征序列。
其次,本申请实施例中,提供了一种通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列的方法,即视频分类装置先获取第i个步骤所对应的第t个外观信息特征,然后获取第(i-1)个步骤所对应的第(t+1)个运动信息特征以及第(t-1)个运动信息特征,再通过运动预测网络模型,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定第i个步骤所对应的第t个运动信息特征,当获取到T个外观信息特征中每个外观信息特征所对应的运动信息特征时,根据T个运动信息特征生成运动信息特征序列。通过上述方式,通过运动预测网络模型能够直接获取到运动信息特征序列,进而自动对视频文件进行分类,从而完成对于视频内容的识别,由此大幅减少视频内容筛查人员的工作量。此外对于视频推荐方面的应用,可以根据视频类别进行用户个性化推荐,从而提升用户体验和丰富产品内容。
可选地,在上述图3对应的第三个实施例的基础上,本申请实施例提供的视频分类的方法第四个可选实施例中,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定第i个步骤所对应的第t个运动信息特征,可以包括:
通过运动预测网络模型的更新门,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量;
通过运动预测网络模型的输出门,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量;
通过运动预测网络模型的隐藏层,根据第t个外观信息特征、第(t+1)个运动信息特征、第(t-1)个运动信息特征、第(t+1)个更新门向量以及第(t-1)个更新门向量,计算得到第i个步骤所对应的第t个隐藏层特征向量;
通过运动预测网络模型的最终输出层,根据第t个隐藏层特征向量、第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,计算得到第i个步骤所对应的第t个运动信息特征。
本实施例中,对于T个D维输入外观信息特征序列运动预测网络模型希望通过找到外观信息特征序列对运动信息特征序列的映射方法,使得网络能够根据外观信息特征序列预测运动信息特征序列本方案中提供的运动预测网络模型f主要分为四个组成部分,包括隐藏层(hidden state)、更新门(update gate)、输出门(outputgate)以及最终输出层(final output)
为了便于理解,请参阅图5,图5为本申请实施例中运动预测网络模型的一个结构单元示意图,如图所示,将第i个步骤对应的第t个外观信息特征xt作为更新门的输入,同时将第(i-1)个步骤对应的第(t+1)个运动信息特征st+1以及第(t-1)个运动信息特征st-1也作为更新门的输入,由此输出第i个步骤对应的第(t-1)个更新门向量rt-1以及第(t+1)个更新门向量rt+1。
将第i个步骤对应的第t个外观信息特征xt作为输出门的输入,同时将第(i-1)个步骤对应的第(t+1)个运动信息特征st+1以及第(t-1)个运动信息特征st-1也作为输出门的输入,由此输出第i个步骤对应的第(t-1)个更新门向量zt-1以及第(t+1)个输出门向量zt+1。
将第i个步骤对应的第t个外观信息特征xt作为隐藏层的输入,同时将第(i-1)个步骤对应的第(t+1)个运动信息特征st+1以及第(t-1)个运动信息特征st-1也作为隐藏层的输入,将第(i-1)个步骤对应的第(t+1)个更新门向量zt+1以及第(t-1)个更新门向量zt-1也作为隐藏层的输入,由此输出第i个步骤对应的第t个隐藏层特征向量ht。
将第i个步骤对应的第t个外观信息特征xt作为最终输出层的输入,同时将第i个步骤对应的第(t-1)个更新门向量zt-1以及第(t+1)个输出门向量zt+1也作为最终输出层的输入,由此输出第i个步骤所对应的第t个运动信息特征st。
应理解,本申请采取递归的方式进行估计。将第i个步骤的第t个外观信息特征、第(i-1)个步骤计算得到的第(t-1)个时刻的运动信息特征以及第(t-1)个时刻的运动信息特征共同输入至运动预测网络模型,由运动预测网络模型输出第i个步骤的第t个运动信息特征。为了便于理解,请参阅图6,图6为本申请实施例中运动预测网络模型的一个递归展开示意图,如图所示,在预测第i个步骤的运动信息特征st时,可以采用如下运动预测网络模型:
其中,表示第(i-1)个步骤所对应的第(t-1)个运动信息特征,表示第(i-1)个步骤所对应的第(t+1)个运动信息特征。通过递归计算的方式,预测得到运动信息特征序列在计算过程中运动信息特征的初始值设为0向量。
再次,本申请实施例中,提供了一种根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定第i个步骤所对应的第t个运动信息特征的方法。通过上述方式,在设计运动预测网络模型时主要分为四个部分,分别包括隐藏层、更新门、输出门以及最终的输出,由此,可以分别对各个部分进行计算,进而计算得到运动信息特征,从而保证方案的可行性和可操作性。
可选地,在上述图3对应的第四个实施例的基础上,本申请实施例提供的视频分类的方法第五个可选实施例中,通过运动预测网络模型的更新门,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量,可以包括:
采用如下方式计算第(t+1)个更新门向量以及第(t-1)个更新门向量:
其中,rt-1表示第i个步骤所对应的第(t-1)个更新门向量,t表示第t个时刻,rt+1表示第i个步骤所对应的第(t+1)个更新门向量,σ()表示线性整流函数,Wr表示第一参数矩阵,Ur,t-1表示第(t-1)个更新门向量所对应的第二参数矩阵,Ur,t+1表示第(t+1)个更新门向量所对应的第三参数矩阵,xt表示第t个外观信息特征,表示第(i-1)个步骤所对应的第(t-1)个运动信息特征,表示第(i-1)个步骤所对应的第(t+1)个运动信息特征;
通过运动预测网络模型的输出门,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,可以包括:
采用如下方式计算第(t+1)个输出门向量以及第(t-1)个输出门向量:
其中,zt+1表示第i个步骤所对应的第(t+1)个输出门向量,zt-1表示第i个步骤所对应的第(t-1)个输出门向量,z表示预设输出门向量,表示第i个步骤所对应的第(t-1)个待处理输出门向量,表示第i个步骤所对应的第(t+1)个待处理输出门向量,softmax()表示归一化处理函数,Wz表示第四参数矩阵,Uz,t-1表示第(t-1)个输出门向量所对应的第五参数矩阵,Uz,t+1表示第(t+1)个输出门向量所对应的第六参数矩阵;
通过运动预测网络模型的隐藏层,根据第t个外观信息特征、第(t+1)个运动信息特征、第(t-1)个运动信息特征、第(t+1)个更新门向量以及第(t-1)个更新门向量,计算得到第i个步骤所对应的第t个隐藏层特征向量,可以包括:
采用如下方式计算第t个隐藏层特征向量:
通过运动预测网络模型的最终输出层,根据第t个隐藏层特征向量、第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,计算得到第i个步骤所对应的第t个运动信息特征,可以包括:
采用如下方式计算第t个运动信息特征:
其中,假设xt的维度为Dx,ht的维度为Dh,st的维度为Ds,rt的维度为Dr,其中,维度与时间t无关,Ds=Dr,那么第七参数矩阵Wh的维度为Dh×Dx,第八参数矩阵Uh的维度为Dh×Ds。第四参数矩阵Wz的维度为Dz×Dx,第五参数矩阵Uz,t-1与第六参数矩阵Uz,t+1的维度为Dz×Ds,第二参数矩阵Ur,t-1与第三参数矩阵Ur,t+1的维度为Dr×Ds。
进一步地,本申请实施例中,提供了计算特征向量的具体方式,包括计算第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量的方式,计算第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量的方式,计算第i个步骤所对应的第t个隐藏层特征向量的方式,以及计算得到第i个步骤所对应的第t个运动信息特征的方式。通过上述方式,利用递归计算的模式能够克服在计算运动信息特征时,不能同时接收前一时刻和后一时刻的运动信息特征的问题,因此,采用递归的方式进行运动信息特征的估计,可以保证方案的可行性和可操作性。
可选地,在上述图3以及图3对应的第一个至第五个实施例中任一项的基础上,本申请实施例提供的视频分类的方法第六个可选实施例中,根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果,可以包括:
通过视频分类模型获取外观信息特征序列以及运动信息特征序列所对应的视频类别向量,其中,视频类别向量包括C个视频类别元素,C为大于1的整数;
从视频类别向量中确定至少一个目标视频类别元素;
根据至少一个目标视频类别元素生成待分类视频文件的视频分类结果。
本实施例中,将介绍一种确定视频分类结果的方式,首先视频分类装置需要通过视频分类模型获取外观信息特征序列以及运动信息特征序列所对应的视频类别向量,这里的视频类别向量包括包括C个视频类别元素,每个视频类别元素表示一种视频类别,比如“娱乐”、“体育”、“新闻”、“生活”以及“科技”等。然后从视频类别向量中确定至少一个目标视频类别元素,通常选择值较大的元素作为目标视频类别元素。最后视频根据至少一个目标视频类别元素生成待分类视频文件的视频分类结果。
具体地,下面将结合示例进行介绍。在获取到外观信息特征序列和预测得到的运动信息特征序列之后,利用视频分类模型对待分类视频文件进行分类。其中,视频分类模型包含但不仅限于支持向量机(support vector machine,SVM)分类器、K最近邻(k-nearest neighbor,KNN)分类器、神经网络分类器、多层非线性网络分类模型以及多层非线性网络混合专家分类模型。
通过视频分类模型输出以概率表示的C维视频类别向量,其中,C为大于1的整数,C为预先设定的视频类别元素的数量。该视频类别向量中每个元素位置的数值代表待分类视频文件为对应类别的概率,最后将该视频类别向量转换为类别,从而获得视频分类结果。以三类视频类别元素(分别依次为“娱乐”、“体育”和“生活”)为例,假设视频类别向量表示为[0.1,0.9,0.7],即代表视频分类模型确定待分类视频文件属于“娱乐”的概率为0.1,属于“体育”的概率为0.9,属于“生活”的概率为0.7。可见,属于“体育”类别和属于“生活”类别的概率比较高,即确定目标视频类别元素为“体育”以及“生活”,此时,生成待分类视频文件的视频分类结果为“体育+生活”。如果只输出一个目标视频类别元素,则可以输出“体育”,即生成待分类视频文件的视频分类结果为“体育”。
需要说明的是,每个类别可以独立地出现,因此不要求视频类别向量的数值之和为1。但也不排除用于单个类别分类的情况,即视频类别向量的数值之和为1的情况。
更进一步地,本申请实施例中,提供了一种确定待分类视频文件视频分类结果的方法,即视频分类装置先通过视频分类模型获取外观信息特征序列以及运动信息特征序列所对应的视频类别向量,然后从视频类别向量中确定至少一个目标视频类别元素,最后根据至少一个目标视频类别元素生成待分类视频文件的视频分类结果。通过上述方式,能够根据视频分类模型输出的视频类别向量,确定该视频文件属于某一个类别的可能性,由此,保证视频文件分类的可靠性和准确度,对于有些视频文件可能不仅仅属于一个类型,本方案还可以针对视频分类模型输出的视频类别向量,为视频文件分配多个类型,由此提升方案的多样性。
结合上述介绍,下面将对本申请中模型训练的方法进行介绍,请参阅图7,本申请实施例中模型训练的方法一个实施例包括:
201、获取待训练视频文件所对应的光流图序列,其中,光流图序列中包括多个光流图;
本实施例中,对于运动预测网络模型的训练,首先模型训练装置可以利用全变分L1范数(Total Variational L1Norm,TVL1)光流估计方法对待训练视频文件进行光流图的计算,TVL1方法估计得到的光流图效果比较好,从而得到光流图序列,光流图序列中包括多个光流图。
可以理解的是,在实际应用中,还可以使用其他的光流计算方法,例如Brox方法。光流法实际是通过检测图像像素点的强度随时间的变化进而推断出物体移动速度及方向的方法。而光流图则是光流法计算的数值的图像显示。光流图一般分成两张单通道的灰度图像,分别代表垂直方向和水平方向的像素点运动强度。强度以图像亮度的形式表示。
正是因为这是模型训练的过程,所以可以采用光流估计方法进行光流图的提取以及光流特征的计算,一般来说,模型训练装置可以部署在性能较高和存储资源较大的计算机机器或集群中。
202、获取待训练视频文件所对应的待训练外观信息特征序列,其中,待训练外观信息特征序列包括多个待训练外观信息特征;
203、根据待训练视频文件所对应的光流图序列,获取真实运动信息特征序列,其中,真实运动信息特征序列包括T个真实运动信息特征,T为大于1的整数;
计算外观信息特征和真实运动信息特征需要每秒110吉字节(Gigabyte,G)的浮点运算次数,而结合运动预测网络模型计算外观信息特征和运动信息特征仅需要每秒55G浮点运算次数。浮点运算次数为机器进行浮点数运算的次数,反映了计算资源的消耗。而存储资源则主要是光流图的存储,由于光流图是两张单通道的图片,因此近似是RGB图片的2/3大小。以1GB的视频为例,解压获得的JPG图片约10GB,因此光流图约占6.6GB空间。
204、通过待训练运动预测网络模型获取待训练外观信息特征序列所对应的预测运动信息特征序列,其中,预测运动信息特征序列包括T个预测运动信息特征;
本实施例中,模型训练装置将待训练外观信息特征序列输入至待训练运动预测网络模型,由待训练运动预测网络模型输出相应的预测运动信息特征序列,预测运动信息特征序列可以记做即预测运动信息特征序列中包括T个预测运动信息特征。
205、根据真实运动信息特征序列与预测运动信息特征序列,确定模型参数;
本实施例中,模型训练装置采用梯度下降算法对待训练运动预测网络模型中的模型参数进行更新,使用损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到模型参数。
206、采用模型参数对待训练运动预测网络模型进行训练,得到运动预测网络模型。
本实施例中,模型训练装置根据模型参数对待训练运动预测网络模型进行训练,得到运动预测网络模型。使得运动预测网络模型能够根据输入的外观信息特征序列预测出与真实运动信息特征序列相近的运动信息特征序列而不需要对光流图进行计算,也不需要利用卷积神经网络对光流图进行真实运动信息特征提取,从而大大减少计算量和存储资源。
本申请实施例中,提供了一种模型训练的方法,即模型训练装置首先获取待训练视频文件所对应的光流图序列,然后获取待训练视频文件所对应的待训练外观信息特征序列,待训练外观信息特征序列包括多个待训练外观信息特征,模型训练装置根据待训练视频文件所对应的光流图序列,获取真实运动信息特征序列,再通过待训练运动预测网络模型获取待训练外观信息特征序列所对应的预测运动信息特征序列,其中,预测运动信息特征序列包括T个预测运动信息特征,根据真实运动信息特征序列与预测运动信息特征序列,确定模型参数,最后模型训练装置可以采用模型参数对待训练运动预测网络模型进行训练,得到运动预测网络模型。通过上述方式,在模型训练的过程中使用视频文件的光流图作为训练对象,从而使得训练得到的运动预测网络模型具有隐式获取视频文件中光流图的功能,在实际应用中,通过运动预测网络模型就能够直接输出运动信息特征,不需要再特意计算出光流图,从而大幅度地减少计算量和穿存储资源。
可选地,在上述图7对应的实施例的基础上,本申请实施例提供的模型训练的方法第一个可选实施例中,根据真实运动信息特征序列与预测运动信息特征序列,确定模型参数,可以包括:
采用损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到目标损失结果;
根据目标损失结果确定模型参数。
本实施例中,将介绍如何根据真实运动信息特征序列与预测运动信息特征序列确定模型参数的方法。即采用损失函数对真实值和预测值进行计算,得到目标损失结果,目标损失结果即表示真实值和预测值之间的距离,因此,损失函数是一个非负实值函数。目标损失结果越小,表示待训练运动预测网络模型的鲁棒性越好。应理解,本申请并不限定所采用的损失函数类型,下面将介绍几种本实施例中可以使用的损失函数。
第一种为均方误差(mean-square error,MSE)损失函数,MSE损失函数表示真实运动信息特征与预测运动信息特征之间差值的平方和,随着真实运动信息特征与预测运动信息特征之间的误差增大,使得MSE损失结果的增加更加迅猛。
第二种为平均绝对误差(mean absolute error,MAE)损失函数,MAE损失函数表示真实运动信息特征与预测运动信息特征之差绝对值的和,即表示真实运动信息特征与预测运动信息特征的平均误差幅度,而不需要考虑误差的方向,范围是0到正无穷。
第三种为Huber损失函数,Huber损失函数相比于平方损失来说对于异常值不敏感,但它同样保持了可微的特性。它基于绝对误差但在误差很小的时候变成了平方误差,可以使用超参数来调节这一误差的阈值。当超参数趋向于0时它就退化成了MAE损失函数,而当超参数趋向于无穷时则退化为了MSE损失函数。
第四种为对数余弦变换(Log-Cosh)损失函数,Log-Cosh损失函数较为平滑,可以利用双曲余弦来计算预测误差。
第五种为分位数损失函数,在大多数真实世界的预测问题中,常常希望看到预测结果的不确定性。通过预测出一个取值区间而不是一个个具体的取值点对于具体业务流程中的决策至关重要。
其次,本申请实施例中,提供了一种根据真实运动信息特征序列与预测运动信息特征序列确定模型参数的方法,即模型训练装置先采用损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到目标损失结果,然后根据目标损失结果确定模型参数。通过上述方式,能够采用合适的损失函数计算得到损失结果,基于损失结果的最小值计算得到模型参数,该模型参数能够有效地训练得到机器学习模型,从而提升模型训练的可靠性和准确度。
可选地,在上述图7对应的第一个实施例的基础上,本申请实施例提供的模型训练的方法第二个可选实施例中,采用损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到目标损失结果,可以包括:
采用如下方式计算目标损失结果:
其中,LMSE表示目标损失结果,T表示真实运动信息特征序列中的真实运动信息特征个数,表示真实运动信息特征序列中第t个真实运动信息特征,St表示预测运动信息特征序列中第t个预测运动信息特征,t为大于或等于1,且小于或等于T的整数。
本实施例中,介绍了一种利用MSE损失函数计算目标损失结果的具体方式,在模型训练装置获取到真实运动信息特征序列以及预测运动信息特征序列之后,可以利用MSE损失函数作为本实施例中所使用的损失函数。假设理想的运动预测网络模型是一个函数,那么真实运动信息特征和预测运动信息特征之间的距离可以通过MSE损失函数来近似表示,当距离无限缩小时,表示模型也就越接近理想模型。
具体地,可以采用如下方式计算目标损失结果:
在上述式子中,表示真实运动信息特征序列在一个批处理(batch)中的第t个真实运动信息特征,而St表示预测运动信息特征序列中第t个预测运动信息特征,也就是待训练运动预测网络模型输出的预测结果,MSE损失函数是一个求batch的平均误差的函数。
再次,本申请实施例中,提供了一种计算目标损失结果的具体方式,即利用MSE损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到目标损失结果。通过上述方式,采用MSE损失函数进行计算能够降低计算的复杂度,即便使用固定的学习率也可以有效收敛。MSE损失函数的梯度随损失增大而增大,而损失趋于0时则会减小,这使得在训练结束时,使用MSE损失函数的结果会更精确。
应理解,本申请在采取线性分类网络进行实验并获得较好的效果,在大规模视频数据集中,根据nception-V4方法提取的外观信息特征,通过结合运动信息特征,利用线性分类器方法对视频特征进行分类,获得比仅用外观信息特征0.23%全局平均精确率(Global Average Precision,GAP)@20的分类性能和约0.2%的首类命中性能。
其中,GAP@20为多类别视频分类性能指标,首类命中指分类置信度最高的类别命中视频真实类标,结果得分最高为视频真实类标的情况的统计结果。
因此利用本申请提出的运动预测网络模型对视频运动信息特征进行预测,视频分类模型能够有效地对输入视频进行高性能的分类,获得更加准确的类别输出,因此,能够广泛地部署到各个视频应用服务中,并对如视频推荐,视频过滤等业务。
下面对本申请中的视频分类装置进行详细描述,请参阅图8,图8为本申请实施例中视频分类装置一个实施例示意图,视频分类装置30包括:
获取模块301,用于获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
所述获取模块301,还用于通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
所述获取模块301,还用于通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
确定模块302,用于根据所述获取模块301获取的所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果。
本实施例中,获取模块301获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数,所述获取模块301通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系,所述获取模块301通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征,确定模块302根据所述获取模块301获取的所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果。
本申请实施例中,提供了一种视频分类装置,首先该视频分类装置获取待分类视频文件所对应的图像帧序列,其中,图像帧序列中包括T帧图像,T为大于1的整数,然后通过图像分类网络模型获取图像帧序列所对应的外观信息特征序列,其中,外观信息特征序列中包括T个外观信息特征,外观信息特征与图像帧具有对应关系,再通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列,其中,运动信息特征序列包括T个运动信息特征,运动信息特征与外观信息特征具有对应关系,运动预测网络模型用于预测外观信息特征所对应的运动信息特征,最后可以根据外观信息特征序列以及运动信息特征序列确定待分类视频文件的视频分类结果。通过上述方式,能够实现对视频的自动分类,无需根据视频的外观信息特征计算光流图像,以利用光流图像计算运动信息特征。而是直接通过运动预测网络模型即可获取外观信息特征对应的运动信息特征,由此节省了计算时间和资源,从而提升了数据处理的效率。
可选地,在上述图8所对应的实施例的基础上,本申请实施例提供的视频分类装置30的另一实施例中,
所述获取模块301,具体用于获取所述待分类视频文件;
对所述待分类视频文件进行解码处理,得到所述图像帧序列,其中,每个帧图像具有相同的采样频率。
其次,本申请实施例中,介绍了一种视频分类装置获取待分类视频文件所对应的图像帧序列的方式,即先获取待分类视频文件,然后对待分类视频文件进行解码处理,得到图像帧序列,其中,每个帧图像具有相同的采样频率。通过上述方式,能够按照设定好的采用频率对视频文件进行解码,由此得到相应的图像帧序列,进而便于进行后续的处理,从而提升方案的可行性和可操作性。
可选地,在上述图8所对应的实施例的基础上,本申请实施例提供的视频分类装置30的另一实施例中,
所述获取模块301,具体用于通过所述图像分类网络模型获取第t帧图像所对应的外观信息特征,其中,所述t大于或等于1,且小于或等于所述T的整数;
当获取到所述T帧图像中每帧图像所对应的外观信息特征时,根据所述T个外观信息特征生成所述外观信息特征序列。
其次,本申请实施例中,提供了一种通过图像分类网络模型获取外观信息特征序列的方法,即视频分类装置先通过图像分类网络模型获取第t帧图像所对应的外观信息特征,当获取到T帧图像中每帧图像所对应的外观信息特征时,根据视频分类装置T个外观信息特征生成外观信息特征序列。通过上述方式,可以直接利用图像分类网络模型输出视频文件的外观信息特征序列,不需要以人工提取特征序列,一方面可以提升特征预测的准确度,另一方面节省了人工成本,还能够提升特征提取的效率。
可选地,在上述图8所对应的实施例的基础上,本申请实施例提供的视频分类装置30的另一实施例中,
所述获取模块301,具体用于获取第i个步骤所对应的第t个外观信息特征,其中,所述i为大于或等于1的整数,所述t大于或等于1,且小于或等于所述T的整数;
获取第(i-1)个步骤所对应的第(t+1)个运动信息特征以及第(t-1)个运动信息特征;
通过所述运动预测网络模型,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定所述第i个步骤所对应的第t个运动信息特征;
当获取到所述T个外观信息特征中每个外观信息特征所对应的运动信息特征时,根据所述T个运动信息特征生成所述运动信息特征序列。
其次,本申请实施例中,提供了一种通过运动预测网络模型获取外观信息特征序列所对应的运动信息特征序列的方法,即视频分类装置先获取第i个步骤所对应的第t个外观信息特征,然后获取第(i-1)个步骤所对应的第(t+1)个运动信息特征以及第(t-1)个运动信息特征,再通过运动预测网络模型,根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定第i个步骤所对应的第t个运动信息特征,当获取到T个外观信息特征中每个外观信息特征所对应的运动信息特征时,根据T个运动信息特征生成运动信息特征序列。通过上述方式,通过运动预测网络模型能够直接获取到运动信息特征序列,进而自动对视频文件进行分类,从而完成对于视频内容的识别,由此大幅减少视频内容筛查人员的工作量。此外对于视频推荐方面的应用,可以根据视频类别进行用户个性化推荐,从而提升用户体验和丰富产品内容。
可选地,在上述图8所对应的实施例的基础上,本申请实施例提供的视频分类装置30的另一实施例中,
所述获取模块301,具体用于通过所述运动预测网络模型的更新门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量;
通过所述运动预测网络模型的输出门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量;
通过所述运动预测网络模型的隐藏层,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征、第(t-1)个运动信息特征、所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量,计算得到所述第i个步骤所对应的第t个隐藏层特征向量;
通过所述运动预测网络模型的最终输出层,根据所述第t个隐藏层特征向量、所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,计算得到所述第i个步骤所对应的第t个运动信息特征。
再次,本申请实施例中,提供了一种根据第t个外观信息特征、第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定第i个步骤所对应的第t个运动信息特征的方法。通过上述方式,在设计运动预测网络模型时主要分为四个部分,分别包括隐藏层、更新门、输出门以及最终的输出,由此,可以分别对各个部分进行计算,进而计算得到运动信息特征,从而保证方案的可行性和可操作性。
可选地,在上述图8所对应的实施例的基础上,本申请实施例提供的视频分类装置30的另一实施例中,
所述获取模块301,具体用于采用如下方式计算所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量:
其中,所述rt-1表示所述第i个步骤所对应的所述第(t-1)个更新门向量,所述t表示第t个时刻,所述rt+1表示所述第i个步骤所对应的所述第(t+1)个更新门向量,所述σ()表示线性整流函数,所述Wr表示第一参数矩阵,所述Ur,t-1表示所述第(t-1)个更新门向量所对应的第二参数矩阵,所述Ur,t+1表示所述第(t+1)个更新门向量所对应的第三参数矩阵,所述xt表示所述第t个外观信息特征,所述表示所述第(i-1)个步骤所对应的所述第(t-1)个运动信息特征,所述表示所述第(i-1)个步骤所对应的所述第(t+1)个运动信息特征;
采用如下方式计算所述第(t+1)个输出门向量以及所述第(t-1)个输出门向量:
其中,所述zt+1表示所述第i个步骤所对应的所述第(t+1)个输出门向量,所述zt-1表示所述第i个步骤所对应的所述第(t-1)个输出门向量,所述z表示预设输出门向量,所述表示所述第i个步骤所对应的第(t-1)个待处理输出门向量,表示所述第i个步骤所对应的第(t+1)个待处理输出门向量,所述softmax()表示归一化处理函数,所述Wz表示第四参数矩阵,所述Uz,t-1表示所述第(t-1)个输出门向量所对应的第五参数矩阵,所述Uz,t+1表示所述第(t+1)个输出门向量所对应的第六参数矩阵;
采用如下方式计算所述第t个隐藏层特征向量:
采用如下方式计算所述第t个运动信息特征:
进一步地,本申请实施例中,提供了计算特征向量的具体方式,包括计算第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量的方式,计算第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量的方式,计算第i个步骤所对应的第t个隐藏层特征向量的方式,以及计算得到第i个步骤所对应的第t个运动信息特征的方式。通过上述方式,利用递归计算的模式能够克服在计算运动信息特征时,不能同时接收前一时刻和后一时刻的运动信息特征的问题,因此,采用递归的方式进行运动信息特征的估计,可以保证方案的可行性和可操作性。
可选地,在上述图8所对应的实施例的基础上,本申请实施例提供的视频分类装置30的另一实施例中,
所述确定模块302,具体用于通过视频分类模型获取所述外观信息特征序列以及所述运动信息特征序列所对应的视频类别向量,其中,所述视频类别向量包括C个视频类别元素,所述C为大于1的整数;
从所述视频类别向量中确定至少一个目标视频类别元素;
根据所述至少一个目标视频类别元素生成所述待分类视频文件的所述视频分类结果。
更进一步地,本申请实施例中,提供了一种确定待分类视频文件视频分类结果的方法,即视频分类装置先通过视频分类模型获取外观信息特征序列以及运动信息特征序列所对应的视频类别向量,然后从视频类别向量中确定至少一个目标视频类别元素,最后根据至少一个目标视频类别元素生成待分类视频文件的视频分类结果。通过上述方式,能够根据视频分类模型输出的视频类别向量,确定该视频文件属于某一个类别的可能性,由此,保证视频文件分类的可靠性和准确度,对于有些视频文件可能不仅仅属于一个类型,本方案还可以针对视频分类模型输出的视频类别向量,为视频文件分配多个类型,由此提升方案的多样性。
下面对本申请中的模型训练装置进行详细描述,请参阅图9,图9为本申请实施例中模型训练装置一个实施例示意图,模型训练装置40包括:
获取模块401,用于获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
所述获取模块401,还用于获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
所述获取模块401,还用于根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
所述获取模块401,还用于通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
确定模块402,用于根据所述获取模块401获取的所述真实运动信息特征序列与所述获取模块获取的所述预测运动信息特征序列,确定模型参数;
训练模块403,用于采用所述确定模块402确定的所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型。
本实施例中,获取模块401获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图,所述获取模块401获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征,所述获取模块401根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数,所述获取模块401通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征,确定模块402根据所述获取模块401获取的所述真实运动信息特征序列与所述获取模块获取的所述预测运动信息特征序列,确定模型参数,训练模块403采用所述确定模块402确定的所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型。
本申请实施例中,提供了一种模型训练装置,即该模型训练装置首先获取待训练视频文件所对应的光流图序列,然后获取待训练视频文件所对应的待训练外观信息特征序列,待训练外观信息特征序列包括多个待训练外观信息特征,模型训练装置根据待训练视频文件所对应的光流图序列,获取真实运动信息特征序列,再通过待训练运动预测网络模型获取待训练外观信息特征序列所对应的预测运动信息特征序列,其中,预测运动信息特征序列包括T个预测运动信息特征,根据真实运动信息特征序列与预测运动信息特征序列,确定模型参数,最后模型训练装置可以采用模型参数对待训练运动预测网络模型进行训练,得到运动预测网络模型。通过上述方式,在模型训练的过程中使用视频文件的光流图作为训练对象,从而使得训练得到的运动预测网络模型具有隐式获取视频文件中光流图的功能,在实际应用中,通过运动预测网络模型就能够直接输出运动信息特征,不需要再特意计算出光流图,从而大幅度地减少计算量和穿存储资源。
可选地,在上述图9所对应的实施例的基础上,本申请实施例提供的模型训练装置40的另一实施例中,
所述确定模块402,具体用于采用损失函数对所述真实运动信息特征序列与所述预测运动信息特征序列进行计算,得到目标损失结果;
根据所述目标损失结果确定所述模型参数。
其次,本申请实施例中,提供了一种根据真实运动信息特征序列与预测运动信息特征序列确定模型参数的方法,即模型训练装置先采用损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到目标损失结果,然后根据目标损失结果确定模型参数。通过上述方式,能够采用合适的损失函数计算得到损失结果,基于损失结果的最小值计算得到模型参数,该模型参数能够有效地训练得到机器学习模型,从而提升模型训练的可靠性和准确度。
可选地,在上述图9所对应的实施例的基础上,本申请实施例提供的模型训练装置40的另一实施例中,
所述确定模块402,具体用于采用如下方式计算所述目标损失结果:
其中,所述LMSE表示所述目标损失结果,所述T表示所述真实运动信息特征序列中的真实运动信息特征个数,所述表示所述真实运动信息特征序列中第t个真实运动信息特征,所述St表示所述预测运动信息特征序列中第t个预测运动信息特征,所述t为大于或等于1,且小于或等于所述T的整数。
再次,本申请实施例中,提供了一种计算目标损失结果的具体方式,即利用MSE损失函数对真实运动信息特征序列与预测运动信息特征序列进行计算,得到目标损失结果。通过上述方式,采用MSE损失函数进行计算能够降低计算的复杂度,即便使用固定的学习率也可以有效收敛。MSE损失函数的梯度随损失增大而增大,而损失趋于0时则会减小,这使得在训练结束时,使用MSE损失函数的结果会更精确。
本申请实施例还提供了另一种视频分类装置,如图10所示,为了便于说明,仅示出了与本申请实施例相关的部分,具体技术细节未揭示的,请参照本申请实施例方法部分。该终端设备可以为包括手机、平板电脑、个人数字助理(personal digital assistant,PDA)、销售终端设备(point of sales,POS)、车载电脑等任意终端设备设备,以终端设备为手机为例:
图10示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图10,手机包括:射频(radio frequency,RF)电路510、存储器520、输入单元530、显示单元540、传感器550、音频电路560、无线保真(wireless fidelity,WiFi)模块570、处理器580、以及电源590等部件。本领域技术人员可以理解,图10中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图10对手机的各个构成部件进行具体的介绍:
RF电路510可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器580处理;另外,将设计上行的数据发送给基站。通常,RF电路510包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(low noiseamplifier,LNA)、双工器等。此外,RF电路510还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(globalsystem of mobile communication,GSM)、通用分组无线服务(general packet radioservice,GPRS)、码分多址(code division multiple access,CDMA)、宽带码分多址(wideband code division multiple access,WCDMA)、长期演进(long term evolution,LTE)、电子邮件、短消息服务(short messaging service,SMS)等。
存储器520可用于存储软件程序以及模块,处理器580通过运行存储在存储器520的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器520可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元530可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元530可包括触控面板531以及其他输入设备532。触控面板531,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板531上或在触控面板531附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板531可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器580,并能接收处理器580发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板531。除了触控面板531,输入单元530还可以包括其他输入设备532。具体地,其他输入设备532可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元540可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元540可包括显示面板541,可选的,可以采用液晶显示器(liquid crystaldisplay,LCD)、有机发光二极管(organic light-emitting diode,OLED)等形式来配置显示面板541。进一步的,触控面板531可覆盖显示面板541,当触控面板531检测到在其上或附近的触摸操作后,传送给处理器580以确定触摸事件的类型,随后处理器580根据触摸事件的类型在显示面板541上提供相应的视觉输出。虽然在图10中,触控面板531与显示面板541是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板531与显示面板541集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器550,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板541的亮度,接近传感器可在手机移动到耳边时,关闭显示面板541和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路560、扬声器561,传声器562可提供用户与手机之间的音频接口。音频电路560可将接收到的音频数据转换后的电信号,传输到扬声器561,由扬声器561转换为声音信号输出;另一方面,传声器562将收集的声音信号转换为电信号,由音频电路560接收后转换为音频数据,再将音频数据输出处理器580处理后,经RF电路510以发送给比如另一手机,或者将音频数据输出至存储器520以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块570可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图10示出了WiFi模块570,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器580是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器520内的软件程序和/或模块,以及调用存储在存储器520内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器580可包括一个或多个处理单元;可选的,处理器580可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器580中。
手机还包括给各个部件供电的电源590(比如电池),可选的,电源可以通过电源管理系统与处理器580逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本申请实施例中,该终端设备所包括的处理器580还具有以下功能:
获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
根据所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果。
图11是本申请实施例提供的一种服务器结构示意图,该服务器600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processingunits,CPU)622(例如,一个或一个以上处理器)和存储器632,一个或一个以上存储应用程序642或数据644的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器632和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器622可以设置为与存储介质630通信,在服务器600上执行存储介质630中的一系列指令操作。
服务器600还可以包括一个或一个以上电源626,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口658,和/或,一个或一个以上操作系统641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于该图11所示的服务器结构。
在本申请实施例中,该服务器所包括的CPU 622还具有以下功能:
获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
根据所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果。
在本申请实施例中,该服务器所包括的CPU 622还具有以下功能:
获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
根据所述真实运动信息特征序列与所述预测运动信息特征序列,确定模型参数;
采用所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (13)
1.一种视频分类的方法,其特征在于,包括:
获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
根据所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果,包括:通过视频分类模型获取所述外观信息特征序列以及所述运动信息特征序列所对应的视频类别向量,其中,所述视频类别向量包括C个视频类别元素,所述C为大于1的整数;从所述视频类别向量中确定至少一个目标视频类别元素;根据所述至少一个目标视频类别元素生成所述待分类视频文件的所述视频分类结果。
2.根据权利要求1所述的方法,其特征在于,所述获取待分类视频文件所对应的图像帧序列,包括:
获取所述待分类视频文件;
对所述待分类视频文件进行解码处理,得到所述图像帧序列,其中,每个帧图像具有相同的采样频率。
3.根据权利要求1所述的方法,其特征在于,所述通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,包括:
通过所述图像分类网络模型获取第t帧图像所对应的外观信息特征,其中,所述t大于或等于1,且小于或等于所述T的整数;
当获取到所述T帧图像中每帧图像所对应的外观信息特征时,根据所述T个外观信息特征生成所述外观信息特征序列。
4.根据权利要求1所述的方法,其特征在于,所述通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,包括:
获取第i个步骤所对应的第t个外观信息特征,其中,所述i为大于或等于1的整数,所述t大于或等于1,且小于或等于所述T的整数;
获取第(i-1)个步骤所对应的第(t+1)个运动信息特征以及第(t-1)个运动信息特征;
通过所述运动预测网络模型,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定所述第i个步骤所对应的第t个运动信息特征;
当获取到所述T个外观信息特征中每个外观信息特征所对应的运动信息特征时,根据所述T个运动信息特征生成所述运动信息特征序列。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,确定所述第i个步骤所对应的第t个运动信息特征,包括:
通过所述运动预测网络模型的更新门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量;
通过所述运动预测网络模型的输出门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量;
通过所述运动预测网络模型的隐藏层,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征、第(t-1)个运动信息特征、所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量,计算得到所述第i个步骤所对应的第t个隐藏层特征向量;
通过所述运动预测网络模型的最终输出层,根据所述第t个隐藏层特征向量、所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,计算得到所述第i个步骤所对应的第t个运动信息特征。
6.根据权利要求5所述的方法,其特征在于,所述通过所述运动预测网络模型的更新门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个更新门向量以及第(t-1)个更新门向量,包括:
采用如下方式计算所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量:
其中,所述rt-1表示所述第i个步骤所对应的所述第(t-1)个更新门向量,所述t表示第t个时刻,所述rt+1表示所述第i个步骤所对应的所述第(t+1)个更新门向量,所述σ()表示线性整流函数,所述Wr表示第一参数矩阵,所述Ur,t-1表示所述第(t-1)个更新门向量所对应的第二参数矩阵,所述Ur,t+1表示所述第(t+1)个更新门向量所对应的第三参数矩阵,所述xt表示所述第t个外观信息特征,所述表示所述第(i-1)个步骤所对应的所述第(t-1)个运动信息特征,所述表示所述第(i-1)个步骤所对应的所述第(t+1)个运动信息特征;
所述通过所述运动预测网络模型的输出门,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征以及第(t-1)个运动信息特征,计算得到所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,包括:
采用如下方式计算所述第(t+1)个输出门向量以及所述第(t-1)个输出门向量:
其中,所述zt+1表示所述第i个步骤所对应的所述第(t+1)个输出门向量,所述zt-1表示所述第i个步骤所对应的所述第(t-1)个输出门向量,所述z表示预设输出门向量,所述表示所述第i个步骤所对应的第(t-1)个待处理输出门向量,表示所述第i个步骤所对应的第(t+1)个待处理输出门向量,所述softmax()表示归一化处理函数,所述Wz表示第四参数矩阵,所述Uz,t-1表示所述第(t-1)个输出门向量所对应的第五参数矩阵,所述Uz,t+1表示所述第(t+1)个输出门向量所对应的第六参数矩阵;
所述通过所述运动预测网络模型的隐藏层,根据所述第t个外观信息特征、所述第(t+1)个运动信息特征、第(t-1)个运动信息特征、所述第(t+1)个更新门向量以及所述第(t-1)个更新门向量,计算得到所述第i个步骤所对应的第t个隐藏层特征向量,包括:
采用如下方式计算所述第t个隐藏层特征向量:
所述通过所述运动预测网络模型的最终输出层,根据所述第t个隐藏层特征向量、所述第i个步骤所对应的第(t+1)个输出门向量以及第(t-1)个输出门向量,计算得到所述第i个步骤所对应的第t个运动信息特征,包括:
采用如下方式计算所述第t个运动信息特征:
7.一种模型训练的方法,其特征在于,包括:
获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
根据所述真实运动信息特征序列与所述预测运动信息特征序列,确定模型参数,包括:采用损失函数对所述真实运动信息特征序列与所述预测运动信息特征序列进行计算,得到目标损失结果;根据所述目标损失结果确定所述模型参数;
采用所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型。
9.一种视频分类装置,其特征在于,包括:
获取模块,用于获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
所述获取模块,还用于通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
所述获取模块,还用于通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
确定模块,用于根据所述获取模块获取的所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果;
所述确定模块,具体用于通过视频分类模型获取所述外观信息特征序列以及所述运动信息特征序列所对应的视频类别向量,其中,所述视频类别向量包括C个视频类别元素,所述C为大于1的整数;从所述视频类别向量中确定至少一个目标视频类别元素;根据所述至少一个目标视频类别元素生成所述待分类视频文件的所述视频分类结果。
10.一种模型训练装置,其特征在于,包括:
获取模块,用于获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
所述获取模块,还用于获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
所述获取模块,还用于根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
所述获取模块,还用于通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
确定模块,用于根据所述获取模块获取的所述真实运动信息特征序列与所述获取模块获取的所述预测运动信息特征序列,确定模型参数;
训练模块,用于采用所述确定模块确定的所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型;
所述确定模块,具体用于采用损失函数对所述真实运动信息特征序列与所述预测运动信息特征序列进行计算,得到目标损失结果;根据所述目标损失结果确定所述模型参数。
11.一种服务器,其特征在于,包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
获取待分类视频文件所对应的图像帧序列,其中,所述图像帧序列中包括T帧图像,所述T为大于1的整数;
通过图像分类网络模型获取所述图像帧序列所对应的外观信息特征序列,其中,所述外观信息特征序列中包括T个外观信息特征,所述外观信息特征与所述图像帧具有对应关系;
通过运动预测网络模型获取所述外观信息特征序列所对应的运动信息特征序列,其中,所述运动信息特征序列包括T个运动信息特征,所述运动信息特征与所述外观信息特征具有对应关系,所述运动预测网络模型用于预测所述外观信息特征所对应的所述运动信息特征;
根据所述外观信息特征序列以及所述运动信息特征序列确定所述待分类视频文件的视频分类结果,包括:通过视频分类模型获取所述外观信息特征序列以及所述运动信息特征序列所对应的视频类别向量,其中,所述视频类别向量包括C个视频类别元素,所述C为大于1的整数;从所述视频类别向量中确定至少一个目标视频类别元素;根据所述至少一个目标视频类别元素生成所述待分类视频文件的所述视频分类结果;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
12.一种服务器,其特征在于,包括:存储器、收发器、处理器以及总线系统;
其中,所述存储器用于存储程序;
所述处理器用于执行所述存储器中的程序,包括如下步骤:
获取待训练视频文件所对应的光流图序列,其中,所述光流图序列中包括多个光流图;
获取所述待训练视频文件所对应的待训练外观信息特征序列,其中,所述待训练外观信息特征序列包括多个待训练外观信息特征;
根据所述待训练视频文件所对应的所述光流图序列,获取真实运动信息特征序列,其中,所述真实运动信息特征序列包括T个真实运动信息特征,所述T为大于1的整数;
通过待训练运动预测网络模型获取所述待训练外观信息特征序列所对应的预测运动信息特征序列,其中,所述预测运动信息特征序列包括T个预测运动信息特征;
根据所述真实运动信息特征序列与所述预测运动信息特征序列,确定模型参数,包括:采用损失函数对所述真实运动信息特征序列与所述预测运动信息特征序列进行计算,得到目标损失结果;根据所述目标损失结果确定所述模型参数;
采用所述模型参数对所述待训练运动预测网络模型进行训练,得到运动预测网络模型;
所述总线系统用于连接所述存储器以及所述处理器,以使所述存储器以及所述处理器进行通信。
13.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1至6中任一项所述的方法,或执行如权利要求7至8中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910168236.9A CN109919087B (zh) | 2019-03-06 | 2019-03-06 | 一种视频分类的方法、模型训练的方法及装置 |
PCT/CN2020/077809 WO2020177722A1 (zh) | 2019-03-06 | 2020-03-04 | 一种视频分类的方法、模型训练的方法、设备及存储介质 |
EP20767282.5A EP3937073A4 (en) | 2019-03-06 | 2020-03-04 | VIDEO CLASSIFICATION METHOD, MODEL FORMING METHOD AND DEVICE AND STORAGE MEDIA |
US17/230,778 US11941883B2 (en) | 2019-03-06 | 2021-04-14 | Video classification method, model training method, device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910168236.9A CN109919087B (zh) | 2019-03-06 | 2019-03-06 | 一种视频分类的方法、模型训练的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109919087A CN109919087A (zh) | 2019-06-21 |
CN109919087B true CN109919087B (zh) | 2022-03-08 |
Family
ID=66963602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910168236.9A Active CN109919087B (zh) | 2019-03-06 | 2019-03-06 | 一种视频分类的方法、模型训练的方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11941883B2 (zh) |
EP (1) | EP3937073A4 (zh) |
CN (1) | CN109919087B (zh) |
WO (1) | WO2020177722A1 (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109919087B (zh) * | 2019-03-06 | 2022-03-08 | 腾讯科技(深圳)有限公司 | 一种视频分类的方法、模型训练的方法及装置 |
CN110457524B (zh) * | 2019-07-12 | 2022-05-31 | 北京奇艺世纪科技有限公司 | 模型生成方法、视频分类方法及装置 |
CN110688528B (zh) * | 2019-09-26 | 2023-04-07 | 抖音视界有限公司 | 生成视频的分类信息的方法、装置、电子设备和介质 |
CN110855669B (zh) * | 2019-11-14 | 2020-10-09 | 北京理工大学 | 基于神经网络适用于加密流量的视频QoE指标预测方法 |
CN110991365B (zh) * | 2019-12-09 | 2024-02-20 | 中国科学院深圳先进技术研究院 | 一种视频运动信息获取方法、系统及电子设备 |
CN111160407B (zh) * | 2019-12-10 | 2023-02-07 | 重庆特斯联智慧科技股份有限公司 | 一种深度学习目标检测方法及系统 |
CN111259781B (zh) * | 2020-01-14 | 2023-07-28 | 网易(杭州)网络有限公司 | 视频分类方法及装置、存储介质和电子设备 |
CN111225236B (zh) * | 2020-01-20 | 2022-03-25 | 北京百度网讯科技有限公司 | 生成视频封面的方法、装置、电子设备以及计算机可读存储介质 |
CN111339364B (zh) * | 2020-02-28 | 2023-09-29 | 网易(杭州)网络有限公司 | 视频分类方法、介质、装置和计算设备 |
CN112016521A (zh) * | 2020-09-15 | 2020-12-01 | 北京百度网讯科技有限公司 | 视频处理的方法及装置 |
CN112330711B (zh) * | 2020-11-26 | 2023-12-05 | 北京奇艺世纪科技有限公司 | 模型生成方法、信息提取方法、装置及电子设备 |
CN114648712B (zh) * | 2020-12-18 | 2023-07-28 | 抖音视界有限公司 | 视频分类方法、装置、电子设备及计算机可读存储介质 |
CN113657230B (zh) * | 2021-08-06 | 2024-04-23 | 北京百度网讯科技有限公司 | 训练新闻视频识别模型的方法、检测视频的方法及其装置 |
US20230162372A1 (en) * | 2021-11-24 | 2023-05-25 | Microsoft Technology Licensing, Llc | Feature Prediction for Efficient Video Processing |
US20240054783A1 (en) * | 2022-08-15 | 2024-02-15 | Nec Laboratories America, Inc. | Cross-domain few-shot video classification with optical-flow semantics |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426883A (zh) * | 2015-12-25 | 2016-03-23 | 中国科学院深圳先进技术研究院 | 视频分类快速识别的方法及装置 |
US9977968B2 (en) * | 2016-03-04 | 2018-05-22 | Xerox Corporation | System and method for relevance estimation in summarization of videos of multi-step activities |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4849303B2 (ja) * | 2005-08-25 | 2012-01-11 | 株式会社国際電気通信基礎技術研究所 | 行動指針決定装置及びコンピュータプログラム |
CN108875456B (zh) * | 2017-05-12 | 2022-02-18 | 北京旷视科技有限公司 | 目标检测方法、目标检测装置和计算机可读存储介质 |
US10275691B2 (en) * | 2017-08-22 | 2019-04-30 | Northrop Grumman Systems Corporation | Adaptive real-time detection and examination network (ARDEN) |
CN108960031A (zh) * | 2018-03-29 | 2018-12-07 | 中国科学院软件研究所 | 一种基于分层动力解析与编码的视频动作分类系统及方法 |
CA3066383A1 (en) * | 2019-01-03 | 2020-07-03 | James Harvey Elder | System and method for automated video processing of an input video signal using tracking of a single movable bilaterally-targeted game-object |
CN109919087B (zh) * | 2019-03-06 | 2022-03-08 | 腾讯科技(深圳)有限公司 | 一种视频分类的方法、模型训练的方法及装置 |
US10776695B1 (en) * | 2019-03-08 | 2020-09-15 | Ai Concepts, Llc | Intelligent recognition and alert methods and systems |
US20210192756A1 (en) * | 2019-12-18 | 2021-06-24 | Qualcomm Incorporated | Partitioning and tracking object detection |
US11024043B1 (en) * | 2020-03-27 | 2021-06-01 | Abraham Othman | System and method for visually tracking persons and imputing demographic and sentiment data |
JP2023540841A (ja) * | 2020-08-21 | 2023-09-27 | リアルタイムテック カンパニー,リミテッド | ディープラーニングベースのリアルタイム工程監視システム及びその方法 |
EP4239591A1 (en) * | 2022-03-04 | 2023-09-06 | Samsung Electronics Co., Ltd. | Method and apparatus for video action classification |
-
2019
- 2019-03-06 CN CN201910168236.9A patent/CN109919087B/zh active Active
-
2020
- 2020-03-04 WO PCT/CN2020/077809 patent/WO2020177722A1/zh unknown
- 2020-03-04 EP EP20767282.5A patent/EP3937073A4/en active Pending
-
2021
- 2021-04-14 US US17/230,778 patent/US11941883B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105426883A (zh) * | 2015-12-25 | 2016-03-23 | 中国科学院深圳先进技术研究院 | 视频分类快速识别的方法及装置 |
US9977968B2 (en) * | 2016-03-04 | 2018-05-22 | Xerox Corporation | System and method for relevance estimation in summarization of videos of multi-step activities |
Also Published As
Publication number | Publication date |
---|---|
CN109919087A (zh) | 2019-06-21 |
EP3937073A4 (en) | 2022-04-27 |
EP3937073A1 (en) | 2022-01-12 |
US20210232825A1 (en) | 2021-07-29 |
WO2020177722A1 (zh) | 2020-09-10 |
US11941883B2 (en) | 2024-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109919087B (zh) | 一种视频分类的方法、模型训练的方法及装置 | |
CN109359592B (zh) | 视频帧的处理方法、装置、电子设备及存储介质 | |
CN109951654B (zh) | 一种视频合成的方法、模型训练的方法以及相关装置 | |
CN109784424B (zh) | 一种图像分类模型训练的方法、图像处理的方法及装置 | |
CN109543714B (zh) | 数据特征的获取方法、装置、电子设备及存储介质 | |
WO2020177673A1 (zh) | 一种视频序列选择的方法、计算机设备及存储介质 | |
CN111582116B (zh) | 一种视频抹除痕迹检测方法、装置、设备和存储介质 | |
CN108235058B (zh) | 视频质量处理方法、存储介质和终端 | |
US20210142069A1 (en) | Video retrieval method, and method and apparatus for generating video retrieval mapping relationship | |
CN111612093A (zh) | 一种视频分类方法、视频分类装置、电子设备及存储介质 | |
CN112990390B (zh) | 一种图像识别模型的训练方法、图像识别的方法及装置 | |
CN113284142B (zh) | 图像检测方法、装置、计算机可读存储介质及计算机设备 | |
CN111737520B (zh) | 一种视频分类方法、视频分类装置、电子设备及存储介质 | |
US11641498B2 (en) | Method, systems and devices for providing adjusted video content according to viewing distance | |
CN113723378B (zh) | 一种模型训练的方法、装置、计算机设备和存储介质 | |
WO2020221121A1 (zh) | 视频查询方法、装置、设备及存储介质 | |
CN110309357B (zh) | 应用数据推荐的方法、模型训练的方法、装置及存储介质 | |
CN110248195B (zh) | 用于输出信息的方法和装置 | |
CN115170400A (zh) | 一种视频修复的方法、相关装置、设备以及存储介质 | |
WO2023010705A1 (zh) | 数据处理方法、移动终端及存储介质 | |
CN112270238A (zh) | 一种视频内容识别方法和相关装置 | |
US20170171462A1 (en) | Image Collection Method, Information Push Method and Electronic Device, and Mobile Phone | |
CN109495762B (zh) | 数据流处理方法、装置及存储介质、终端设备 | |
CN107391661B (zh) | 推荐词显示方法及装置 | |
CN116453005A (zh) | 一种视频封面的提取方法以及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |