CN109376696A - 视频动作分类的方法、装置、计算机设备和存储介质 - Google Patents
视频动作分类的方法、装置、计算机设备和存储介质 Download PDFInfo
- Publication number
- CN109376696A CN109376696A CN201811437221.XA CN201811437221A CN109376696A CN 109376696 A CN109376696 A CN 109376696A CN 201811437221 A CN201811437221 A CN 201811437221A CN 109376696 A CN109376696 A CN 109376696A
- Authority
- CN
- China
- Prior art keywords
- video frames
- video
- optical flow
- information corresponding
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000003287 optical effect Effects 0.000 claims description 227
- 238000013145 classification model Methods 0.000 claims description 94
- 238000006467 substitution reaction Methods 0.000 claims description 60
- 230000001537 neural effect Effects 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 claims 2
- 238000005457 optimization Methods 0.000 abstract description 3
- 238000010801 machine learning Methods 0.000 abstract description 2
- 210000005036 nerve Anatomy 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 230000004927 fusion Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2134—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开是关于一种视频动作分类的方法、装置、计算机设备和存储介质,属于机器学习模型技术领域。所述方法包括:获取待分类视频,确定待分类视频中的多个视频帧;将多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到多个视频帧对应的光流特征信息;将多个视频帧输入到训练后的优化视频动作分类模型中的三维卷积神经模块中,得到多个视频帧对应的空间特征信息;基于光流特征信息和空间特征信息,确定待分类视频对应的分类类别信息。采用本公开,可以将待分类视频的多个视频帧直接作为模型中的光流替代模块的输入,光流替代模块可以直接提取待分类视频的多个视频帧对应的光流特征信息,进一步提高了分类处理的效率。
Description
技术领域
本公开是关于机器学习模型技术领域,尤其是关于一种视频动作分类的方法、装置、计算机设备和存储介质。
背景技术
随着社会的发展,越来越多的用户喜欢利用碎片时间观看或者拍摄短视频。当任一用户将拍摄的短视频上传到短视频平台时,短视频平台中的相关人员可以查看短视频,并根据主观意念对短视频中的对象的动作进行分类,如跳舞、爬树、喝水等。接着,相关人员可以根据分类结果为短视频添加对应的标签。
在实现本公开的过程中,发明人发现至少存在以下问题:
由于短视频平台接收到的短视频的数量巨大,如果通过人工的方式为每一个短视频中的对象的动作进行分类,则会导致分类操作的效率极低。
发明内容
为克服相关技术中存在的问题,本公开提供一种视频动作分类的方法和装置:
根据本公开实施例的第一方面,提供一种视频动作分类的方法,所述方法包括:
获取待分类视频,确定待分类视频中的多个视频帧;
将多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到多个视频帧对应的光流特征信息;
将多个视频帧输入到训练后的优化视频动作分类模型中的三维卷积神经模块中,得到多个视频帧对应的空间特征信息;
基于光流特征信息和空间特征信息,确定待分类视频对应的分类类别信息。
可选地,方法还包括:
基于训练样本,对视频动作分类模型进行训练,其中,训练样本包括多组视频帧以及每组视频帧对应的标准分类类别信息,视频动作分类模型包括三维卷积神经模块和光流模块;
将多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息;
基于训练后的三维卷积神经模块、预设的光流替代模块和预设的分类器模块,建立优化视频动作分类模型;
基于多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
可选地,基于多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对优化视频动作分类模型进行训练,包括:
将多组视频帧分别输入到光流替代模块,得到每组视频帧对应的预测光流特征信息;
基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息;
将多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息;
将每组视频帧对应的预测光流特征信息和参考空间特征信息,输入到分类器模块,确定每组视频帧对应的预测分类类别信息;
基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息;
基于每组视频帧对应的光流损失信息和分类损失信息,对光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对分类器模块中的权重参数进行调整。
可选地,基于每组视频帧对应的光流损失信息和分类损失信息,对光流替代模块中的权重参数进行调整,包括:
基于每组视频帧对应的光流损失信息、分类损失信息和预设的调整比例系数,对光流替代模块中的权重参数进行调整,其中,调整比例系数表示基于光流损失信息对光流替代模块中的权重参数进行调整的过程中的调整幅度。
可选地,基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息,包括:
确定每组视频帧对应的参考光流特征信息和预测光流特征信息之间的欧氏距离,作为每组视频帧对应的光流损失信息。
根据本公开实施例的第二方面,提供一种视频动作分类的装置,所述装置包括:
第一确定单元,被配置为获取待分类视频,确定所述待分类视频中的多个视频帧;
第一输入单元,被配置为将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
第二确定单元,被配置为基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
可选地,所述的装置还包括:
第一训练单元,被配置为基于训练样本,对视频动作分类模型进行训练,其中,所述训练样本包括多组视频帧以及每组视频帧对应的标准分类类别信息,所述视频动作分类模型包括三维卷积神经模块和光流模块;
第二输入单元,被配置为将所述多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息;
建立单元,被配置为基于训练后的三维卷积神经模块、预设的光流替代模块和预设的分类器模块,建立优化视频动作分类模型;
第二训练单元,被配置为基于所述多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对所述优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
可选地,所述第二训练单元被配置为:
将所述多组视频帧分别输入到所述光流替代模块,得到每组视频帧对应的预测光流特征信息;
基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息;
将所述多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息;
将每组视频帧对应的预测光流特征信息和参考空间特征信息,输入到所述分类器模块,确定每组视频帧对应的预测分类类别信息;
基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息;
基于每组视频帧对应的光流损失信息和分类损失信息,对所述光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对所述分类器模块中的权重参数进行调整。
可选地,所述第二训练单元被配置为:
基于每组视频帧对应的光流损失信息、分类损失信息和预设的调整比例系数,对所述光流替代模块中的权重参数进行调整,其中,所述调整比例系数表示基于光流损失信息对所述光流替代模块中的权重参数进行调整的过程中的调整幅度。
可选地,所述第二训练单元被配置为:
确定每组视频帧对应的参考光流特征信息和预测光流特征信息之间的欧氏距离,作为每组视频帧对应的光流损失信息。
根据本公开实施例的第三方面,提供一种计算机设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取待分类视频,确定所述待分类视频中的多个视频帧;
将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;
将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行一种视频动作分类的方法,所述方法包括:
获取待分类视频,确定所述待分类视频中的多个视频帧;
将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;
将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
根据本公开实施例的第五方面,提供一种计算机程序产品,当所述计算机程序产品由计算机设备的处理器执行时,使得所述计算机设备能够执行一种视频动作分类的方法,所述方法包括:
获取待分类视频,确定所述待分类视频中的多个视频帧;
将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;
将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
本公开的实施例提供的技术方案可以包括以下有益效果:
通过本公开实施例提供的方法,可以将待分类视频的多个视频帧直接输入到训练后的优化视频动作分类模型中,训练后的优化视频动作分类模型可以自动对待分类视频进行分类处理,并最终得到待分类视频对应的分类类别信息,提高了分类处理的效率。在训练后的优化视频动作分类模型对待分类视频进行分类处理的过程中,无需再预先基于待分类视频的多个视频帧确定多个视频帧对应的光流图,可以将待分类视频的多个视频帧直接作为模型中的光流替代模块的输入,光流替代模块可以直接提取待分类视频的多个视频帧对应的光流特征信息,基于光流特征信息确定待分类视频对应的分类类别信息,进一步提高了分类处理的效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种视频动作分类的方法的流程图;
图2是根据一示例性实施例示出的一种视频动作分类的方法的流程图;
图3是根据一示例性实施例示出的一种训练优化视频动作分类模型的方法的流程图;
图4是根据一示例性实施例示出的一种训练优化视频动作分类模型的方法的流程图;
图5是根据一示例性实施例示出的一种视频动作分类的装置的框图;
图6是根据一示例性实施例示出的一种计算机设备的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
随着社会的发展,越来越多的用户喜欢利用碎片时间观看或者拍摄短视频。当任一用户将拍摄的短视频上传到短视频平台时,短视频平台需要对短视频中的对象的动作进行分类,如跳舞、爬树、喝水等。接着可以根据分类结果为短视频添加对应的标签。在本公开实施例中,提供可以自动为短视频进行分类处理的方法。
图1是根据一示例性实施例示出的一种视频动作分类的方法的流程图,如图1所示,视频动作分类的方法用于服务器中,包括以下步骤。
在步骤S110中,获取待分类视频,确定待分类视频中的多个视频帧。
在实施中,短视频平台的服务器可以接收到用户上传的大量的短视频,任一短视频都可以作为待分类视频,因此服务器可以获取到待分类视频。由于一条待分类视频是由许多个视频帧构成的,而无需将一条待分类视频中的所有的视频帧都用于后续步骤,因此服务器可以在一条待分类视频中的所有的视频帧中,提取预设数目的多个视频帧。可选地,服务器可以在一条待分类视频中的所有的视频帧中,随机提取预设数目的多个视频帧。
在步骤S120中,将多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到多个视频帧对应的光流特征信息。
在实施中,可以预先训练优化视频动作分类模型,优化视频动作分类模型用于对待分类视频进行分类处理。优化视频动作分类模型包括多个功能模块,每个功能模块都有不同的作用。可选地,优化视频动作分类模型可以包括光流替代模块、三维卷积神经模块以及第一分类器模块。
光流替代模块用于提取多个视频帧对应的光流特征信息。如图2所示,当服务器将多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中时,光流替代模块可以输出多个视频帧对应的光流特征信息。其中,光流特征信息表示多个视频帧中包括的对象对应的运动矢量,即对象在多个视频帧中的最先拍摄的视频帧中的位置上是朝着什么样的方向运动至最后拍摄的视频帧中的位置上的。
在步骤S130中,将多个视频帧输入到训练后的优化视频动作分类模型中的三维卷积神经模块中,得到多个视频帧对应的空间特征信息。
其中,三维卷积神经模块可以包括C3D(3Dimensions Convolution,三维卷积)模块。
在实施中,三维卷积神经模块用于提取多个视频帧对应的空间特征信息。如图2所示,当服务器将多个视频帧输入到训练后的优化视频动作分类模型中的三维卷积神经模块中时,三维卷积神经模块可以输出多个视频帧对应的空间特征信息。其中,空间特征信息表示多个视频帧中包括的对象在每个视频帧中的位置,空间特征信息可以由一组三维信息构成,三维信息中的二维可以表示对象在一个视频帧中的位置,最后一维可以表示该视频帧对应的拍摄时间点。
在步骤S140中,基于光流特征信息和空间特征信息,确定待分类视频对应的分类类别信息。
在实施中,在得到多个视频帧对应的光流特征信息和空间特征信息之后,服务器可以将光流特征信息和空间特征信息进行特征融合。可选地,可以通过CONCAT语句将光流特征信息和空间特征信息进行特征融合。接着将融合后的光流特征信息和空间特征信息,输入到第一分类器模块中,第一分类器模块可以输出光流特征信息和空间特征信息对应的分类类别信息,作为待分类视频对应的分类类别信息,实现了端到端的分类处理。
在一种可能的实现方式中,如图3所示,本公开实施例提供的方法还可以包括:
在步骤S310中,基于训练样本,对视频动作分类模型进行训练,其中,训练样本包括多组视频帧以及每组视频帧对应的标准分类类别信息,视频动作分类模型包括三维卷积神经模块和光流模块。
在步骤S320中,将多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息。
在步骤S330中,基于训练后的三维卷积神经模块、预设的光流替代模块和第一分类器模块,建立优化视频动作分类模型。
在步骤S340中,基于多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
在实施中,在使用训练后的优化视频动作分类模型对待分类视频进行分类处理之前,需要预先训练好优化视频动作分类模型。在本公开实施例中,训练优化视频动作分类模型的过程可以分为两个阶段。在第一个阶段,可以基于训练样本,对视频动作分类模型进行训练。在第二个阶段,可以将多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息,基于训练后的三维卷积神经模块、预设的光流替代模块和第一分类器模块,建立优化视频动作分类模型,基于多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
如图4所示,在第一个阶段,首先可以基于三维卷积神经模块、光流模块和第二分类器模块,建立视频动作分类模型。其中,三维卷积神经模块用于提取一组视频帧对应的空间特征信息,光流模块用于提取一组视频帧对应的光流特征信息,第二分类器模块用于基于一组视频帧对应的空间特征信息和光流特征信息,确定一组视频帧对应的预测分类类别信息。
接着可以将训练样本中的多组视频帧分别输入到三维卷积神经模块中,三维卷积神经模块可以提取每组视频帧对应的空间特征信息,同时可以不通过视频动作分类模型,预先基于多组视频帧,分别确定每组视频帧对应的光流图,将每组视频帧对应的光流图输入到光流模块中,光流模块可以输出每组视频帧对应的光流特征信息。然后可以将每组视频帧对应的空间特征信息和光流特征信息进行特征融合,将融合后的每组视频帧对应的空间特征信息和光流特征信息输入到第二分类器模块中,第二分类器模块可以输出每组视频帧对应的预测分类类别信息。
随后可以将训练样本中的每组视频帧对应的标准分类类别信息作为监督信息,确定每组视频帧对应的预测分类类别信息和标准分类类别信息之间的差值信息。接着可以基于每组视频帧对应的差值信息,对视频动作分类模型中的权重参数进行调整。随后可以重复执行上述过程,直到确定视频动作分类模型收敛,得到训练后的视频动作分类模型。其中,差值信息可以是交叉熵距离。交叉熵距离的计算公式可以见公式1。
其中,lossentropy为交叉熵距离,为预测分类类别信息,y为标准分类类别信息。
如图4所示,在第二个阶段,由于在第一阶段已经将视频动作分类模型训练好,视频动作分类模型中的光流模块也已训练好,此时可以认为训练后的光流模块可以准确提取每组视频帧对应的光流特征信息了。因此,可以将收敛后的光流模块输出的参考光流特征信息作为监督信息,添加到训练样本中,用于后续对其他模块的训练。
在检测到光流模块收敛时,可以冻结光流模块中的权重参数,不再继续对光流模块中的权重参数进行调整。然后可以将三维卷积神经模块、预设的光流替代模块和第一分类器模块,作为优化视频动作分类模型中的模块,对优化视频动作分类模型进行训练。可选地,可以继续对三维卷积神经模块进行训练,使得三维卷积神经模块输出的结果的精确度越来越高,同时还可以对光流替代模块进行训练,使得光流替代模块可以替代光流模块提取每组视频帧对应的光流特征信息。可选地,可以基于多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
在一种可能的实现方式中,步骤S340可以包括:将多组视频帧分别输入到光流替代模块,得到每组视频帧对应的预测光流特征信息;基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息;将多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息;将每组视频帧对应的预测光流特征信息和参考空间特征信息,输入到第一分类器模块,确定每组视频帧对应的预测分类类别信息;基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息;基于每组视频帧对应的光流损失信息和分类损失信息,对光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对第一分类器模块中的权重参数进行调整。
在实施中,可以直接将多组视频帧分别输入到光流替代模块中,无需预先在优化视频动作分类模型之外,单独基于多组视频帧,分别确定每组视频帧对应的光流图。光流替代模块可以直接将多组视频帧分别作为输入,而无需将光流图作为输入。当将多组视频帧分别输入到光流替代模块中时,光流替代模块可以输出每组视频帧对应的预测光流特征信息。
由于在第一阶段已经得到每组视频帧对应的参考光流特征信息,作为监督信息了,因此可以基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息。可选地,可以确定每组视频帧对应的参考光流特征信息和预测光流特征信息之间的欧氏距离,作为每组视频帧对应的光流损失信息。欧式距离的计算公式可以见公式2。
其中,lossflow为欧式距离,#feat为多组视频帧的组数,为第i组视频帧对应的预测光流特征信息,为第i组视频帧对应的参考光流特征信息。
同时还可以将多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息,将每组视频帧对应的预测光流特征信息和参考空间特征信息进行特征融合,将融合后的每组视频帧对应的预测光流特征信息和参考空间特征信息输入到第一分类器模块,确定每组视频帧对应的预测分类类别信息。
随后可以基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息。可选地,可以计算每组视频帧对应的标准分类类别信息和预测分类类别信息之间的交叉熵距离,作为每组视频帧对应的分类损失信息。最后可以基于每组视频帧对应的光流损失信息和分类损失信息,对光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对第一分类器模块中的权重参数进行调整。
在一种可能的实现方式中,基于每组视频帧对应的光流损失信息和分类损失信息,对光流替代模块中的权重参数进行调整的步骤可以包括:基于每组视频帧对应的光流损失信息、分类损失信息和预设的调整比例系数,对光流替代模块中的权重参数进行调整。
其中,调整比例系数表示基于光流损失信息对光流替代模块中的权重参数进行调整的过程中的调整幅度。
在实施中,由于光流替代模块中的权重参数受两方面的损失信息的影响,即每组视频帧对应的光流损失信息和分类损失信息,因此可以通过调整比例系数调整每组视频帧对应的光流损失信息和分类损失信息,对光流替代模块中的权重参数进行调整的过程中的调整幅度。光流损失信息和分类损失信息的计算公式可见公式3。
其中,为分类损失信息,λ为调整比例系数,lossflow为欧式距离,#feat为多组视频帧的组数,为第i组视频帧对应的预测光流特征信息,为第i组视频帧对应的参考光流特征信息。
可以通过公式3对光流替代模块中的权重参数进行调整,直到确定光流替代模块收敛,得到训练后的光流替代模块,此时可以认为优化视频动作分类模型已经训练好了,可以将光流模块对应的运行代码进行删除。
通过本公开实施例提供的方法,可以将待分类视频的多个视频帧直接输入到训练后的优化视频动作分类模型中,训练后的优化视频动作分类模型可以自动对待分类视频进行分类处理,并最终得到待分类视频对应的分类类别信息,提高了分类处理的效率。在训练后的优化视频动作分类模型对待分类视频进行分类处理的过程中,无需再预先基于待分类视频的多个视频帧确定多个视频帧对应的光流图,可以将待分类视频的多个视频帧直接作为模型中的光流替代模块的输入,光流替代模块可以直接提取待分类视频的多个视频帧对应的光流特征信息,基于光流特征信息确定待分类视频对应的分类类别信息,进一步提高了分类处理的效率。
图5是根据一示例性实施例示出的一种视频动作分类的装置框图。参照图5,该装置包括第一确定单元510,第一输入单元520和第二确定单元530。
第一确定单元510,被配置为获取待分类视频,确定所述待分类视频中的多个视频帧;
第一输入单元520,被配置为将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
第二确定单元530,被配置为基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
可选地,所述的装置还包括:
第一训练单元,被配置为基于训练样本,对视频动作分类模型进行训练,其中,所述训练样本包括多组视频帧以及每组视频帧对应的标准分类类别信息,所述视频动作分类模型包括三维卷积神经模块和光流模块;
第二输入单元,被配置为将所述多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息;
建立单元,被配置为基于训练后的三维卷积神经模块、预设的光流替代模块和预设的分类器模块,建立优化视频动作分类模型;
第二训练单元,被配置为基于所述多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对所述优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
可选地,所述第二训练单元被配置为:
将所述多组视频帧分别输入到所述光流替代模块,得到每组视频帧对应的预测光流特征信息;
基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息;
将所述多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息;
将每组视频帧对应的预测光流特征信息和参考空间特征信息,输入到所述分类器模块,确定每组视频帧对应的预测分类类别信息;
基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息;
基于每组视频帧对应的光流损失信息和分类损失信息,对所述光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对所述分类器模块中的权重参数进行调整。
可选地,所述第二训练单元被配置为:
基于每组视频帧对应的光流损失信息、分类损失信息和预设的调整比例系数,对所述光流替代模块中的权重参数进行调整,其中,所述调整比例系数表示基于光流损失信息对所述光流替代模块中的权重参数进行调整的过程中的调整幅度。
可选地,所述第二训练单元被配置为:
确定每组视频帧对应的参考光流特征信息和预测光流特征信息之间的欧氏距离,作为每组视频帧对应的光流损失信息。
通过本公开实施例提供的装置,可以将待分类视频的多个视频帧直接输入到训练后的优化视频动作分类模型中,训练后的优化视频动作分类模型可以自动对待分类视频进行分类处理,并最终得到待分类视频对应的分类类别信息,提高了分类处理的效率。在训练后的优化视频动作分类模型对待分类视频进行分类处理的过程中,无需再预先基于待分类视频的多个视频帧确定多个视频帧对应的光流图,可以将待分类视频的多个视频帧直接作为模型中的光流替代模块的输入,光流替代模块可以直接提取待分类视频的多个视频帧对应的光流特征信息,基于光流特征信息确定待分类视频对应的分类类别信息,进一步提高了分类处理的效率。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图6示出了本公开一个示例性实施例提供的计算机设备600的框图。该计算机设备600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(centralprocessing units,CPU)610和一个或一个以上的存储器620。其中,所述存储器620中存储有至少一条指令,所述至少一条指令由所述处理器610加载并执行以实现上述实施例所述的视频动作分类的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器620,上述指令可由计算机设备600的处理器610执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,当计算机程序产品由计算机设备600的处理器610执行时,使得计算机设备600能够执行以完成上述方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种视频动作分类的方法,其特征在于,所述方法包括:
获取待分类视频,确定所述待分类视频中的多个视频帧;
将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;
将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于训练样本,对视频动作分类模型进行训练,其中,所述训练样本包括多组视频帧以及每组视频帧对应的标准分类类别信息,所述视频动作分类模型包括三维卷积神经模块和光流模块;
将所述多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息;
基于训练后的三维卷积神经模块、预设的光流替代模块和预设的分类器模块,建立优化视频动作分类模型;
基于所述多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对所述优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
3.根据权利要求2所述的方法,其特征在于,所述基于所述多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对所述优化视频动作分类模型进行训练,包括:
将所述多组视频帧分别输入到所述光流替代模块,得到每组视频帧对应的预测光流特征信息;
基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息;
将所述多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息;
将每组视频帧对应的预测光流特征信息和参考空间特征信息,输入到所述分类器模块,确定每组视频帧对应的预测分类类别信息;
基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息;
基于每组视频帧对应的光流损失信息和分类损失信息,对所述光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对所述分类器模块中的权重参数进行调整。
4.根据权利要求3所述的方法,其特征在于,所述基于每组视频帧对应的光流损失信息和分类损失信息,对所述光流替代模块中的权重参数进行调整,包括:
基于每组视频帧对应的光流损失信息、分类损失信息和预设的调整比例系数,对所述光流替代模块中的权重参数进行调整,其中,所述调整比例系数表示基于光流损失信息对所述光流替代模块中的权重参数进行调整的过程中的调整幅度。
5.根据权利要求3所述的方法,其特征在于,所述基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息,包括:
确定每组视频帧对应的参考光流特征信息和预测光流特征信息之间的欧氏距离,作为每组视频帧对应的光流损失信息。
6.一种视频动作分类的装置,其特征在于,所述装置包括:
第一确定单元,被配置为获取待分类视频,确定所述待分类视频中的多个视频帧;
第一输入单元,被配置为将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
第二确定单元,被配置为基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
7.根据权利要求6所述的装置,其特征在于,所述的装置还包括:
第一训练单元,被配置为基于训练样本,对视频动作分类模型进行训练,其中,所述训练样本包括多组视频帧以及每组视频帧对应的标准分类类别信息,所述视频动作分类模型包括三维卷积神经模块和光流模块;
第二输入单元,被配置为将所述多组视频帧分别输入到训练后的光流模块,确定每组视频帧对应的参考光流特征信息;
建立单元,被配置为基于训练后的三维卷积神经模块、预设的光流替代模块和预设的分类器模块,建立优化视频动作分类模型;
第二训练单元,被配置为基于所述多组视频帧、每组视频帧对应的标准分类类别信息和参考光流特征信息,对所述优化视频动作分类模型进行训练,得到训练后的优化视频动作分类模型。
8.根据权利要求7所述的装置,其特征在于,所述第二训练单元被配置为:
将所述多组视频帧分别输入到所述光流替代模块,得到每组视频帧对应的预测光流特征信息;
基于每组视频帧对应的参考光流特征信息和预测光流特征信息,确定每组视频帧对应的光流损失信息;
将所述多组视频帧分别输入到训练后的三维卷积神经模块,得到每组视频帧对应的参考空间特征信息;
将每组视频帧对应的预测光流特征信息和参考空间特征信息,输入到所述分类器模块,确定每组视频帧对应的预测分类类别信息;
基于每组视频帧对应的标准分类类别信息和预测分类类别信息,确定每组视频帧对应的分类损失信息;
基于每组视频帧对应的光流损失信息和分类损失信息,对所述光流替代模块中的权重参数进行调整,基于每组视频帧对应的分类损失信息,对所述分类器模块中的权重参数进行调整。
9.一种计算机设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取待分类视频,确定所述待分类视频中的多个视频帧;
将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;
将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
10.一种非临时性计算机可读存储介质,其特征在于,当所述存储介质中的指令由计算机设备的处理器执行时,使得所述计算机设备能够执行一种视频动作分类的方法,所述方法包括:
获取待分类视频,确定所述待分类视频中的多个视频帧;
将所述多个视频帧输入到训练后的优化视频动作分类模型中的光流替代模块中,得到所述多个视频帧对应的光流特征信息;
将所述多个视频帧输入到所述训练后的优化视频动作分类模型中的三维卷积神经模块中,得到所述多个视频帧对应的空间特征信息;
基于所述光流特征信息和所述空间特征信息,确定所述待分类视频对应的分类类别信息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811437221.XA CN109376696B (zh) | 2018-11-28 | 2018-11-28 | 视频动作分类的方法、装置、计算机设备和存储介质 |
PCT/CN2019/106250 WO2020108023A1 (zh) | 2018-11-28 | 2019-09-17 | 视频动作分类的方法、装置、计算机设备和存储介质 |
US17/148,106 US20210133457A1 (en) | 2018-11-28 | 2021-01-13 | Method, computer device, and storage medium for video action classification |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811437221.XA CN109376696B (zh) | 2018-11-28 | 2018-11-28 | 视频动作分类的方法、装置、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109376696A true CN109376696A (zh) | 2019-02-22 |
CN109376696B CN109376696B (zh) | 2020-10-23 |
Family
ID=65383112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811437221.XA Active CN109376696B (zh) | 2018-11-28 | 2018-11-28 | 视频动作分类的方法、装置、计算机设备和存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210133457A1 (zh) |
CN (1) | CN109376696B (zh) |
WO (1) | WO2020108023A1 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992679A (zh) * | 2019-03-21 | 2019-07-09 | 腾讯科技(深圳)有限公司 | 一种多媒体数据的分类方法及装置 |
CN110766651A (zh) * | 2019-09-05 | 2020-02-07 | 无锡祥生医疗科技股份有限公司 | 颈动脉斑块的性质判别方法、训练方法及超声设备 |
WO2020108023A1 (zh) * | 2018-11-28 | 2020-06-04 | 北京达佳互联信息技术有限公司 | 视频动作分类的方法、装置、计算机设备和存储介质 |
CN112784704A (zh) * | 2021-01-04 | 2021-05-11 | 上海海事大学 | 一种面向小样本视频动作分类的方法 |
CN112966584A (zh) * | 2021-02-26 | 2021-06-15 | 中国科学院上海微系统与信息技术研究所 | 一种运动感知模型的训练方法、装置、电子设备及存储介质 |
CN115018887A (zh) * | 2021-03-04 | 2022-09-06 | 北京字节跳动网络技术有限公司 | 应用程序性能测试方法、装置、设备以及介质 |
CN116343134A (zh) * | 2023-05-30 | 2023-06-27 | 山西双驱电子科技有限公司 | 驾考车辆信号传输系统及方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111241985B (zh) * | 2020-01-08 | 2022-09-09 | 腾讯科技(深圳)有限公司 | 一种视频内容识别方法、装置、存储介质、以及电子设备 |
CN114245206B (zh) * | 2022-02-23 | 2022-07-15 | 阿里巴巴达摩院(杭州)科技有限公司 | 视频处理方法及装置 |
CN115130539A (zh) * | 2022-04-21 | 2022-09-30 | 腾讯科技(深圳)有限公司 | 分类模型训练、数据分类方法、装置和计算机设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060284874A1 (en) * | 2005-06-15 | 2006-12-21 | Microsoft Corporation | Optical flow-based manipulation of graphical objects |
CN105389567A (zh) * | 2015-11-16 | 2016-03-09 | 上海交通大学 | 基于稠密光流直方图的群体异常检测方法 |
CN105956517A (zh) * | 2016-04-20 | 2016-09-21 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于密集轨迹的动作识别方法 |
CN106599907A (zh) * | 2016-11-29 | 2017-04-26 | 北京航空航天大学 | 多特征融合的动态场景分类方法与装置 |
CN106980826A (zh) * | 2017-03-16 | 2017-07-25 | 天津大学 | 一种基于神经网络的动作识别方法 |
CN107169415A (zh) * | 2017-04-13 | 2017-09-15 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
US20180032846A1 (en) * | 2016-08-01 | 2018-02-01 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
CN108229338A (zh) * | 2017-12-14 | 2018-06-29 | 华南理工大学 | 一种基于深度卷积特征的视频行为识别方法 |
CN108648746A (zh) * | 2018-05-15 | 2018-10-12 | 南京航空航天大学 | 一种基于多模态特征融合的开放域视频自然语言描述生成方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8774499B2 (en) * | 2011-02-28 | 2014-07-08 | Seiko Epson Corporation | Embedded optical flow features |
CN104966104B (zh) * | 2015-06-30 | 2018-05-11 | 山东管理学院 | 一种基于三维卷积神经网络的视频分类方法 |
CN106599789B (zh) * | 2016-07-29 | 2019-10-11 | 北京市商汤科技开发有限公司 | 视频类别识别方法和装置、数据处理装置和电子设备 |
CN110622169A (zh) * | 2017-05-15 | 2019-12-27 | 渊慧科技有限公司 | 用于视频中的动作识别的神经网络系统 |
US11521044B2 (en) * | 2018-05-17 | 2022-12-06 | International Business Machines Corporation | Action detection by exploiting motion in receptive fields |
US11016495B2 (en) * | 2018-11-05 | 2021-05-25 | GM Global Technology Operations LLC | Method and system for end-to-end learning of control commands for autonomous vehicle |
CN109376696B (zh) * | 2018-11-28 | 2020-10-23 | 北京达佳互联信息技术有限公司 | 视频动作分类的方法、装置、计算机设备和存储介质 |
-
2018
- 2018-11-28 CN CN201811437221.XA patent/CN109376696B/zh active Active
-
2019
- 2019-09-17 WO PCT/CN2019/106250 patent/WO2020108023A1/zh active Application Filing
-
2021
- 2021-01-13 US US17/148,106 patent/US20210133457A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060284874A1 (en) * | 2005-06-15 | 2006-12-21 | Microsoft Corporation | Optical flow-based manipulation of graphical objects |
CN105389567A (zh) * | 2015-11-16 | 2016-03-09 | 上海交通大学 | 基于稠密光流直方图的群体异常检测方法 |
CN105956517A (zh) * | 2016-04-20 | 2016-09-21 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于密集轨迹的动作识别方法 |
US20180032846A1 (en) * | 2016-08-01 | 2018-02-01 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
CN106599907A (zh) * | 2016-11-29 | 2017-04-26 | 北京航空航天大学 | 多特征融合的动态场景分类方法与装置 |
CN106980826A (zh) * | 2017-03-16 | 2017-07-25 | 天津大学 | 一种基于神经网络的动作识别方法 |
CN107169415A (zh) * | 2017-04-13 | 2017-09-15 | 西安电子科技大学 | 基于卷积神经网络特征编码的人体动作识别方法 |
CN108229338A (zh) * | 2017-12-14 | 2018-06-29 | 华南理工大学 | 一种基于深度卷积特征的视频行为识别方法 |
CN108648746A (zh) * | 2018-05-15 | 2018-10-12 | 南京航空航天大学 | 一种基于多模态特征融合的开放域视频自然语言描述生成方法 |
Non-Patent Citations (2)
Title |
---|
LUYUE LIN,AND ETC: "An Object Tracking Method based on CNN and Optical flow", 《2017 13TH INTERNATIONAL CONFERENCE ON NATURAL COMPUTATION, FUZZY SYSTEMS AND KNOWLEDGE DISCOVERY (ICNC-FSKD 2017) 》 * |
管皓等: "深度学习在视频目标跟踪中的应用进展与展望", 《自动化学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020108023A1 (zh) * | 2018-11-28 | 2020-06-04 | 北京达佳互联信息技术有限公司 | 视频动作分类的方法、装置、计算机设备和存储介质 |
CN109992679A (zh) * | 2019-03-21 | 2019-07-09 | 腾讯科技(深圳)有限公司 | 一种多媒体数据的分类方法及装置 |
CN110766651A (zh) * | 2019-09-05 | 2020-02-07 | 无锡祥生医疗科技股份有限公司 | 颈动脉斑块的性质判别方法、训练方法及超声设备 |
CN110766651B (zh) * | 2019-09-05 | 2022-07-12 | 无锡祥生医疗科技股份有限公司 | 超声设备 |
CN112784704A (zh) * | 2021-01-04 | 2021-05-11 | 上海海事大学 | 一种面向小样本视频动作分类的方法 |
CN112966584A (zh) * | 2021-02-26 | 2021-06-15 | 中国科学院上海微系统与信息技术研究所 | 一种运动感知模型的训练方法、装置、电子设备及存储介质 |
CN112966584B (zh) * | 2021-02-26 | 2024-04-19 | 中国科学院上海微系统与信息技术研究所 | 一种运动感知模型的训练方法、装置、电子设备及存储介质 |
CN115018887A (zh) * | 2021-03-04 | 2022-09-06 | 北京字节跳动网络技术有限公司 | 应用程序性能测试方法、装置、设备以及介质 |
CN116343134A (zh) * | 2023-05-30 | 2023-06-27 | 山西双驱电子科技有限公司 | 驾考车辆信号传输系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020108023A1 (zh) | 2020-06-04 |
CN109376696B (zh) | 2020-10-23 |
US20210133457A1 (en) | 2021-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109376696B (zh) | 视频动作分类的方法、装置、计算机设备和存储介质 | |
CN108140032B (zh) | 用于自动视频概括的设备和方法 | |
CN109145784B (zh) | 用于处理视频的方法和装置 | |
CN110166827B (zh) | 视频片段的确定方法、装置、存储介质及电子装置 | |
CN105808610B (zh) | 一种互联网图片过滤方法及装置 | |
Kishore et al. | Indian classical dance action identification and classification with convolutional neural networks | |
CN112950581B (zh) | 质量评估方法、装置和电子设备 | |
CN109145766B (zh) | 模型训练方法、装置、识别方法、电子设备及存储介质 | |
CN107563345B (zh) | 一种基于时空显著性区域检测的人体行为分析方法 | |
US10762391B2 (en) | Learning device, learning method, and storage medium | |
CN108647571B (zh) | 视频动作分类模型训练方法、装置及视频动作分类方法 | |
CN109101913A (zh) | 行人重识别方法和装置 | |
CN107437083B (zh) | 一种自适应池化的视频行为识别方法 | |
CN112200057A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN111382305B (zh) | 一种视频去重方法、装置、计算机设备和存储介质 | |
CN108549857B (zh) | 事件检测模型训练方法、装置及事件检测方法 | |
CN111340124A (zh) | 图像中实体类别的识别方法和装置 | |
CN107633527B (zh) | 基于全卷积神经网络的目标追踪方法及装置 | |
Shen et al. | A competitive method to vipriors object detection challenge | |
CN111242176A (zh) | 计算机视觉任务的处理方法、装置及电子系统 | |
CN114677611B (zh) | 数据识别方法、存储介质及设备 | |
CN111310516A (zh) | 一种行为识别方法和装置 | |
Suchecki et al. | Understanding aesthetics in photography using deep convolutional neural networks | |
CN109543556B (zh) | 动作识别方法、装置、介质及设备 | |
Chen et al. | Multiclass live streaming video quality classification based on convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |