CN108399380A - 一种基于三维卷积和Faster RCNN的视频动作检测方法 - Google Patents
一种基于三维卷积和Faster RCNN的视频动作检测方法 Download PDFInfo
- Publication number
- CN108399380A CN108399380A CN201810144476.0A CN201810144476A CN108399380A CN 108399380 A CN108399380 A CN 108399380A CN 201810144476 A CN201810144476 A CN 201810144476A CN 108399380 A CN108399380 A CN 108399380A
- Authority
- CN
- China
- Prior art keywords
- classification
- candidate frame
- convolution
- video
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于三维卷积和Faster RCNN的视频动作检测方法,首先引入一个新的模型,其使用三维完全卷积网络对视频流进行编码;随后在生成的特征基础上生成包含动作的候选时间区域,并生成一组候选框;最后不同剪辑的候选框经过分类检测,将视频流中动作类别、视频动作开始和结束时间预测出来;同时预测出动作的空间位置边界框。与现有方法相比,本发明所述方法在未修剪的数据集视频时序动作检测上具有优异的性能,同时可以在缺乏空间标注信息的情况下实现动作定位。
Description
技术领域
本发明属于图像处理技术领域,涉及一种基于三维卷积和Faster RCNN的视频动作检测方法。
背景技术
随着互联网视频媒介的蓬勃发展,近年来视频内容检测与分析引起了工业界和学术界的广泛关注。动作识别是视频内容检测与分析的一个重要分支。在计算机视觉领域,动作识别无论是在手工特征还是深度学习特征等方面都取得了很大的进步。动作识别通常归结为一个分类问题,其中,训练阶段的每个动作实例都是从一个较长视频序列中修剪出来,学习动作模型被用于修剪视频(例如,HMDB51和UCF101)或未修剪视频(例如,THUMOS14和ActivityNet)中的动作识别。然而,现实世界中的大多数视频是不受限制的,可能包含多个具有不相关背景场景活动的动作实例。针对该问题学术界开始逐渐关注另一个具有挑战性的识别方法-时序动作检测。该方法旨在检测未修剪视频中的动作实例,包括时间边界和实例类别。该方法在监控视频分析和智能家居护理等领域具有广阔前景。
自从2012年将卷积神经网络(CNN)运用于图像分类的重大突破以来,众多研究工作围绕在设计有效的深层网络架构运用于视频中的动作检测。Gaidon等人先后在2011年的IEEE Conference on Computer Vision and Pattern Recognition(CVPR)和2013年的IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI)上发表的“Actom sequence models for efficient action detection”和“Temporallocalization of actions with actoms”,介绍了在未修剪的视频中定位动作的问题,然而行为动作比较有限,如“喝酒吸烟”和“开门静坐”。Escorcia等人于2016年在EuropeanConference on Computer Vision(ECCV)上发表的“Daps:Deep action proposals foraction understanding”,建立了基于长短期记忆(LSTM)的时间动作候选框系统。Yeung等人于2015年在arXiv preprint(arXiv:1507.05738)上发表的“Every moment counts:Dense detailed labeling of actions in complex videos”,为THUMOS视频中的每个帧引入了多标签注释的MultiTHUMOS数据集,并定义了一个LSTM网络来模拟多个输入和输出连接。Yuan等人于2016年在IEEE Conference on Computer Vision and PatternRecognition(CVPR)上发表的“Temporal action localization with pyramid of scoredistribution features”,基于滑动窗口中心提出了一个分数分布特征的金字塔,以捕获多个分辨率的运动信息,并利用RNN提高了帧之间的一致性。Sun等人于2015年在ACMInternational Conference on Multimedia(ACM MM)上发表了“Temporal localizationof fine-grained actions in videos by domain transfer from web images”,研究了当仅有视频级注释可用时,利用网页图像来训练LSTM模型。此外,Lea等人于2016年在IEEEConference on Computer Vision and Pattern Recognition(ECCV)上发表了“Segmentalspatiotemporal cnns for fine-grained action segmentation”,在训练模型时使用了一维卷积来捕捉场景变化。虽然RNN和时间1D卷积可以对帧之间的时间依赖性进行建模并进行帧级预测,但它们通常位于深层ConvNets之上,该ConvNets采用单个帧作为输入,而不是直接建模原始视频中的时空特征。Shou等人于2016年在European Conference onComputer Vision(ECCV)上发表的“Temporal action localization in untrimmedvideos via multi-stage cnns”,提出了一种基于端到端的基于段的3D CNN框架(S-CNN),该框架捕获时空信息的方式优于其他基于RNN的方法。然而,S-CNN缺乏在精细的时间分辨率下进行预测并将动作实例的精确时间边界定位的能力。同时由于当前的未修剪数据集缺乏空间标注信息,因而目前的未修剪数据集很难做到在定位动作时间边界的时候同步定位出该动作的空间边界框。
发明内容
鉴于目前视频动作检测算法的局限性,本发明提供一种基于三维卷积和FasterRCNN的视频动作检测方法,以提高未修剪数据集的时序动作检测定位正确率(mAP),同时定位出动作的空间边界框。
为实现上述目的,本发明采用如下的技术方案:
一种基于三维卷积和Faster RCNN的视频动作检测方法,包括以下步骤:
步骤一、时空特征生成
对于输入的视频剪辑片段L,使用3D ConvNet网络提取时空特征立方体;3DConvNet网络包括依次连接的卷积层1、池化层1、卷积层2、池化层2、卷积层3a、卷积层3b、池化层3、卷积层4a、卷积层4b、池化层4、卷积层5a和卷积层5b;
步骤二、全局平均池化
在卷积层5b后添加一个3×3×3的卷积核,卷积的填充和跨幅为1,卷积核数量为1024个;然后再添加一个全局平均池化层,池化核大小为1×7×7,池化的深度跨幅为1,高度和宽度的跨幅分别为7;通过全局平均池化操作在训练过程中优化权重项
步骤三、时间候选框生成
将anchor纳入时间候选框子网,子网预测关于anchor的潜在候选框和预测候选框是否包含动作的二进制标签;anchor是以(L/8)均匀分布的时间位置为中心的预定义多尺度窗口;在每个时间位置获取特征预测候选框具体为:首先在Conv5b后添加3×3×3的卷积核;然后应用3D max-pooling来缩小空间维度以产生时间唯一的特征图;每一个时间位置上512维的特征向量用来预测每个时间候选框是动作还是背景的二进制得分;
步骤四、3D RoI阶段
设计一个3D RoI池化层,从步骤一共享卷积Conv5b中提取每个可变长度候选框的固定大小的卷积特征;
步骤五、分类和回归
步骤三所挑选的候选框在经过上述操作后被馈送到全连接层;所述候选框经过softmax层被分类成动作类别,视频的开始和结束时间在regression层中进行优化;
步骤六、动作定位
在生成动作类别的同时生成一个边界框,使用步骤二中得到的权重项来得到类别激活图,通过阈值方法在类别激活图基础上生成可能包含动作的空间位置边界框。
作为优选,步骤二中:
对于一个特定的时间位置,假设fk(x,y)表示卷积层Conv5b在空间位置(x,y)第k个单元的激活值,那么,对于第k单元来说,在全局平均池化操作后即可得到Fk=∑kfk(x,y);对于一个特定类别c的softmax的输入其中,是第k个单元的类别c的相应权重,即表示Fk对于类别c的重要性;对于类别c的softmax输出
通过将Fk=∑x,yfk(x,y)插入到分类得分Sc中,可以得到以下公式:
假设定义Mc为特定类别c的类别激活值,那么每一个空间位置(x,y)上可以得到如下公式:
从而可以得出:
Sc=∑x,yMc(x,y)
其中,Mc(x,y)表示在特定时间位置上的空间位置(x,y)被分类为c类的重要性。
作为优选,步骤四中:
对于RoI池化层,首先需要确定输出大小,然后确定内核大小、步幅和填充值;将特征立方体表示为d×h×w,对特征立方体进行时空上的的RoI池化;假设Conv5b的输出为d×h×w,输出结果是D×H×W,那么首先将h×w的特征图平均分成H×W的格子,那么每个格子的大小为h/H×w/W;在每一个格子中应用最大池化方法来采样最大值,在空间维度上得到H×W的特征图;将d平均分成D份,那么每一份大小为d/D;在每一份中应用最大池化方法来采样最大值,从而得到D×H×W的特征图。
作为优选,步骤五中:
在训练网络的时候同时优化分类和回归任务,Softmax损失函数用于动作类别的分类,smooth L1损失函数用于动作时间边界的回归,步骤五的损失函数如下所示:
其中,Ncls和Nreg分别表示训练时候批处理数量和候选框的数量,λ表示损失权衡函数,ai表示预测一个候选框是否是动作的可能性,表示其真实值,表示预测一个候选框和真实值之间的相对位移,表示一个候选框和真实值之间的坐标转换,这个坐标转换可以通过如下的公式进行计算:
其中,ci和li表示候选框的中心位置和长度,和表示该候选框的真实值。
作为优选,步骤六中:
采用阈值操作作用于类别激活图,所述阈值分别取20、100和110;在生成的类别激活图的基础上,首先获取图像中动作的轮廓并细致轮廓,然后生成对应轮廓的外部矩形边界框,再对生成的边界框进行排序并合并矩形边界框。
本发明基于三维卷积和Faster RCNN的视频动作检测方法,首先引入一个新的模型,其使用三维完全卷积网络对视频流进行编码;随后在生成的特征基础上生成包含动作的候选时间区域,并生成一组候选框;最后不同剪辑的候选框经过分类检测,将视频流中动作类别、视频动作开始和结束时间预测出来;同时预测出动作的空间位置边界框。与现有方法相比,本发明所述方法在未修剪的数据集视频时序动作检测上具有优异的性能,同时可以在缺乏空间标注信息的情况下实现动作定位。
与现有技术相比,本发明具有以下优点:
1.本发明是基于端到端深度学习的视频动作检测方法。它直接对原始视频进行操作,并使用单个3D网络捕获时空信息,以基于3D卷积特征执行动作识别和检测。
2.同时我们在该发明中提出了一个新的层,该层是Faster-rcnn的兴趣区域(ROI层)的三维推广,它有效的解决了管道候选框可变时间和空间尺寸的问题。
3.最后引入弱监督方法,在缺乏空间标注信息的情况下预测出动作的空间位置。
4.本发明方法可直接运行在通用GPU计算设备,不需要额外的硬件设备。同时本发明可以运用于任何未修剪数据集,不需要指定的数据集。
附图说明
图1本发明方法的流程图
图2(a)、图2(b)本发明方法的实验结果:图2(a)、图2(b)分别为ActivityNet数据集中动作“Layup drill in basketball”和“Disc dog”的时序动作检测的结果,其中,GT信息标注的是真实值,Ours信息标注的是本实验的预测值;
图3本发明方法的实验结果:ActivityNet数据集中动作“Diving”的动作定位结果。
具体实施方式
下面将结合附图和具体实施方式对本发明做进一步说明。
本发明提供一种基于三维卷积和Faster RCNN的视频动作检测方法,在特征提取部分,使用3D ConvNet来提取视频动作的时空特征。为了实现高效计算和端到端训练,候选框生成和分类子网共享相同的3D ConvNet特征。提取候选框子网预测可能包含动作的可变长时间段,而分类子网将这些候选框分类为特定的动作类别或背景,并进一步优化候选框边界。同时通过弱监督方法在空间维度上生成可能包含动作的的空间位置边界框。
本发明方法流程图如图1所示,包括以下六个步骤:
步骤一、时空特征生成阶段。
本发明采用3D ConvNet来提取时空特征,经实验证明3D ConvNet可以有效地总结从原始视频到高级语义的时空特征。
对于输入的视频剪辑片段L,使用3D卷积和3D池化来提取时空特征立方体。在3DConvNet中,卷积和池化是在时空上同时进行的。因此,我们的网络结构保留了输入视频的时间信息。如表1所示,我们的3D ConvNet网络包括依次连接的卷积层1、池化层1、卷积层2、池化层2、卷积层3a、卷积层3b、池化层3、卷积层4a、卷积层4b、池化层4、卷积层5a和卷积层5b。
所述卷积层1用于输入视频片段与卷积核的卷积操作,从而可以实现提取视频的时空特征。其中输入的视频片段为512帧112×112大小的图像构成的视频流,卷积核大小为3×3×3,卷积的填充和跨幅为1,卷积核数量为64个。从而输入的视频流经过卷积操作可以得到64个512×112×112的特征图。
所述的池化层1采用最大池化方法对前一卷积层输出的特征图进行压缩,一方面使特征图变小,从而简化网络计算复杂度;另一方面进行特征压缩,从而提取主要特征。其中池化核大小为1×2×2,池化的深度跨幅为1,高度和宽度的跨幅分别为2。从而卷积层1的输出经过最大池化操作可以得到64个512×56×56的特征图。
卷积层2对池化层1输出的特征图进行卷积操作,从而继续提取视频时空特征。其中卷积核大小为3×3×3,卷积的填充和跨幅为1。由于上一层池化操作使得特征图缩小,有可能影响网络的准确度,因此我们通过增加特征图的数量来弥补,将卷积层2的卷积核数量设置为128个。从而池化层1的输出经过卷积操作可以得到128个512×56×56的特征图。
池化层2对卷积层2输出的特征图进行池化操作。池化核大小为2×2×2,池化的跨幅为2。从而卷积层2的输出经过最大池化操作可以得到128个256×28×28的特征图。
卷积层3a对池化层2输出的特征图进行卷积操作。卷积核大小为3×3×3,卷积的填充和跨幅为1,卷积核数量为256个。卷积层3b对卷积层3a的输出继续进行卷积操作,卷积核参数同卷积层3a一致。从而池化层2的输出经过两次卷积操作可以得到256个256×28×28的特征图。
池化层3对卷积层3b输出的特征图进行池化操作。池化核大小为2×2×2,池化的跨幅为2。从而卷积层3b的输出经过最大池化操作可以得到256个128×14×14的特征图。
卷积层4a对池化层3输出的特征图进行卷积操作。卷积核大小为3×3×3,卷积的填充和跨幅为1,卷积核数量为512个。卷积层4b对卷积层4a的输出继续进行卷积操作,卷积核参数同卷积层4a一致。从而池化层3的输出经过两次卷积操作可以得到512个128×14×14的特征图。
池化层4对卷积层4b输出的特征图进行池化操作。池化核大小为2×2×2,池化的跨幅为2。从而卷积层3b的输出经过最大池化操作可以得到512个64×7×7的特征图。
卷积层5a对池化层4输出的特征图进行卷积操作。卷积核大小为3×3×3,卷积的填充和跨幅为1,卷积核数量为512个。卷积层5b对卷积层4a的输出继续进行卷积操作,卷积核参数同卷积层5a一致。从而池化层4的输出经过两次卷积操作可以得到512个64×7×7的特征图。
我们使用C3D模型作为预训练模型,并在我们的实验中对ActivityNet数据集进行微调。
步骤二、全局平均池化阶段。
目前未修剪的数据集中对于空间位置的标注信息极少(ActivityNet中没有,Thumos14仅部分视频数据有空间标注信息),因此我们仅能在弱监督情况下对视频动作的空间位置进行定位。受启发于Network in Network(NIN)和GoogLeNet中使用全局平均池化层(Global Average Pooling),在本发明中我们将使用全局平均池化层,我们发现采用全局平均池化不仅仅起到了正则化的作用,而且全局平均池化能够很好的保持显著的定位作用。
对于一个特定的时间位置,假设fk(x,y)表示卷积层Conv5b在空间位置(x,y)第k个单元的激活值。那么,对于第k单元来说,在全局平均池化操作后即可得到Fk=∑kfk(x,y)。因此,对于一个特定类别c的softmax的输入其中是第k个单元的类别c的相应权重。本质上来说,表示Fk对于类别c的重要性。最后,对于类别c的softmax输出
通过将Fk=∑x,yfk(x,y)插入到分类得分Sc中,可以得到以下公式:
假设我们定义Mc为特定类别c的类别激活值,那么每一个空间位置(x,y)上可以得到如下公式:
从而可以得出:
Sc=∑x,yMc(x,y)
由此可以推断出Mc(x,y)表示在特定时间位置上的空间位置(x,y)被分类为c类的重要性。
我们在Conv5b后添加一个3×3×3的卷积核,卷积的填充和跨幅为1,卷积核数量为1024个。然后再添加一个全局平均池化层,池化核大小为1×7×7,池化的深度跨幅为1,高度和宽度的跨幅分别为7。通过以上的操作我们可以在训练过程中优化权重项
步骤三、时间候选框生成阶段。
我们利用步骤一中卷积层Conv5b的输出来生成时间候选框。为了允许模型预测可变长度候选框,我们将anchor纳入时间候选框子网。本阶段子网预测关于anchor的潜在候选框和预测候选框是否包含动作的二进制标签。anchor是以(L/8)均匀分布的时间位置为中心的预定义多尺度窗口。每个时间位置指定K个固定的不同尺寸的anchor。因此最终生成的anchor的总数为(L/8)*K。
为了在每个时间位置获取特征以用来预测这些候选框,我们首先在Conv5b后添加3×3×3的卷积核,以用来扩展时间候选子网的时间接收域。随后我们应用3D max-pooling来缩小空间维度以产生时间唯一的特征图。每一个时间位置上512维的特征向量用来预测每个时间候选框是动作还是背景的二进制得分,同时它还能预测时间候选框和真实值的中心位置以及长度的相对位移值。
候选框子网输出一组具有相关分数的候选框。一些动作候选框时间域彼此高度重叠,一些动作候选框是动作的得分低。根据物体检测和动作检测的标准,我们采用贪心的的非极大值抑制(NMS)策略来消除高度重叠和低置信度的候选框。随后将同一种尺度的anchor链接起来。由于同一种尺度的anchor存在不同的时间位置上,这就保证了候选框预测在时间上的不变性。
步骤四、3D RoI阶段。
由于步骤三生成链接的候选框可以是任意长度,然而我们需要为每个特征提取固定大小的特征,以便进一步来进行动作分类和回归。我们设计了一个3D RoI池化层,从步骤一共享卷积Conv5b中提取每个可变长度候选框的固定大小的卷积特征。经典的最大池化层定义了确定的内核大小、步幅和填充值。相反,对于RoI池化层,首先需要确定输出大小,然后确定内核大小、步幅和填充值。将特征立方体表示为d×h×w,对特征立方体进行时空上的RoI池化。假设Conv5b的输出为d×h×w,我们的输出结果是D×H×W,那么首先我们将h×w的特征图平均分成H×W的格子,那么每个格子的大小为h/H×w/W。在每一个格子中应用最大池化方法来采样最大值,这样在空间维度上我们将可以得到H×W的特征图。然后将d平均分成D份,那么每一份大小为d/D。在每一份中应用最大池化方法来采样最大值,从而我们将可以得到D×H×W的特征图。
步骤五、分类和回归阶段。
步骤三所挑选的候选链接框在经过上述操作后被馈送到全连接层。最后,这些候选框经过softmax层被分类成动作类别,视频的开始和结束时间在regression层中进行优化。
我们在训练网络的时候同时优化分类和回归任务。Softmax损失函数用于动作类别的分类,smooth L1损失函数用于动作时间边界的回归。从而本发明的损失函数如下所示:
其中Ncls和Nreg分别表示训练时候批处理数量和候选框的数量,λ表示损失权衡函数,本实验经过交叉验证将其设置为1。ai表示预测一个候选框是否是动作的可能性,表示其真实值。表示预测一个候选框和真实值之间的相对位移,表示一个候选框和真实值之间的坐标转换。这个坐标转换可以通过如下的公式进行计算:
其中ci和li表示候选框的中心位置和长度,和表示该候选框的真实值。
步骤六、动作定位阶段。
为了实现动作定位,本发明需要在生成动作类别的同时生成一个边界框。我们使用步骤二中得到的权重项来得到类别激活图。本发明采用一种简单的阈值操作作用于类别激活图,其中本发明的阈值分别取20、100和110。在生成的类别激活图的基础上,首先获取图像中动作的轮廓并细致轮廓,然后生成对应轮廓的外部矩形边界框,再对生成的边界框进行排序并合并矩形边界框。其中本发明中动作的轮廓取的是预测类别分数最高的前五个类别的动作轮廓。
实施例1:
本发明中,以英伟达GPU作为计算平台,采用CUDA作为GPU加速器,选取Caffe作为CNN框架。
S1数据准备:
本实验中使用ActivityNet 1.3数据集。ActivityNet数据集仅由未修剪的视频组成,有200种不同类型的活动,其中训练集10024个视频、验证集4926个视频和测试集5044个视频。与THUMOS14相比,这是一个大型数据集,无论是涉及的活动类别数量还是视频数量。
步骤1.1:从http://activity-net.org/download.html下载ActivityNet 1.3数据集至本地。
步骤1.2:根据每秒25帧图像(fps)将下载的视频转换成图像,不同子集的图像按照对应视频名称分文件夹放置。
步骤1.3:根据数据增广策略,本实验采用水平翻转策略。在生成视频训练数据阶段,采用图像间重叠0.7生成训练数据。同时本实验不仅按照视频从头到尾的方式来生成训练数据,而且还按照视频从尾到头的方式生成训练数据,从而增大数据量。
S2构建模型参数:
本实验采用Learning Spatiotemporal Features with 3D ConvolutionalNetworks作者提供的在Sports-1M数据集预训练的C3D模型参数(https://github.com/chuckcho/video-caffe)来初始化本实验的3D ConvNet参数,之后我们在ActivityNet 1.3数据集上进行微调。
S3模型训练:
步骤3.1:本实验的模型采用随机梯度下降算法(SGD),批处理数量(batchsize)为128,动量为0.9,权重衰减为0.0005。
步骤3.2:本实验的学习率设置如下:前10个epochs学习率为0.0001,之后的学习率降为0.00001。
步骤3.3:模型训练过程中生成的solverstate可用于模型的继续训练,caffemodel可用于接下来的模型测试。
S4模型测试:
步骤4.1:用上述模型训练生成的caffemodel来进行测试。
步骤4.2:本实验采用贪心的非极大值抑制策略对测试生成的预测结果进行处理,消除高重叠度和低分数的预测结果。非极大值抑制阈值设置为0.99999,分数的阈值设置为0.005。
S5模型评估:
步骤5.1:根据上述处理后的预测结果计算tIoU(temporal Intersection overUnion)>0.5的测试集,当预测结果tIoU>0.5的预测结果我们认为是预测正确的结果。
步骤5.2:接着计算tIoU@0.55、0.6、0.65、0.7、0.75、0.8、0.85、0.9、0.95的正确率,从而得到模型预测结果的平均正确率mAP。
具体实施步骤叙述完毕,下表给出本发明在mAP@0.5的测试结果。本实验给出了ActivityNet数据集中动作“Layup drill in basketball”和“Disc dog”的时序动作检测以及动作“Diving”的动作定位结果,如图2(a)、图2(b)、图3所示。实验环境为:GPU K80,CUDA 8.0,cuDNN 5.1.10版本。结果为:
Claims (5)
1.一种基于三维卷积和Faster RCNN的视频动作检测方法,其特征在于,包括以下步骤:
步骤一、时空特征生成
对于输入的视频剪辑片段L,使用3D ConvNet网络提取时空特征立方体;3D ConvNet网络包括依次连接的卷积层1、池化层1、卷积层2、池化层2、卷积层3a、卷积层3b、池化层3、卷积层4a、卷积层4b、池化层4、卷积层5a和卷积层5b;
步骤二、全局平均池化
在卷积层5b后添加一个3×3×3的卷积核,卷积的填充和跨幅为1,卷积核数量为1024个;然后再添加一个全局平均池化层,池化核大小为1×7×7,池化的深度跨幅为1,高度和宽度的跨幅分别为7;通过全局平均池化操作在训练过程中优化权重项
步骤三、时间候选框生成
将anchor纳入时间候选框子网,子网预测关于anchor的潜在候选框和预测候选框是否包含动作的二进制标签;anchor是以(L/8)均匀分布的时间位置为中心的预定义多尺度窗口;在每个时间位置获取特征预测候选框具体为:首先在Conv5b后添加3×3×3的卷积核;然后应用3D max-pooling来缩小空间维度以产生时间唯一的特征图;每一个时间位置上512维的特征向量用来预测每个时间候选框是动作还是背景的二进制得分;
步骤四、3D RoI阶段
设计一个3D RoI池化层,从步骤一共享卷积Conv5b中提取每个可变长度候选框的固定大小的卷积特征;
步骤五、分类和回归
步骤三所挑选的候选框在经过上述操作后被馈送到全连接层;所述候选框经过softmax层被分类成动作类别,视频的开始和结束时间在regression层中进行优化;
步骤六、动作定位
在生成动作类别的同时生成一个边界框,使用步骤二中得到的权重项来得到类别激活图,通过阈值方法在类别激活图基础上生成可能包含动作的空间位置边界框。
2.如权利要求1所述的基于三维卷积和Faster RCNN的视频动作检测方法,其特征在于,步骤二中:
对于一个特定的时间位置,假设fk(x,y)表示卷积层Conv5b在空间位置(x,y)第k个单元的激活值,那么,对于第k单元来说,在全局平均池化操作后即可得到Fk=∑kfk(x,y);对于一个特定类别c的softmax的输入其中,是第k个单元的类别c的相应权重,即表示Fk对于类别c的重要性;对于类别c的softmax输出
通过将Fk=∑x,yfk(x,y)插入到分类得分Sc中,可以得到以下公式:
假设定义Mc为特定类别c的类别激活值,那么每一个空间位置(x,y)上可以得到如下公式:
从而可以得出:
Sc=∑x,yMc(x,y)
其中,Mc(x,y)表示在特定时间位置上的空间位置(x,y)被分类为c类的重要性。
3.如权利要求2所述的基于三维卷积和Faster RCNN的视频动作检测方法,其特征在于,步骤四中:
对于RoI池化层,首先需要确定输出大小,然后确定内核大小、步幅和填充值;将特征立方体表示为d×h×w,对特征立方体进行时空上的的RoI池化;假设Conv5b的输出为d×h×w,输出结果是D×H×W,那么首先将h×w的特征图平均分成H×W的格子,那么每个格子的大小为h/H×w/W;在每一个格子中应用最大池化方法来采样最大值,在空间维度上得到H×W的特征图;将d平均分成D份,那么每一份大小为d/D;在每一份中应用最大池化方法来采样最大值,从而得到D×H×W的特征图。
4.如权利要求3所述的基于三维卷积和Faster RCNN的视频动作检测方法,其特征在于,步骤五中:
在训练网络的时候同时优化分类和回归任务,Softmax损失函数用于动作类别的分类,smooth L1损失函数用于动作时间边界的回归,步骤五的损失函数如下所示:
其中,Ncls和Nreg分别表示训练时候批处理数量和候选框的数量,λ表示损失权衡函数,ai表示预测一个候选框是否是动作的可能性,表示其真实值,表示预测一个候选框和真实值之间的相对位移,表示一个候选框和真实值之间的坐标转换,这个坐标转换可以通过如下的公式进行计算:
其中,ci和li表示候选框的中心位置和长度,和表示该候选框的真实值。
5.如权利要求4所述的基于三维卷积和Faster RCNN的视频动作检测方法,其特征在于,步骤六中:
采用阈值操作作用于类别激活图,所述阈值分别取20、100和110;在生成的类别激活图的基础上,首先获取图像中动作的轮廓并细致轮廓,然后生成对应轮廓的外部矩形边界框,再对生成的边界框进行排序并合并矩形边界框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810144476.0A CN108399380A (zh) | 2018-02-12 | 2018-02-12 | 一种基于三维卷积和Faster RCNN的视频动作检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810144476.0A CN108399380A (zh) | 2018-02-12 | 2018-02-12 | 一种基于三维卷积和Faster RCNN的视频动作检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108399380A true CN108399380A (zh) | 2018-08-14 |
Family
ID=63096432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810144476.0A Pending CN108399380A (zh) | 2018-02-12 | 2018-02-12 | 一种基于三维卷积和Faster RCNN的视频动作检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108399380A (zh) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344825A (zh) * | 2018-09-14 | 2019-02-15 | 广州麦仑信息科技有限公司 | 一种基于卷积神经网络的车牌识别方法 |
CN109389055A (zh) * | 2018-09-21 | 2019-02-26 | 西安电子科技大学 | 基于混合卷积和注意力机制的视频分类方法 |
CN109492579A (zh) * | 2018-11-08 | 2019-03-19 | 广东工业大学 | 一种基于st-sin的视频物体检测方法及系统 |
CN109697434A (zh) * | 2019-01-07 | 2019-04-30 | 腾讯科技(深圳)有限公司 | 一种行为识别方法、装置和存储介质 |
CN109726803A (zh) * | 2019-01-10 | 2019-05-07 | 广州小狗机器人技术有限公司 | 池化方法、图像处理方法及装置 |
CN109785574A (zh) * | 2019-01-21 | 2019-05-21 | 五邑大学 | 一种基于深度学习的火灾检测方法 |
CN109829398A (zh) * | 2019-01-16 | 2019-05-31 | 北京航空航天大学 | 一种基于三维卷积网络的视频中的目标检测方法 |
CN109934188A (zh) * | 2019-03-19 | 2019-06-25 | 上海大学 | 一种幻灯片切换检测方法、系统、终端及存储介质 |
CN110147819A (zh) * | 2019-04-11 | 2019-08-20 | 深圳先进技术研究院 | 一种视频特征提取方法、装置、可读存储介质及终端设备 |
CN110188733A (zh) * | 2019-06-10 | 2019-08-30 | 电子科技大学 | 基于3d区域卷积神经网络的时序行为检测方法及系统 |
CN110197136A (zh) * | 2019-05-13 | 2019-09-03 | 华中科技大学 | 一种基于动作边界概率的级联动作候选框生成方法与系统 |
CN110222215A (zh) * | 2019-05-31 | 2019-09-10 | 浙江大学 | 一种基于f-ssd-iv3的作物害虫检测方法 |
CN110322509A (zh) * | 2019-06-26 | 2019-10-11 | 重庆邮电大学 | 基于层级类激活图的目标定位方法、系统及计算机设备 |
CN110348345A (zh) * | 2019-06-28 | 2019-10-18 | 西安交通大学 | 一种基于动作连贯性的弱监督时序动作定位方法 |
CN110502995A (zh) * | 2019-07-19 | 2019-11-26 | 南昌大学 | 基于细微面部动作识别的驾驶员打哈欠检测方法 |
CN110602526A (zh) * | 2019-09-11 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机设备及存储介质 |
CN110688918A (zh) * | 2019-09-12 | 2020-01-14 | 上海交通大学 | 基于长时增强特征增强及稀疏动态采样的快速行为检测方法 |
CN110705339A (zh) * | 2019-04-15 | 2020-01-17 | 中国石油大学(华东) | 一种基于c-c3d的手语识别方法 |
CN110765921A (zh) * | 2019-10-18 | 2020-02-07 | 北京工业大学 | 一种基于弱监督学习和视频时空特征的视频物体定位方法 |
CN111026898A (zh) * | 2019-12-10 | 2020-04-17 | 云南大学 | 一种基于交叉空间池化策略的弱监督图像情感分类与定位方法 |
CN111222476A (zh) * | 2020-01-10 | 2020-06-02 | 北京百度网讯科技有限公司 | 视频时序动作的检测方法、装置、电子设备及存储介质 |
CN111291699A (zh) * | 2020-02-19 | 2020-06-16 | 山东大学 | 基于监控视频时序动作定位和异常检测的变电站人员行为识别方法 |
CN111339893A (zh) * | 2020-02-21 | 2020-06-26 | 哈尔滨工业大学 | 基于深度学习和无人机的管道检测系统及方法 |
CN111353519A (zh) * | 2018-12-24 | 2020-06-30 | 北京三星通信技术研究有限公司 | 用户行为识别方法和系统、具有ar功能的设备及其控制方法 |
CN112101253A (zh) * | 2020-09-18 | 2020-12-18 | 广东机场白云信息科技有限公司 | 一种基于视频动作识别的民用机场地面保障状态识别方法 |
CN112418114A (zh) * | 2020-11-27 | 2021-02-26 | 广州华多网络科技有限公司 | 时序行为检测、响应方法及装置、设备、介质 |
CN112487957A (zh) * | 2020-11-27 | 2021-03-12 | 广州华多网络科技有限公司 | 视频行为检测、响应方法及装置、设备、介质 |
WO2021056278A1 (en) * | 2019-09-25 | 2021-04-01 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for evaluating three-dimensional (3-d) map constructed based on sensor data |
CN112990013A (zh) * | 2021-03-15 | 2021-06-18 | 西安邮电大学 | 一种基于稠密边界时空网络的时序行为检测方法 |
CN113255616A (zh) * | 2021-07-07 | 2021-08-13 | 中国人民解放军国防科技大学 | 一种基于深度学习的视频行为识别方法 |
CN113486784A (zh) * | 2021-07-02 | 2021-10-08 | 北京航空航天大学 | 一种双阶段的时序动作检测方法、装置、设备和介质 |
CN113537164A (zh) * | 2021-09-15 | 2021-10-22 | 江西科技学院 | 一种实时的动作时序定位方法 |
CN114676739A (zh) * | 2022-05-30 | 2022-06-28 | 南京邮电大学 | 一种基于Faster-RCNN的无线信号的时序动作检测和识别方法 |
CN114783069A (zh) * | 2022-06-21 | 2022-07-22 | 中山大学深圳研究院 | 基于步态识别对象的方法、装置、终端设备及存储介质 |
CN114882403A (zh) * | 2022-05-05 | 2022-08-09 | 杭州电子科技大学 | 基于渐进注意力超图的视频时空动作定位方法 |
CN117809228A (zh) * | 2024-02-27 | 2024-04-02 | 四川省川建勘察设计院有限公司 | 一种穿心锤锤击数统计方法 |
CN112101253B (zh) * | 2020-09-18 | 2024-07-12 | 广东机场白云信息科技有限公司 | 一种基于视频动作识别的民用机场地面保障状态识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103926999A (zh) * | 2013-01-16 | 2014-07-16 | 株式会社理光 | 手掌开合手势识别方法和装置、人机交互方法和设备 |
CN104766038A (zh) * | 2014-01-02 | 2015-07-08 | 株式会社理光 | 手掌开合动作识别方法和装置 |
CN106897714A (zh) * | 2017-03-23 | 2017-06-27 | 北京大学深圳研究生院 | 一种基于卷积神经网络的视频动作检测方法 |
CN107506740A (zh) * | 2017-09-04 | 2017-12-22 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
-
2018
- 2018-02-12 CN CN201810144476.0A patent/CN108399380A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103926999A (zh) * | 2013-01-16 | 2014-07-16 | 株式会社理光 | 手掌开合手势识别方法和装置、人机交互方法和设备 |
CN104766038A (zh) * | 2014-01-02 | 2015-07-08 | 株式会社理光 | 手掌开合动作识别方法和装置 |
CN106897714A (zh) * | 2017-03-23 | 2017-06-27 | 北京大学深圳研究生院 | 一种基于卷积神经网络的视频动作检测方法 |
CN107506740A (zh) * | 2017-09-04 | 2017-12-22 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
Non-Patent Citations (2)
Title |
---|
BOLEI ZHOU ET AL.: "Learning Deep Features for Discriminative Localization", 《ARXIV:1512.04150V1 [CS.CV]》 * |
HUIJUAN XU ET AL.: "R-C3D: Region Convolutional 3D Network for Temporal Activity Detection", 《2017 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344825A (zh) * | 2018-09-14 | 2019-02-15 | 广州麦仑信息科技有限公司 | 一种基于卷积神经网络的车牌识别方法 |
CN109389055A (zh) * | 2018-09-21 | 2019-02-26 | 西安电子科技大学 | 基于混合卷积和注意力机制的视频分类方法 |
CN109389055B (zh) * | 2018-09-21 | 2021-07-20 | 西安电子科技大学 | 基于混合卷积和注意力机制的视频分类方法 |
CN109492579A (zh) * | 2018-11-08 | 2019-03-19 | 广东工业大学 | 一种基于st-sin的视频物体检测方法及系统 |
CN109492579B (zh) * | 2018-11-08 | 2022-05-10 | 广东工业大学 | 一种基于st-sin的视频物体检测方法及系统 |
CN111353519A (zh) * | 2018-12-24 | 2020-06-30 | 北京三星通信技术研究有限公司 | 用户行为识别方法和系统、具有ar功能的设备及其控制方法 |
CN109697434B (zh) * | 2019-01-07 | 2021-01-08 | 腾讯科技(深圳)有限公司 | 一种行为识别方法、装置和存储介质 |
CN109697434A (zh) * | 2019-01-07 | 2019-04-30 | 腾讯科技(深圳)有限公司 | 一种行为识别方法、装置和存储介质 |
CN109726803A (zh) * | 2019-01-10 | 2019-05-07 | 广州小狗机器人技术有限公司 | 池化方法、图像处理方法及装置 |
CN109829398A (zh) * | 2019-01-16 | 2019-05-31 | 北京航空航天大学 | 一种基于三维卷积网络的视频中的目标检测方法 |
CN109785574A (zh) * | 2019-01-21 | 2019-05-21 | 五邑大学 | 一种基于深度学习的火灾检测方法 |
CN109934188B (zh) * | 2019-03-19 | 2020-10-30 | 上海大学 | 一种幻灯片切换检测方法、系统、终端及存储介质 |
CN109934188A (zh) * | 2019-03-19 | 2019-06-25 | 上海大学 | 一种幻灯片切换检测方法、系统、终端及存储介质 |
CN110147819A (zh) * | 2019-04-11 | 2019-08-20 | 深圳先进技术研究院 | 一种视频特征提取方法、装置、可读存储介质及终端设备 |
CN110147819B (zh) * | 2019-04-11 | 2021-02-26 | 深圳先进技术研究院 | 一种视频特征提取方法、装置、可读存储介质及终端设备 |
CN110705339A (zh) * | 2019-04-15 | 2020-01-17 | 中国石油大学(华东) | 一种基于c-c3d的手语识别方法 |
CN110197136A (zh) * | 2019-05-13 | 2019-09-03 | 华中科技大学 | 一种基于动作边界概率的级联动作候选框生成方法与系统 |
CN110197136B (zh) * | 2019-05-13 | 2021-01-12 | 华中科技大学 | 一种基于动作边界概率的级联动作候选框生成方法与系统 |
CN110222215A (zh) * | 2019-05-31 | 2019-09-10 | 浙江大学 | 一种基于f-ssd-iv3的作物害虫检测方法 |
CN110222215B (zh) * | 2019-05-31 | 2021-05-04 | 浙江大学 | 一种基于f-ssd-iv3的作物害虫检测方法 |
CN110188733A (zh) * | 2019-06-10 | 2019-08-30 | 电子科技大学 | 基于3d区域卷积神经网络的时序行为检测方法及系统 |
CN110322509A (zh) * | 2019-06-26 | 2019-10-11 | 重庆邮电大学 | 基于层级类激活图的目标定位方法、系统及计算机设备 |
CN110322509B (zh) * | 2019-06-26 | 2021-11-12 | 重庆邮电大学 | 基于层级类激活图的目标定位方法、系统及计算机设备 |
CN110348345B (zh) * | 2019-06-28 | 2021-08-13 | 西安交通大学 | 一种基于动作连贯性的弱监督时序动作定位方法 |
CN110348345A (zh) * | 2019-06-28 | 2019-10-18 | 西安交通大学 | 一种基于动作连贯性的弱监督时序动作定位方法 |
CN110502995A (zh) * | 2019-07-19 | 2019-11-26 | 南昌大学 | 基于细微面部动作识别的驾驶员打哈欠检测方法 |
CN110502995B (zh) * | 2019-07-19 | 2023-03-14 | 南昌大学 | 基于细微面部动作识别的驾驶员打哈欠检测方法 |
CN110602526A (zh) * | 2019-09-11 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、计算机设备及存储介质 |
CN110688918B (zh) * | 2019-09-12 | 2023-02-14 | 上海交通大学 | 基于长时增强特征增强及稀疏动态采样的快速行为检测方法 |
CN110688918A (zh) * | 2019-09-12 | 2020-01-14 | 上海交通大学 | 基于长时增强特征增强及稀疏动态采样的快速行为检测方法 |
WO2021056278A1 (en) * | 2019-09-25 | 2021-04-01 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for evaluating three-dimensional (3-d) map constructed based on sensor data |
CN110765921B (zh) * | 2019-10-18 | 2022-04-19 | 北京工业大学 | 一种基于弱监督学习和视频时空特征的视频物体定位方法 |
CN110765921A (zh) * | 2019-10-18 | 2020-02-07 | 北京工业大学 | 一种基于弱监督学习和视频时空特征的视频物体定位方法 |
CN111026898A (zh) * | 2019-12-10 | 2020-04-17 | 云南大学 | 一种基于交叉空间池化策略的弱监督图像情感分类与定位方法 |
US11600069B2 (en) | 2020-01-10 | 2023-03-07 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for detecting temporal action of video, electronic device and storage medium |
CN111222476A (zh) * | 2020-01-10 | 2020-06-02 | 北京百度网讯科技有限公司 | 视频时序动作的检测方法、装置、电子设备及存储介质 |
CN111291699A (zh) * | 2020-02-19 | 2020-06-16 | 山东大学 | 基于监控视频时序动作定位和异常检测的变电站人员行为识别方法 |
CN111339893B (zh) * | 2020-02-21 | 2022-11-22 | 哈尔滨工业大学 | 基于深度学习和无人机的管道检测系统及方法 |
CN111339893A (zh) * | 2020-02-21 | 2020-06-26 | 哈尔滨工业大学 | 基于深度学习和无人机的管道检测系统及方法 |
CN112101253A (zh) * | 2020-09-18 | 2020-12-18 | 广东机场白云信息科技有限公司 | 一种基于视频动作识别的民用机场地面保障状态识别方法 |
CN112101253B (zh) * | 2020-09-18 | 2024-07-12 | 广东机场白云信息科技有限公司 | 一种基于视频动作识别的民用机场地面保障状态识别方法 |
CN112487957A (zh) * | 2020-11-27 | 2021-03-12 | 广州华多网络科技有限公司 | 视频行为检测、响应方法及装置、设备、介质 |
CN112418114A (zh) * | 2020-11-27 | 2021-02-26 | 广州华多网络科技有限公司 | 时序行为检测、响应方法及装置、设备、介质 |
CN112990013A (zh) * | 2021-03-15 | 2021-06-18 | 西安邮电大学 | 一种基于稠密边界时空网络的时序行为检测方法 |
CN112990013B (zh) * | 2021-03-15 | 2024-01-12 | 西安邮电大学 | 一种基于稠密边界时空网络的时序行为检测方法 |
CN113486784A (zh) * | 2021-07-02 | 2021-10-08 | 北京航空航天大学 | 一种双阶段的时序动作检测方法、装置、设备和介质 |
CN113486784B (zh) * | 2021-07-02 | 2024-02-13 | 北京航空航天大学 | 一种双阶段的时序动作检测方法、装置、设备和介质 |
CN113255616A (zh) * | 2021-07-07 | 2021-08-13 | 中国人民解放军国防科技大学 | 一种基于深度学习的视频行为识别方法 |
CN113537164A (zh) * | 2021-09-15 | 2021-10-22 | 江西科技学院 | 一种实时的动作时序定位方法 |
CN113537164B (zh) * | 2021-09-15 | 2021-12-07 | 江西科技学院 | 一种实时的动作时序定位方法 |
CN114882403B (zh) * | 2022-05-05 | 2022-12-02 | 杭州电子科技大学 | 基于渐进注意力超图的视频时空动作定位方法 |
CN114882403A (zh) * | 2022-05-05 | 2022-08-09 | 杭州电子科技大学 | 基于渐进注意力超图的视频时空动作定位方法 |
CN114676739A (zh) * | 2022-05-30 | 2022-06-28 | 南京邮电大学 | 一种基于Faster-RCNN的无线信号的时序动作检测和识别方法 |
CN114783069A (zh) * | 2022-06-21 | 2022-07-22 | 中山大学深圳研究院 | 基于步态识别对象的方法、装置、终端设备及存储介质 |
CN114783069B (zh) * | 2022-06-21 | 2022-11-08 | 中山大学深圳研究院 | 基于步态识别对象的方法、装置、终端设备及存储介质 |
CN117809228A (zh) * | 2024-02-27 | 2024-04-02 | 四川省川建勘察设计院有限公司 | 一种穿心锤锤击数统计方法 |
CN117809228B (zh) * | 2024-02-27 | 2024-04-30 | 四川省川建勘察设计院有限公司 | 一种穿心锤锤击数统计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108399380A (zh) | 一种基于三维卷积和Faster RCNN的视频动作检测方法 | |
Zhang et al. | A bi-directional message passing model for salient object detection | |
Yang et al. | Exploring temporal preservation networks for precise temporal action localization | |
CN106778854B (zh) | 基于轨迹和卷积神经网络特征提取的行为识别方法 | |
CN106650806B (zh) | 一种用于行人检测的协同式深度网络模型方法 | |
CN110472604B (zh) | 一种基于视频的行人与人群行为识别方法 | |
CN109961034A (zh) | 基于卷积门控循环神经单元的视频目标检测方法 | |
CN111914937A (zh) | 一种轻量化改进目标检测方法及检测系统 | |
CN108805083A (zh) | 单阶段的视频行为检测方法 | |
CN110428428A (zh) | 一种图像语义分割方法、电子设备和可读存储介质 | |
CN110163127A (zh) | 一种由粗到细的视频目标行为识别方法 | |
CN113536922A (zh) | 一种加权融合多种图像任务的视频行为识别方法 | |
Liu et al. | Learning human pose models from synthesized data for robust RGB-D action recognition | |
CN104200203B (zh) | 一种基于动作字典学习的人体动作检测方法 | |
Guan et al. | Atrous faster R-CNN for small scale object detection | |
CN114419732A (zh) | 基于注意力机制优化的HRNet人体姿态识别方法 | |
CN109978074A (zh) | 基于深度多任务学习的图像美感和情感联合分类方法及系统 | |
Xiao et al. | Overview: Video recognition from handcrafted method to deep learning method | |
Gkalelis et al. | ViGAT: Bottom-up event recognition and explanation in video using factorized graph attention network | |
Park et al. | Binary dense sift flow based two stream CNN for human action recognition | |
Sujatha et al. | Enhancing Object Detection with Mask R-CNN: A Deep Learning Perspective | |
Li et al. | Complete video-level representations for action recognition | |
Mi et al. | Dual-branch network with a subtle motion detector for microaction recognition in videos | |
CN110298232A (zh) | 一种基于双向特征筛选网络的遥感场景识别方法 | |
CN113537164B (zh) | 一种实时的动作时序定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180814 |