CN111259779A - 一种基于中心点轨迹预测的视频动作检测方法 - Google Patents
一种基于中心点轨迹预测的视频动作检测方法 Download PDFInfo
- Publication number
- CN111259779A CN111259779A CN202010033743.4A CN202010033743A CN111259779A CN 111259779 A CN111259779 A CN 111259779A CN 202010033743 A CN202010033743 A CN 202010033743A CN 111259779 A CN111259779 A CN 111259779A
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- motion
- central point
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 137
- 230000033001 locomotion Effects 0.000 title claims abstract description 136
- 239000013598 vector Substances 0.000 claims abstract description 27
- 239000003999 initiator Substances 0.000 claims abstract description 4
- 230000009471 action Effects 0.000 claims description 97
- 238000012549 training Methods 0.000 claims description 51
- 238000006073 displacement reaction Methods 0.000 claims description 39
- 238000000034 method Methods 0.000 claims description 36
- 230000004927 fusion Effects 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 22
- 230000004913 activation Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 21
- 230000003287 optical effect Effects 0.000 claims description 21
- 238000012360 testing method Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 7
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims 2
- 238000010586 diagram Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
一种基于中心点轨迹预测的视频动作检测方法,在视频时空动作检测中,将每个动作实例视为动作发起者中心点移动的轨迹,轨迹由中间帧动作的中心点和其他帧动作的中心点相对于中间帧中心点的运动矢量来表示,首先对视频帧序列提取特征,得到中间帧的中心点位置预测及动作类别预测,然后得到中间帧的中心点到其他帧中心点运动轨迹,最后生成各帧中心点的检测框,即得到位置定位,由此得到动作的类别和定位结果,完成视频片段上的时空检测任务。本发明提出了一种无锚框的视频动作检测方法,在视频中沿时序上完成动作的时空定位和分类任务,相比于现有技术带锚框的视频动作检测更加精简高效,体现了鲁棒性和高效性,同时具有很强的扩展性和移植性。
Description
技术领域
本发明属于计算机软件技术领域,涉及时空动作检测技术,具体为一种基于中心点轨迹预测的视频动作检测方法。
背景技术
时空动作检测是计算机视觉领域的一个重要研究任务,其目的是对视频中的动作实例进行分类,并在空间和时间上对其完成定位。时空动作检测在现实场景中有广泛的应用前景,如视频监控和群组动作检测。目前常用的方法是在每一帧上独立使用动作检测器完成逐帧检测,然后使用动态规划或目标跟踪按时序连接单帧的检测结果。这些方法在进行单帧检测时不能有效利用时间维度的信息,因此在实际进行动作检测时效果不佳。为了解决这个问题,一些研究工作试图通过利用短期时序信息进行小时间片内的动作检测,这些方法输入一串连续的视频帧并输出检测到的动作切片,即实现一个较短的沿时序上连续动作包围框序列,此类检测方案巧妙利用连续帧内的动作切片为基于视频的动作检测提供了一种更自然、更有效的解决方案,并得到了良好的效果。
在上述研究的基础上,现有的视频时空动作检测方法与目前主流的图像领域目标检测方法如Faster R-CNN和SSD密切相关,但它们往往需要大量预先手工设置好的锚框。虽然基于锚框的目标检测器已经在图像领域取得了显著的成功,但它们仍然存在一些关键问题,如对超参数比较敏感,包括初始化锚框的大小、锚框的长宽比和多种锚框的比例等,以及由于密集设置的锚框而导致的检测效率低下。将这些基于锚框的检测框架从图像检测领域应用到视频动作检测领域时,上述问题将更加严重。随着视频时间的增长,在一个视频内出现的锚框数量将急剧增加,这给神经网络的训练和测试带来了很大的挑战。
发明内容
本发明要解决的问题是:现有的时空动作检测器往往是借助图像领域中带锚框的目标检测框架来实现的,但在视频领域中锚框的数量会成为限制时空动作检测器性能和速度的瓶颈。
本发明的技术方案为:一种基于中心点轨迹预测的视频动作检测方法,在视频时空动作检测中,将每个动作实例视为动作发起者中心点移动的轨迹,一组运动序列的轨迹由中间帧动作的中心点和其他帧动作的中心点相对于中间帧中心点的运动矢量来表示,首先对视频帧序列提取特征,得到中间帧的中心点位置预测及动作类别预测,然后得到中间帧的中心点到其他帧中心点运动轨迹,最后生成各帧中心点的检测框,即得到位置定位,由此得到动作的类别和定位结果,完成视频片段上的时空检测任务。
作为优选方式,首先将一组连续的视频帧输入到二维特征提取网络进行特征提取,然后将提取的特征输入三个分支进行进一步检测,包括(1)中心点预测分支:用于检测一组视频序列的中间帧的动作实例的中心和类别;(2)位移预测分支:用于估计当前帧动作中心点相对于中间帧中心点的运动矢量;(3)检测框回归分支:用于单独预测每帧视频帧动作中心点处的包围框大小;
三个分支相互协作:通过中心点预测分支定位到中间帧运动者的中心点,然后根据位移预测分支估计运动者的移动,从而将中间帧中心点移动到其他帧形成一条中心点运动轨迹,并根据检测框回归分支在每帧的中心点生成检测框,实现整个视频的时空动作检测。
进一步的,本发明还利用匹配算法将多组视频帧连接起来,实现长时间视频的时空动作检测。
作为进一步优选方式,本发明通过神经网络实现,包括生成训练样例阶段、网络配置阶段、训练阶段以及测试阶段:
1)生成训练样例阶段:在视频内取连续K帧做时空动作检测,按时序遍历整个视频,选取在连续K帧内包含完整动作的视频片段做为训练样本;
2)网络配置阶段,形成K帧视频帧内每个动作实例的时空检测结果:
2.1)特征提取网络:使用二维特征提取网络作为特征提取网络,对输入的视频帧序列进行特征提取,步骤1)中的训练样本依次经过特征提取网络得到通道数为T的图像特征序列;
2.2)中心点预测分支:将步骤2.1)中得到的图像特征序列沿着通道方向拼接起来,形成通道数为K*T的融合特征图,将融合特征图输入到一个3*3的卷积层进行时空特征融合,融合后经过ReLu激活层,再通过一个1*1卷积层得到特征图,经过Sigmoid激活层得到最终的热图,得出动作实例在中间帧的中心点位置和动作类别的预测结果;
2.3)位移预测分支:将步骤2.1)中得到的K帧图像特征序列沿着通道方向拼接起来,形成通道数为K*T的融合特征图,将融合特征图输入一个3*3的卷积层进行时空特征融合,再经过ReLu激活层,输入一个1*1卷积层得到运动矢量估计,得到动作实例在每一帧相对于中间帧中心点的位移矢量估计,分别由x方向的位移和y方向的位移组成,经过步骤2.2)和2.3)形成连续K帧内动作实例中心点的运动轨迹;
2.4)检测框回归分支:将步骤2.1)中生成的K帧通道数为T的图像特征序列依次逐帧输入一个3*3的卷积层,经过ReLu激活层然后传入一个1*1的卷积层,得到每一帧在运动实例中心点的检测框;
3)训练阶段:使用Focal Loss监督中心点预测分支,使用L1 Loss监督位移预测分支,使用L1 Loss监督检测框回归分支,三个损失函数按照设定的比例叠加,使用Adam优化器,通过反向传播算法来更新网络参数,不断重复步骤2),直至达到迭代次数;
4)测试阶段:将测试集中的视频片段输入网络,经过步骤2)得到在整个视频中的时空动作检测结果。
进一步的,还包括步骤2.5)后处理阶段,利用匹配算法将多组连续K帧的视频帧连接起来,实现长时间视频的时空动作检测。
本发明还提出一种无锚框的视频动作检测器,称为移动中心检测器MOC-detector,包括计算处理装置,所述计算处理装置中配置有软件程序,所述软件程序被执行时实现上述的视频动作检测方法,实现基于中心点轨迹预测的无锚框视频动作检测,对视频沿时序完成动作的时空定位和分类任务。
本发明在视频中沿时序上完成动作的时空定位和分类任务,将视频中连续帧之间的动作实例建模为一组中心点的运动轨迹。首先,将一组连续的视频帧输入到二维特征提取网络,如DLA34、Resnet18等进行特征提取。然后,我们设计了三个独立的分支:(1)中心点预测分支:检测一组视频序列中间帧动作实例的中心和类别;(2)位移预测分支:估计当前帧动作中心点相对于中间帧中心点的运动矢量;(3)检测框回归分支:单独预测每帧检测中心点处的包围框大小。这种独特的设计可以使三个分支相互协作,产生时空动作检测结果。
本发明与现有技术相比有如下优点
本发明提出了一种无锚框的视频动作检测器,在视频中沿时序上完成动作的时空定位和分类任务,相比于以往带锚框的检测器更加简单高效。
本发明将视频中沿时间维度的动作序列建模为一组动作实例中心点的运动轨迹,将复杂的时空动作检测任务解耦为中间帧中心点预测和位移矢量估计两个部分,简单快捷的得到动作的类别和定位结果。
本发明在视频动作时空定位任务上体现了很好的鲁棒性和高效性,相比于先前带锚框的视频动作检测器更加精简高效,具有很强的扩展性和移植性。
附图说明
图1为本发明的方法原理示意图。
图2为本发明实施例的检测框架图。
图3为本发明实施例特征提取网络DLA34的网络流程示意图。
图4为本发明的中心点预测分支示意图。
图5为本发明提出的位移预测分支示意图。
图6为本发明提出的检测框回归分支示意图。
图7为连续K帧的时空动作检测示意图。
图8为本发明在UCF101-24上的时空动作检测效果图。
具体实施方式
受到最近CornerNet、CenterNet、FOCS等无锚框目标检测器的启发,本发明从另一个视角重新审视了时空动作检测的建模思路。直观来看,运动是视频中的一种自然现象,更本质地描述了人类的行为,时空动作检测可以被简化为运动轨迹的检测。在此分析的基础上,本发明通过将每个动作实例视为动作发起者中心点移动的轨迹,提出了一种新的运动建模思路来完成时空动作检测任务。具体来说,一组运动序列由中间帧动作的中心点和其他帧动作中心点相对于它的运动矢量来表示。为了确定动作实例的空间位置,本发明在每一帧被检测到的中心点上直接回归动作包围框的大小。这种新的检测方案将时空动作检测任务解耦为动作中心点偏移预测和包围框回归两个独立的部分。这种分解利用了动作序列的时空相关性,将复杂的时空动作检测任务分解为更简单的子任务,使整个检测框架变得更简单高效。
如图1所示,在视频时空动作检测中,本发明首先将一组连续的视频帧输入到二维特征提取网络进行特征提取,然后将提取的特征输入三个分支进行进一步检测,包括(1)中心点预测分支:用于检测一组视频序列的中间帧的动作实例的中心和类别;(2)位移预测分支:用于估计当前帧动作中心点相对于中间帧中心点的运动矢量;(3)检测框回归分支:用于单独预测每帧视频帧动作中心点处的包围框大小;三个分支相互协作:通过中心点预测分支定位到中间帧运动者的中心点,然后根据位移预测分支估计运动者的移动,从而将中间帧中心点移动到其他帧形成一条中心点运动轨迹,并根据检测框回归分支在每帧的中心点生成检测框,实现整个视频的时空动作检测。具体实现如下。
总体步骤包括生成训练样例阶段、网络配置阶段、训练阶段以及测试阶段,为方便说明本发明的技术方案,以下将网络配置阶段拆为步骤2)至步骤5),具体包括以下步骤:
1)生成训练样例:预先提取好数据集视频帧存储在硬盘上,并计算两帧之间的光流,分别作为两种模态的输入。在训练集上,对于每一段完整的视频根据动作实例在时空上的标签,从第一帧开始依次选取连续的K帧短视频片段,如果该视频片段中存在动作实例且存在的动作实例的持续时间包含该视频片段,则该视频片段被选为一个训练样本。对于每一个训练样本视频片段,当输入模态为RGB的时候,将对应K帧的RGB图片序列作为输入记为IRGB,当输入模态为光流的时候,对于每一帧我们取从此帧开始连续5帧的光流,将K帧对应的光流序列作为输入记为IFlow。训练时采用随机水平翻转,色彩抖动,分辨率扩张,随机裁剪等操作进行数据增强,并将输入的分辨率统一调整到288*288。因为两个模态的流程相似,下面将输入序列统称为I。K理论上可以设置成视频总长度,但在目前的实际应用中,由于GPU的内存限制,无法设置过大的K,因此在本实施例中将K设为7。
生成训练样例的各个数据具体组成形式为:
1.以RGB图片为输入,训练样本视频片段的帧序列IRGB如下:
IRGB={Img1,Img2,Img3,Img4,Img5,Img6,Img7},
其中Imgi代表训练样本视频片段中对应的第i帧,通道数为3。
2.以光流图片为输入,训练样本视频片段的帧序列IFlow如下:
IFlow={Seg1,Seg2,Seg3,Seg4,Seg5,Seg6,Seg7},
Segi={Fi+0,Fi+1,Fi+2,Fi+3,Fi+4}
其中Segi代表训练样本视频片段中对应的第i帧的光流片段,由连续的五帧光流堆叠而成,通道数为15,{Fi+0,Fi+1,Fi+2,Fi+3,Fi+4}代表训练样本视频片段中对应的第i帧后面开始连续5帧的光流。
2)抽取图像序列特征:使用DLA-34作为基础网络结构对1)生成的输入序列I的每帧进行特征提取,对于连续K帧的图像序列I提取得到特征序列样本片段中第i帧的特征为其中W为输入图片分辨率的宽,为288,H为输入图片分辨率的高,为288,R为特征提取的下采样率,在我们的框架中设为4,所以每帧的输出特征分辨率为72*72,K为输入序列包含的帧的数目,设为7。图像序列特征具体计算方式为:
1.DLA-34对输入序列I进行特征提取得到特征序列f如下:
f={f1,f2,f3,f4,f5,f6,f7}
其中fi是为第i帧提取的特征。
2.以RGB图片为输入的DLA-34网络为BRGB,输入通道数为3。
其中Ii代表输入序列中第i帧,在这里是该帧对应的单帧RGB图片。
3.以光流为输入的DLA-34网络为BFlow,输入通道数为15。
其中Ii代表输入序列中第i帧,在这里是从该帧开始连续五帧光流图片的堆叠。
3)中心点预测分支生成中间帧的中心点及类别:本发明使用连续7帧的输入视频序列预测中间帧动作实例的中心点位置和类别,将中间帧的动作实例用简单中心点表示,不同于常规使用的锚框表示方法,采用了一种更为简单有效的无锚框表示,不仅简化了动作建模复杂度,而且提升了处理速度,更有效地实现了动作实例建模。在预测中间帧动作实例的中心点时,不仅需要预测中心点的类别,同时也要预测中心点的空间位置,在步骤3)中将拼接后通道数为7*64的特征图输入3*3的卷积层得到融合7帧时间信息和空间信息的特征图,输出通道数为256,再依次经过ReLU激活层、1*1卷积层和Sigmoid层得到通道数为C的中心点预测图,C代表动作类别。
首先沿通道将2)生成的K张特征图拼接起来,形成H/4*W/4*(K*64)的特征图Fcenter,包含了连续K帧的空间信息和时序信息,再使用3*3卷积层ConvL1进行特征融合,得到的H/4*W/4*256的融合特征图,经过ReLu激活层,将其传入1*1卷积层ConvL2得到H/4*W/4*C的特征图,然后经过Sigmoid激活层得到最终的热图 其中C为动作类别的数目,UCF101-24中为24。具体计算如下:
1.生成连续7帧的时空特征Fcenter如下:
我们记沿通道方向拼接特征的操作为Concat,fi为2)中生成的单帧的特征。
2.生成用于估计中间帧的中心点位置及类别的热图如下:
我们记中心点预测分支的第一层卷积为ConvL1,ReLu和Sigmoid代表了激活函数,中心点预测分支的第二层卷积为ConvL2。
在训练的过程中,这个分支使用Focal Loss产生了一个损失函数项lcenter,用高斯核函数生成了热图监督信号本发明不是仅仅将动作实例中心点的监督信号置为1,而是通过高斯核函数给中心点附近的点赋值,越接近中心点的位置值越大,对应在损失函数中的惩罚越小。损失函数lcenter如下:
α=2
β=4
其中n为视频帧序列中动作实例的个数,α和β是Focal损失函数的超参数,代表了在坐标(x,y)处为动作类别c的实例中心的预测概率,其中Lx,y,c代表了根据训练集的时空标签设计的热图标签L在(x,y)处为动作类别c的实例中心的监督信号。
在训练过程中生成热图的监督信号L具体计算如下:
在生成时空检测结果的过程中,对生成的热图使用3*3的最大池化操作筛选出局部响应最大的点,最终按照得分筛选出100个得分最高的点作为候选中心点,代表了这组视频序列中间帧动作实例的类别预测和对应中心点的位置预测。
4)位移预测分支生成中心点轨迹:首先沿通道将2)生成的K张特征图拼接起来,形成H/4*W/4*(K*64)的特征图Fmovement,包含了连续K帧的空间信息和时序信息,再使用3*3卷积层ConvM1进行特征融合,得到的H/4*W/4*256的融合特征图,经过ReLu激活层,将其传入1*1卷积层ConvM2得到H/4*W/4*(K*2)的运动矢量估计K*2分别表示K张视频帧相对中间帧每个位置x方向和y方向的位移矢量预测。
位移预测分支预测每一帧动作实例中心点相对于中间帧动作实例中心点的位移矢量估计,包括x方向和y方向的位移;不同于常规使用的锚框表示方法将7帧内连续的动作实例建模为一组沿时间轴的锚框合集,本发明基于位移矢量估计将连续的动作实例建模为一组移动的动作实例中心点,简化了运动建模的表示方法,同时提升了动作时空检测的效率。在预测位移矢量估计时,将拼接后通道数为7*64的特征图输入3*3的卷积层得到融合7帧时间信息和空间信息的特征图,输出通道数为256,再依次经过ReLU激活层、1*1卷积层得到通道数为2*7的位移矢量估计图,“2*7”中的2表示沿x方向和y方向的位移估计,连续7帧的x方向和y方向位移矢量估计均由网络学习得出。具体计算方式如下:
1.生成连续7帧的时空特征Fmovement如下:
我们记沿通道方向拼接特征的操作为Concat,fi为2)中生成的单帧的特征。
2.生成用于估计中中心点轨迹的具体计算方式如下:
记位移预测分支的第一层卷积为ConvM1,ReLu代表了激活函数,位移预测分支的第二层卷积为ConvM2。
在训练过程中,这个分支使用L1 Loss产生了一个损失函数项lmovement,在这个分支只监督正样例,我们为每个动作实例设计了一个相对于中心帧中心点位置位移的监督信号mi,与预测位移求L1距离作为损失惩罚。损失函数lmovement如下:
在训练过程中生成动作实例位移监督信号mi具体计算如下:
在生成时空检测结果的过程中,从3)中心点预测分支预测的中心点加上对应位置的x和y位移矢量可以得到当前帧动作实例的中心点,由此形成这组视频帧序列中动作实例中心点的运动轨迹。
5)检测框回归分支生成各帧中心点的检测框:由于检测框的空间位置回归不需要使用时序信息,因此不需要沿时间维度将特征进行拼接,而是逐帧进行回归操作,对于形状为H/4*W/4*64的单帧特征图Fbox,为了保证三个分支的平衡,同样先经过一个3*3卷积FB1进行空间特征融合,经过ReLu激活层然后传入1*1卷积FB2得到H/4*W/4*2的检测框长宽预测结果。
检测框回归分支基于每一帧预测的动作实例中心点独立生成检测框;不同于常规使用的锚框表示方法对预先设定好的基础锚框进行调整,本发明由中心点位置回归检测框的长度和宽度,直接在每一帧中心点位置独立生成包含动作实例的检测框,相比于基于锚框的方法更加灵活,同时需要回归的参数量减少一倍(基于锚框的方法需要调整基础锚框的长宽比例和x方向y方向偏移四个参数,而本发明只需要回归长宽两个参数),提升了时空动作检测的效率。在检测框回归过程中,将视频序列中每一帧通道数为64的特征图输入3*3的卷积层进行特征embedding,输出通道数为256,再依次经过ReLU激活层、1*1卷积层得到通道数为2的检测框长宽预测,2对应了检测框长度预测和宽度预测,在检测框回归过程中对每一帧独立进行检测框的长宽预测,只考虑当前帧的空间信息而不需要考虑时间信息。具体计算方式如下:
1.生成单帧的时空特征Fbox如下:
检测框回归分支逐帧进行回归操作,fi为2)中生成的单帧的特征,Fbox为视频片段中
第i帧的特征。
Fbox=fi
在训练过程中,这个分支使用L1 Loss产生了一个损失函数项lbbox,在这个分支只监督正样例,我们为每个动作实例的每帧设计了一个检测框大小的监督信号与预测位移求L1距离作为损失惩罚。损失函数lbbox如下:
在生成时空检测结果的过程中,根据4)中得到的每帧的中心点位置读取长宽生成检测框,由至此完成了连续K帧视频的时空动作检测,通过后处理可以将同一视频内多组K帧的检测结果连接起来,形成贯穿整个视频的时空动作检测结果。
6)后处理:将MOC-detector在同一视频中检测出来视频片段的结果连接起来,以此获得整个视频上的时空检测结果。原则上,我们提出的MOC-detector可以将K设置成视频总长度来得到上述检测结果。但在实际应用中,由于GPU的内存限制,我们无法设置过大的K。因此,一种常见的方法是在有限的视频片段内(在我们的系统中K=7)做动作检测,并利用连接算法将所有的短视频片段的结果连接起来,以此作为整个视频的时空检测结果。
7)训练阶段:,使用Focal Loss作为中心点预测分支的损失函数,使用L1 Loss监督位移预测分支,使用L1 Loss监督检测框回归分支,在训练时使用真实标记监督三个分支独立完成训练,三个分支的loss按照1:1:0.1加权相加,对总体loss使用Adam优化器进行优化,不断重复步骤2)至步骤5),直到达到迭代次数。训练损失函数具体计算如下:
l=lcenter+almovement+blbbox
a=1
b=0.1
8)测试阶段:测试集输入数据不进行数据增强直接使用双线性插值方式变形为288*288,并作归一化处理,在测试时通过水平翻转提升测试效果,将各个分支输入视频的RGB特征和光流特征融合,提升测试效果。
下面通过具体实施例说明本发明的实施。
本发明提出了一种基于中心点轨迹预测的视频动作检测方法。经过在UCF101-24时空检测数据集上的训练和测试达到了高准确性,具体使用Python3编程语言,Pytorch0.4.1深度学习框架实施。
图2是本发明实施例所使用的系统框架图,具体实施步骤如下:
1)训练样例生成阶段:预先提取好UCF101-24视频帧存储在硬盘上,并计算两帧之间的光流,分别作为两种模态的输入。在训练集上,对于每一段完整的视频根据动作实例在时空上的标签,从第一帧开始依次选取连续的7帧短视频片段,如果该视频片段中存在动作实例且存在的动作实例的持续时间包含该视频片段,则该视频片段被选为一个训练样本。对于每一个训练样本视频片段,当输入模态为RGB的时候,将对应7帧的RGB图片序列作为输入,当输入模态为光流的时候,对于每一帧我们取从此帧开始连续5帧的光流,将7帧对应的光流序列作为输入。训练时我们采用了随机水平翻转,色彩抖动,分辨率扩张,随机裁剪等操作进行数据增强增加训练样本,并通过双线性插值将输入的分辨率统一调整到288*288,将得到的图片序列减去COCO数据集三通道的均值并除以三通道的标准差实现归一化,最后转换为Tensor的形式,按批处理并打乱数据加载次序。
2)特征提取网络的配置阶段,使用DLA-34作为基础网络结构,网络中载入COCO目标检测数据集中预训练模型的参数,如图3所示对DLA-34网络进行修改,原本的DLA-34网络为了适应检测任务采用了上采样结构将输出特征图由原先的1/32提升至1/4,在网络部分上采样层中加入可变形卷积以增强感受野,同时为了增强网络对不同尺度物体的判别能力,将高层特征上采样到输出特征图中。
一组连续的K帧视频帧,经过特征提取网络DLA-34得到对应的K个特征图,当输入为单帧RGB图片时,网络输入大小为H*W*3,当输入为五帧连续光流图片堆叠时,网络输入大小为H*W*15,输出特征图为H/4*W/4*64(对于DLA34来说,图中R=4),至此总共得到K张特征图对应K张输入的连续视频帧。将这些特征图分别送入三个检测分支中得到时空动作检测的结果。
3)中心点预测分支预测中间帧动作实例的类别以及该动作实例中心点的位置,如图4所示,首先沿通道将K张特征图拼接起来,形成H/4*W/4*(K*64)的特征图,包含了连续K帧的空间信息和时序信息,再使用3*3卷积层进行特征融合,得到的H/4*W/4*256的融合特征图,通过ReLu激活层后,将其传入1*1卷积层得到H/4*W/4*C的特征图,经过Sigmoid激活层后得到热图,然后使用3*3的最大池化操作筛选出局部响应最大的点,最终按照得分筛选出100个得分最高的点作为候选中心点,代表了这组视频序列中间帧动作实例的类别预测和对应中心点的位置预测。
4)位移预测分支预测每一帧动作实例中心点与中心点预测分支得到的中间帧动作实例中心点的位移矢量,如图5所示,先沿通道将K张特征图拼接起来,形成H/4*W/4*(K*64)的特征图,包含了连续K帧的空间信息和时序信息,再使用3*3卷积层进行特征融合,得到的H/4*W/4*256的融合特征图,通过ReLu激活层后,将其传入1*1卷积层得到H/4*W/4*(K*2)的运动矢量估计,K*2分别表示K张视频帧相对中间帧每个位置x方向和y方向的位移矢量预测,从3)中心点预测分支预测的中心点加上对应位置的x和y位移矢量可以得到当前帧动作实例的中心点,由此形成这组视频帧中动作实例中心点的运动轨迹。
5)检测框回归分支基于上述步骤在每一帧动作实例的中心点回归该动作检测框的长宽以完成动作的空间定位,如图6所示,由于检测框的空间位置回归不需要使用时序信息,因此不需要沿时间维度将特征进行拼接,而是逐帧进行回归操作,对于单帧特征图H/4*W/4*64,为了保证三个分支的平衡,同样先经过一个3*3卷积进行空间特征融合得到H/4*W/4*256的特征图,经过ReLu激活层,然后传入1*1卷积得到H/4*W/4*2的检测框长宽预测结果。从4)得到的当前帧动作实例的中心点位置读取检测框的长宽以生成检测框,至此完成了连续K帧视频的时空动作检测,如图7所示。
6)后处理阶段:对于一段时间较长的视频,根据上述方法分为多个连续7帧的视频帧序列处理后,将其连接起来。首先,将同一个视频的所有检测结果按时序排列,并使用非极大值抑制算法NMS处理每个短视频片段的结果,最终在每个短视频片段内为每个动作类别保留10个得分最高的候选项,称之为Link。然后以贪婪的方式扩展这些Link,首先选取一个得分最高的Link,Link的分数是由Link中所有检测框的得分平均而得到,将得分最高的Link作为初始化Link,然后选取与该Link所在的动作切片相邻的匹配Link,匹配Link应该满足三个条件:a.该Link暂时没有被其他Link所连接。b.该Link在动作切片内得分最高(3)两者重叠部分的检测框交并比IOU大于0.5。c.如果在连续K个动作切片内没有匹配项,则认为这个Link匹配结束。每个匹配结束的Link就作为整个视频中某个特定动作的时空检测结果。
7)训练阶段,使用Focal Loss作为中心点预测分支的损失函数,使用L1 Loss监督位移预测分支,使用L1 Loss监督检测框回归分支,在训练时使用真实标记监督三个分支独立完成训练,三个分支的loss按照1:1:0.1加权相加,对总体loss使用Adam优化器进行优化,初始学习率为5e-4,当loss平稳时降低10倍学习率,在8块TITIAN Xp GPU上完成训练,单卡BatchSize设置为15,总的训练轮数不超过8轮。
8)测试阶段,测试集输入数据没有进行数据增强,直接使用双线性插值方式变形为288*288,将每帧图像减去COCO数据集三通道各自均值并除以三通道的标准差实现归一化,在测试时通过水平翻转提升测试效果,将输入视频的RGB特征和光流特征融合,时间序列采样帧设置成K=7,在UCF101-24数据集上,frameAP@0.5达到77.8,videoAP@0.2达到81.8,videoAP@0.5达到53.9,videoAP@0.75达到28.5,videoAP@0.5:0.95达到27.7,在该数据集的效果样例如图8所示。
Claims (10)
1.一种基于中心点轨迹预测的视频动作检测方法,其特征是在视频时空动作检测中,将每个动作实例视为动作发起者中心点移动的轨迹,一组运动序列的轨迹由中间帧动作的中心点和其他帧动作的中心点相对于中间帧中心点的运动矢量来表示,首先对视频帧序列提取特征,得到中间帧的中心点位置预测及动作类别预测,然后得到中间帧的中心点到其他帧中心点运动轨迹,最后生成各帧中心点的检测框,即得到位置定位,由此得到动作的类别和定位结果,完成视频片段上的时空检测任务。
2.根据权利要求1所述的一种基于中心点轨迹预测的视频动作检测方法,其特征是首先将一组连续的视频帧输入到二维特征提取网络进行特征提取,然后将提取的特征输入三个分支进行进一步检测,包括(1)中心点预测分支:用于检测一组视频序列的中间帧的动作实例的中心和类别;(2)位移预测分支:用于估计当前帧动作中心点相对于中间帧中心点的运动矢量;(3)检测框回归分支:用于单独预测每帧视频帧动作中心点处的包围框大小;
三个分支相互协作:通过中心点预测分支定位到中间帧运动者的中心点,然后根据位移预测分支估计运动者的移动,从而将中间帧中心点移动到其他帧形成一条中心点运动轨迹,并根据检测框回归分支在每帧的中心点生成检测框,实现整个视频的时空动作检测。
3.根据权利要求1所述的一种基于中心点轨迹预测的视频动作检测方法,其特征是利用匹配算法将多组视频帧连接起来,实现长时间视频的时空动作检测。
4.根据权利要求1或2所述的一种基于中心点轨迹预测的视频动作检测方法,其特征是通过神经网络实现,包括生成训练样例阶段、网络配置阶段、训练阶段以及测试阶段:
1)生成训练样例阶段:在视频内取连续K帧做时空动作检测,按时序遍历整个视频,选取在连续K帧内包含完整动作的视频片段做为训练样本;
2)网络配置阶段,形成K帧视频帧内每个动作实例的时空检测结果:
2.1)特征提取网络:使用二维特征提取网络作为特征提取网络,对输入的视频帧序列进行特征提取,步骤1)中的训练样本依次经过特征提取网络得到通道数为T的图像特征序列;
2.2)中心点预测分支:将步骤2.1)中得到的图像特征序列沿着通道方向拼接起来,形成通道数为K*T的融合特征图,将融合特征图输入到一个3*3的卷积层进行时空特征融合,融合后经过ReLu激活层,再通过一个1*1卷积层得到特征图,经过Sigmoid激活层得到最终的热图,得出动作实例在中间帧的中心点位置和动作类别的预测结果;
2.3)位移预测分支:将步骤2.1)中得到的K帧图像特征序列沿着通道方向拼接起来,形成通道数为K*T的融合特征图,将融合特征图输入一个3*3的卷积层进行时空特征融合,再经过ReLu激活层,输入一个1*1卷积层得到运动矢量估计,得到动作实例在每一帧相对于中间帧中心点的位移矢量估计,分别由x方向的位移和y方向的位移组成,经过步骤2.2)和2.3)形成连续K帧内动作实例中心点的运动轨迹;
2.4)检测框回归分支:将步骤2.1)中生成的K帧通道数为T的图像特征序列依次逐帧输入一个3*3的卷积层,经过ReLu激活层然后传入一个1*1的卷积层,得到每一帧在运动实例中心点的检测框;
3)训练阶段:使用Focal Loss监督中心点预测分支,使用L1 Loss监督位移预测分支,使用L1 Loss监督检测框回归分支,三个损失函数按照设定的比例叠加,使用Adam优化器,通过反向传播算法来更新网络参数,不断重复步骤2),直至达到迭代次数;
4)测试阶段:将测试集中的视频片段输入网络,经过步骤2)得到在整个视频中的时空动作检测结果。
5.根据权利要求4所述的一种基于中心点轨迹预测的视频动作检测方法,其特征是还包括步骤2.5)后处理阶段,利用匹配算法将多组连续K帧的视频帧连接起来,实现长时间视频的时空动作检测。
6.根据权利要求4所述的一种基于中心点轨迹预测的视频动作检测方法,其特征是步骤1)中训练样本包括连续K帧的RGB和光流图像,当输入步骤2)网络的模态为RGB的时候,将对应K帧的RGB图片序列作为输入记为IRGB,当输入步骤2)网络的模态为光流的时候,对于每一帧取从此帧开始连续5帧的光流,将K帧对应的光流序列作为输入记为IFlow。
10.一种基于中心点轨迹预测的视频动作移动中心检测器,其特征是包括计算处理装置,所述计算处理装置中配置有软件程序,所述软件程序被执行时实现权利要求1~9任一项所述的视频动作检测方法,实现基于中心点轨迹预测的无锚框视频动作检测,对视频沿时序完成动作的时空定位和分类任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033743.4A CN111259779B (zh) | 2020-01-13 | 2020-01-13 | 一种基于中心点轨迹预测的视频动作检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033743.4A CN111259779B (zh) | 2020-01-13 | 2020-01-13 | 一种基于中心点轨迹预测的视频动作检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259779A true CN111259779A (zh) | 2020-06-09 |
CN111259779B CN111259779B (zh) | 2023-08-01 |
Family
ID=70950465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010033743.4A Active CN111259779B (zh) | 2020-01-13 | 2020-01-13 | 一种基于中心点轨迹预测的视频动作检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259779B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085717A (zh) * | 2020-09-04 | 2020-12-15 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112084874A (zh) * | 2020-08-11 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种物体检测方法、装置及终端设备 |
CN112183395A (zh) * | 2020-09-30 | 2021-01-05 | 深兰人工智能(深圳)有限公司 | 基于多任务学习神经网络的道路场景识别方法和系统 |
CN113158723A (zh) * | 2020-12-25 | 2021-07-23 | 神思电子技术股份有限公司 | 一种端到端的视频动作检测定位系统 |
CN113345061A (zh) * | 2021-08-04 | 2021-09-03 | 成都市谛视科技有限公司 | 动作补全模型的训练方法、装置、补全方法、设备和介质 |
CN113837143A (zh) * | 2021-10-21 | 2021-12-24 | 广州微林软件有限公司 | 一种动作识别方法 |
CN114463681A (zh) * | 2022-02-10 | 2022-05-10 | 天津大学 | 一种基于视频监控平台的火灾检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951834A (zh) * | 2017-03-03 | 2017-07-14 | 沈阳航空航天大学 | 一种基于养老机器人平台的摔倒动作检测方法 |
CN108805083A (zh) * | 2018-06-13 | 2018-11-13 | 中国科学技术大学 | 单阶段的视频行为检测方法 |
US20190102908A1 (en) * | 2017-10-04 | 2019-04-04 | Nvidia Corporation | Iterative spatio-temporal action detection in video |
US20190384985A1 (en) * | 2017-09-15 | 2019-12-19 | Tencent Technology (Shenzhen) Company Limited | Video classification method, information processing method, and server |
-
2020
- 2020-01-13 CN CN202010033743.4A patent/CN111259779B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106951834A (zh) * | 2017-03-03 | 2017-07-14 | 沈阳航空航天大学 | 一种基于养老机器人平台的摔倒动作检测方法 |
US20190384985A1 (en) * | 2017-09-15 | 2019-12-19 | Tencent Technology (Shenzhen) Company Limited | Video classification method, information processing method, and server |
US20190102908A1 (en) * | 2017-10-04 | 2019-04-04 | Nvidia Corporation | Iterative spatio-temporal action detection in video |
CN108805083A (zh) * | 2018-06-13 | 2018-11-13 | 中国科学技术大学 | 单阶段的视频行为检测方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112084874A (zh) * | 2020-08-11 | 2020-12-15 | 深圳市优必选科技股份有限公司 | 一种物体检测方法、装置及终端设备 |
CN112084874B (zh) * | 2020-08-11 | 2023-12-29 | 深圳市优必选科技股份有限公司 | 一种物体检测方法、装置及终端设备 |
CN112085717A (zh) * | 2020-09-04 | 2020-12-15 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112085717B (zh) * | 2020-09-04 | 2024-03-19 | 厦门大学 | 一种用于腹腔镜手术的视频预测方法及其系统 |
CN112183395A (zh) * | 2020-09-30 | 2021-01-05 | 深兰人工智能(深圳)有限公司 | 基于多任务学习神经网络的道路场景识别方法和系统 |
CN113158723A (zh) * | 2020-12-25 | 2021-07-23 | 神思电子技术股份有限公司 | 一种端到端的视频动作检测定位系统 |
CN113158723B (zh) * | 2020-12-25 | 2022-06-07 | 神思电子技术股份有限公司 | 一种端到端的视频动作检测定位系统 |
WO2022134655A1 (zh) * | 2020-12-25 | 2022-06-30 | 神思电子技术股份有限公司 | 一种端到端的视频动作检测定位系统 |
CN113345061A (zh) * | 2021-08-04 | 2021-09-03 | 成都市谛视科技有限公司 | 动作补全模型的训练方法、装置、补全方法、设备和介质 |
CN113837143A (zh) * | 2021-10-21 | 2021-12-24 | 广州微林软件有限公司 | 一种动作识别方法 |
CN114463681A (zh) * | 2022-02-10 | 2022-05-10 | 天津大学 | 一种基于视频监控平台的火灾检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111259779B (zh) | 2023-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259779B (zh) | 一种基于中心点轨迹预测的视频动作检测方法 | |
Hossain et al. | Crowd counting using scale-aware attention networks | |
CN110472531B (zh) | 视频处理方法、装置、电子设备及存储介质 | |
Liu et al. | Leveraging unlabeled data for crowd counting by learning to rank | |
Wang et al. | Video salient object detection via fully convolutional networks | |
Chaudhuri et al. | Joint face detection and facial motion retargeting for multiple faces | |
US20180114071A1 (en) | Method for analysing media content | |
Liu et al. | The emergence of objectness: Learning zero-shot segmentation from videos | |
CN110390294B (zh) | 一种基于双向长短期记忆神经网络的目标跟踪方法 | |
KR20210108044A (ko) | 디지털 트윈 기술을 위한 영상 분석 시스템 | |
Pavel et al. | Recurrent convolutional neural networks for object-class segmentation of RGB-D video | |
Pavel et al. | Object class segmentation of RGB-D video using recurrent convolutional neural networks | |
US20240119697A1 (en) | Neural Semantic Fields for Generalizable Semantic Segmentation of 3D Scenes | |
Liu et al. | ACDnet: An action detection network for real-time edge computing based on flow-guided feature approximation and memory aggregation | |
CN111052128A (zh) | 用于检测和定位视频中的对象的描述符学习方法 | |
Wilson et al. | Avot: Audio-visual object tracking of multiple objects for robotics | |
Ghatak et al. | GAN based efficient foreground extraction and HGWOSA based optimization for video synopsis generation | |
Aldhaheri et al. | MACC Net: Multi-task attention crowd counting network | |
Mishra et al. | Anomaly detection in surveillance videos using deep autoencoder | |
Du et al. | Adaptive visual interaction based multi-target future state prediction for autonomous driving vehicles | |
CN111508000A (zh) | 基于参数空间噪声网络的深度强化学习目标跟踪方法 | |
Ttito et al. | Where are the people? a multi-stream convolutional neural network for crowd counting via density map from complex images | |
CN113920170A (zh) | 结合场景上下文和行人社会关系的行人轨迹预测方法、系统及存储介质 | |
Wang et al. | Are you speaking: Real-time speech activity detection via landmark pooling network | |
Teoh et al. | Fast Regression Convolutional Neural Network for Visual Crowd Counting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |