CN109543590B - 一种基于行为关联度融合特征的视频人体行为识别算法 - Google Patents

一种基于行为关联度融合特征的视频人体行为识别算法 Download PDF

Info

Publication number
CN109543590B
CN109543590B CN201811368213.4A CN201811368213A CN109543590B CN 109543590 B CN109543590 B CN 109543590B CN 201811368213 A CN201811368213 A CN 201811368213A CN 109543590 B CN109543590 B CN 109543590B
Authority
CN
China
Prior art keywords
video
track
association degree
behavior
video frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811368213.4A
Other languages
English (en)
Other versions
CN109543590A (zh
Inventor
李奥
顾佳良
衣杨
朱艺
周小峰
沈金龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201811368213.4A priority Critical patent/CN109543590B/zh
Publication of CN109543590A publication Critical patent/CN109543590A/zh
Application granted granted Critical
Publication of CN109543590B publication Critical patent/CN109543590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于行为关联度融合特征的视频人体行为识别算法,本发明在考虑视频帧之间时序关系的基础上,通过分别定义轨迹和视频帧与目标行为之间的关联度,突出了更具表达力的特征在形成视频表示过程中的重要性,并且与基于时间分割网络得到的视频表示进行融合,得到更具判别力的视频表示,有利于更有效地识别自然场景下视频中的人体行为。

Description

一种基于行为关联度融合特征的视频人体行为识别算法
技术领域
本发明涉及计算机视觉学习领域,更具体的,涉及一种基于行为关联度融合特征的视频人体行为识别算法。
背景技术
在人体行为识别的研究中,局部特征对背景噪声、光照变化和局部遮挡等干扰具有较好的鲁棒性,其中轨迹特征包含了丰富的与人体行为相关的时空域信息,受到了很多研究者的青睐。然而,虽然改进密集轨迹中去除了摄像机的运动,但其仍包含属于背景区域和非运动区域的轨迹。研究在密集轨迹中过滤属于低关联区域的轨迹来进行轨迹提纯,能够在一定程度上提升动作识别的准确率,但是合理的过滤阈值难以确定。
显著性图谱可以突出场景中的前景物体并且同时抑制背景信息,静态显著性图谱可以有效的利用视频帧的静态信息,然而,在视频中的动态信息对于人体行为的识别具有重要的作用,但是静态显著性图谱却忽略了视频帧的动态信息。
由于视频数据的多变性和复杂性,对跨越整个视频的时空演化信息进行建模一直是一项具有挑战性的工作。基于排序的时空演化信息的方法虽然能够捕获到视频中丰富的时间维度上的演化信息,但是其对具有高行为关联度的特征和具有较低行为关联度的特征在视频表示中不加区别地进行对待,会降低人体行为识别的准确率。
发明内容
本发明涉及一种基于行为关联度融合特征的视频人体行为识别算法,本发明在考虑视频帧之间时序关系的基础上,通过分别定义轨迹和视频帧与目标行为之间的关联度,突出了更具表达力的特征在形成视频表示过程中的重要性,并且与基于时间分割网络得到的视频表示进行融合,得到更具判别力的视频表示,有利于更有效地识别自然场景下视频中的人体行为。
为实现以上发明目的,采用的技术方案是:
一种基于行为关联度融合特征的视频人体行为识别算法,包括以下步骤:
步骤S1:输入视频,计算视频中轨迹的行为关联度;
步骤S2:根据轨迹的行为关联度生成基于轨迹关联度的视频帧表示;
步骤S3:根据基于轨迹关联度的视频帧表示计算视频帧的行为关联度;
步骤S4:生成基于视频帧行为关联度的视频表示;
步骤S5:从视频中提取光流以及将时间分割网络作为特征提取器;
步骤S6:生成基于时间分割网络的视频表示;
步骤S7:结合基于视频帧行为关联度的视频表示以及基于时间分割网络的视频表示,利用支持向量机进行学习和分类,产生视频相应的动作类别标签。
优选的,所述的步骤S1具体包括一下步骤:
步骤S101:对视频帧进行时空金字塔的构建;
步骤S102:在改进密集轨迹的基础上,提取时空多尺度的轨迹特征;
步骤S103:计算静态显著性图谱和动态显著性图谱,静态显著性图谱S利用快速最小障碍距离变换算法得到,动态显著性图谱的计算方法是由静态显著性图谱的计算方法改进得到;
步骤S104:以光流作为输入,截取视频帧上下左右四个边缘区域
步骤S105:计算像素相对于每一个边缘区域的距离图谱z:
Figure BDA0001869157500000021
其中px表示像素点,χ2表示卡方距离,bi表示边缘区域(i=1,2,3,4),hj(px)是px处的平滑光流向量直方图的第j个bin值,hj(bi)为边缘区域对应bin的平均,j表示bin值的个数;
步骤S106:定义M为视频帧的动态显著性图谱,将基于四个区域的距离图谱进行融合:
Figure BDA0001869157500000022
其中i和j分别为视频帧边缘区域以及bin值的索引,zk(k=1,2,3,4)分别为上下左右四个边缘区域的距离图谱,
Figure BDA0001869157500000023
表示对应于第i个边缘区域和第j个bin值,视频帧四个边缘区域的距离图谱中的最大值。
步骤S107:设轨迹所在序列位于空间金字塔的第z层,时间尺度为s,起始帧为w,轨迹的长度为L,且轨迹的起始帧位于该序列的第j帧;定义轨迹整体的静态行为关联度为多帧的静态显著性图谱对应像素显著值的平均值:
Figure BDA0001869157500000031
其中T表示轨迹,Pi表示轨迹中的第i个点,
Figure BDA0001869157500000032
表示轨迹点对应序列帧的静态显著性图谱,类似地,轨迹的动态行为关联属性可以表示为:
Figure BDA0001869157500000033
其中
Figure BDA0001869157500000034
表示轨迹点对应序列帧的动态显著性图谱;
步骤S108:得到轨迹的行为关联度定义如下:
Figure BDA0001869157500000035
优选的,步骤S2具体包括以下步骤:
步骤S201:利用步骤S108得到的轨迹的行为关联度对轨迹相对于高斯分布k的权重γn(k)进行加权:
γ′n(k)=γn(k)R(T)
步骤S202:将视频帧中所有轨迹的每一种局部特征描述符分别利用费舍尔向量
Figure BDA0001869157500000036
和堆叠的费舍尔向量
Figure BDA0001869157500000037
分别进行编码,并且采用L2正则化进行处理,得到基于轨迹行为关联度的视频帧表示:
Figure BDA0001869157500000038
其中FV表示费舍尔向量,SFV表示堆叠的费舍尔向量,HOG、HOF和MBH分别表示方向梯度直方图、光流直方图和运动边界直方图。
优选的,步骤S3具体包括以下步骤:
步骤S301:将轨迹采用相邻轨迹点的位移进行表示:
T=(ΔPt,ΔPt+1,…,ΔPt+L-1)
其中位移向量ΔPt=(Pt+1-Pt)=(xt+1-xt,yt+1-yt)=(ut,vt),(xt,yt)为轨迹点Pt的空间坐标,设一条轨迹位移向量的均值为
Figure BDA0001869157500000039
则该轨迹的位移标准差为:
Figure BDA00018691575000000310
步骤S302:若一条轨迹穿过某一视频帧,则这条轨迹对于该视频帧的隶属度定义为
W(T,Fi)=e-|l-0.5L|
其中T表示轨迹,L表示轨迹的长度,l表示轨迹的第l个点穿过视频帧Fi;则视频帧Fi的行为关联度定义为
Figure BDA0001869157500000041
其中K表示穿过视频帧Fi的轨迹的数目。
优选的,步骤S4具体包括以下步骤:
在生成基于轨迹行为关联度的视频帧表示之后,将视频表示为一系列视频帧表示的序列,利用层次化的排列池化的方法对视频帧表示之间的动态信息进行建模,得到基于视频帧行为关联度的视频表示:
Figure BDA0001869157500000042
其中HRP表示使用层次化的排列池化方法对视频中的动态信息进行建模。
优选的,步骤S5具体包括以下步骤:
步骤S501:从视频中提取光流后;
步骤S502:将训练数据集中的每个视频分成三个分段,在三个分段中均匀采样25个视频片段,其中在第一视频分段中采样9个片段,在第二、三个视频分段中分别采样8个片段;
步骤S503:将带有视频动作标签的片段被用来训练时间分割网络,并将训练好的时间分割网络中用于产生视频片段级别分类的部分作为局部特征提取器。
优选的,步骤S6具体包括以下步骤:
将局部特征被聚合形成全局的特征表示为:
fg=H(f1,f2,…,fn)
其中f1,f2,…,fn表示局部特征,n表示局部特征的个数,H表示特征聚合函数,fg表示视频的全局特征。
优选的,步骤S7具体包括以下步骤:
步骤S701:结合两种视频表示、利用支持向量机进行学习和分类,并产生视频相应的动作类别标签:将基于视频帧行为关联度的视频表示c和基于时间分割网络的视频表示fg进行拼接,得到结合的视频表示P:
P={c,fg}
步骤S702:利用SVM分类器对该表示进行分类,得到视频相应的动作类别标签。
与现有技术相比,本发明的有益效果是:
本发明通过捕捉视频中不同轨迹和视频帧与目标行为之间的相关度,突出与目标行为相关度较高的轨迹和视频帧在形成视频表示过程中的重要性,可以减少视频中的冗余信息对行为识别效果的干扰,形成具有表达力的视频表示。本发明还通过使用时间分割网络形成以视频片段为基础的视频表示,通过以上两种视频表示,在不同的层次对视频中的信息进行描述,通过结合两种表示可以得到判别力更强的视频表示,有助于提高人体行为识别的准确率。
附图说明
图1为本发明的流程图。
图2为本发明本发明识别方法得到的JHMDB数据集上的混淆矩阵。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所示,一种基于行为关联度融合特征的视频人体行为识别算法,包括以下步骤:
步骤S1:输入视频,计算视频中轨迹的行为关联度;
步骤S2:根据轨迹的行为关联度生成基于轨迹关联度的视频帧表示;
步骤S3:根据基于轨迹关联度的视频帧表示计算视频帧的行为关联度;
步骤S4:生成基于视频帧行为关联度的视频表示;
步骤S5:从视频中提取光流以及将时间分割网络作为特征提取器;
步骤S6:生成基于时间分割网络的视频表示;
步骤S7:结合基于视频帧行为关联度的视频表示以及基于时间分割网络的视频表示,利用支持向量机进行学习和分类,产生视频相应的动作类别标签。
优选的,所述的步骤S1具体包括一下步骤:
步骤S101:对视频帧进行时空金字塔的构建;
步骤S102:在改进密集轨迹的基础上,提取时空多尺度的轨迹特征;
步骤S103:计算静态显著性图谱和动态显著性图谱,静态显著性图谱S利用快速最小障碍距离变换算法得到,动态显著性图谱的计算方法是由静态显著性图谱的计算方法改进得到;
步骤S104:以光流作为输入,截取视频帧上下左右四个边缘区域
步骤S105:计算像素相对于每一个边缘区域的距离图谱z:
Figure BDA0001869157500000061
其中px表示像素点,χ2表示卡方距离,bi表示边缘区域(i=1,2,3,4),hj(px)是px处的平滑光流向量直方图的第j个bin值,hj(bi)为边缘区域对应bin的平均,j表示bin值的个数;
步骤S106:定义M为视频帧的动态显著性图谱,将基于四个区域的距离图谱进行融合:
Figure BDA0001869157500000062
其中i和j分别为视频帧边缘区域以及bin值的索引,zk(k=1,2,3,4)分别为上下左右四个边缘区域的距离图谱,
Figure BDA0001869157500000063
表示对应于第i个边缘区域和第j个bin值,视频帧四个边缘区域的距离图谱中的最大值。
步骤S107:设轨迹所在序列位于空间金字塔的第z层,时间尺度为s,起始帧为w,轨迹的长度为L,且轨迹的起始帧位于该序列的第j帧;定义轨迹整体的静态行为关联度为多帧的静态显著性图谱对应像素显著值的平均值:
Figure BDA0001869157500000064
其中T表示轨迹,Pi表示轨迹中的第i个点,
Figure BDA0001869157500000065
表示轨迹点对应序列帧的静态显著性图谱,类似地,轨迹的动态行为关联属性可以表示为:
Figure BDA0001869157500000066
其中
Figure BDA0001869157500000067
表示轨迹点对应序列帧的动态显著性图谱;
步骤S108:得到轨迹的行为关联度定义如下:
Figure BDA0001869157500000068
优选的,步骤S2具体包括以下步骤:
步骤S201:利用步骤S108得到的轨迹的行为关联度对轨迹相对于高斯分布k的权重γn(k)进行加权:
γ′n(k)=γn(k)R(T)
步骤S202:将视频帧中所有轨迹的每一种局部特征描述符分别利用费舍尔向量
Figure BDA0001869157500000071
和堆叠的费舍尔向量
Figure BDA0001869157500000072
分别进行编码,并且采用L2正则化进行处理,得到基于轨迹行为关联度的视频帧表示:
Figure BDA0001869157500000073
其中FV表示费舍尔向量,SFV表示堆叠的费舍尔向量,HOG、HOF和MBH分别表示方向梯度直方图、光流直方图和运动边界直方图。
优选的,步骤S3具体包括以下步骤:
步骤S301:将轨迹采用相邻轨迹点的位移进行表示:
T=(ΔPt,ΔPt+1,…,ΔPt+L-1)
其中位移向量ΔPt=(Pt+1-Pt)=(xt+1-xt,yt+1-yt)=(ut,vt),(xt,yt)为轨迹点Pt的空间坐标,设一条轨迹位移向量的均值为
Figure BDA0001869157500000074
则该轨迹的位移标准差为:
Figure BDA0001869157500000075
步骤S302:若一条轨迹穿过某一视频帧,则这条轨迹对于该视频帧的隶属度定义为
W(T,Fi)=e-|l-0.5L|
其中T表示轨迹,L表示轨迹的长度,l表示轨迹的第l个点穿过视频帧Fi;则视频帧Fi的行为关联度定义为
Figure BDA0001869157500000076
其中K表示穿过视频帧Fi的轨迹的数目。
优选的,步骤S4具体包括以下步骤:
在生成基于轨迹行为关联度的视频帧表示之后,将视频表示为一系列视频帧表示的序列,利用层次化的排列池化的方法对视频帧表示之间的动态信息进行建模,得到基于视频帧行为关联度的视频表示:
Figure BDA0001869157500000081
其中HRP表示使用层次化的排列池化方法对视频中的动态信息进行建模。
优选的,步骤S5具体包括以下步骤:
步骤S501:从视频中提取光流后;
步骤S502:将训练数据集中的每个视频分成三个分段,在三个分段中均匀采样25个视频片段,其中在第一视频分段中采样9个片段,在第二、三个视频分段中分别采样8个片段;
步骤S503:将带有视频动作标签的片段被用来训练时间分割网络,并将训练好的时间分割网络中用于产生视频片段级别分类的部分作为局部特征提取器。
优选的,步骤S6具体包括以下步骤:
将局部特征被聚合形成全局的特征表示为:
fg=H(f1,f2,…,fn)
其中f1,f2,…,fn表示局部特征,n表示局部特征的个数,H表示特征聚合函数,fg表示视频的全局特征。
优选的,步骤S7具体包括以下步骤:
步骤S701:结合两种视频表示、利用支持向量机进行学习和分类,并产生视频相应的动作类别标签:将基于视频帧行为关联度的视频表示c和基于时间分割网络的视频表示fg进行拼接,得到结合的视频表示P:
P={c,fg}
步骤S702:利用SVM分类器对该表示进行分类,得到视频相应的动作类别标签。
实施例2
如图1、图2所示,本实施例提供的环境如下:
实验数据集:JHMDB(共21类人体行为动作类别)。
实验环境:Matlab2014b,c++14,python3.6。
实验工具集:OpenCV2.3,vlfeat开源库,Libsvm工具箱,Tensorflow开源库。
实验方法:将JHMDB数据集划分为3组,在每次划分中,每个行为约有45个视频,其中部分视频用于训练,剩余的21个用于测试。训练模型时采用一对多模式,最后的识别准确率为三个划分的识别准确率的均值。
评价标准:
(1)混淆矩阵,其公式如下所示:
Figure BDA0001869157500000091
其中混淆矩阵中的一行对应于某一类行为的分类结果,且矩阵每一行的和为1。对角线的元素表示正确分类的百分比,即某类行为的准确率。
(2)平均准确率
Figure BDA0001869157500000092
平均准确率表示所有行为分类准确率的平均值。
实验结果:如图2所示,图中所示的是使用本发明识别方法得到的JHMDB数据集上的混淆矩阵,平均识别准确率为68.7%。实验结果表明,本发明识别方法取得了较好的识别效果,与现有的方法进行比较,识别准确率有显著的提高。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (7)

1.一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,包括以下步骤:
步骤S1:输入视频,计算视频中轨迹的行为关联度;
步骤S2:根据轨迹的行为关联度生成基于轨迹关联度的视频帧表示;
步骤S3:根据基于轨迹关联度的视频帧表示计算视频帧的行为关联度;
步骤S4:生成基于视频帧行为关联度的视频表示;
步骤S5:从视频中提取光流以及将时间分割网络作为特征提取器;
步骤S6:生成基于时间分割网络的视频表示;
步骤S7:结合基于视频帧行为关联度的视频表示以及基于时间分割网络的视频表示,利用支持向量机进行学习和分类,产生视频相应的动作类别标签;
所述的步骤S1具体包括一下步骤:
步骤S101:对视频帧进行时空金字塔的构建;
步骤S102:在改进密集轨迹的基础上,提取时空多尺度的轨迹特征;
步骤S103:计算静态显著性图谱和动态显著性图谱,静态显著性图谱S利用快速最小障碍距离变换算法得到,动态显著性图谱的计算方法是由静态显著性图谱的计算方法改进得到;
步骤S104:以光流作为输入,截取视频帧上下左右四个边缘区域
步骤S105:计算像素相对于每一个边缘区域的距离图谱z:
Figure FDA0004035757350000011
其中,px表示像素点;χ2表示卡方距离;bi表示边缘区域,i=1,2,3,4;hj(px)是px处的平滑光流向量直方图的第j个bin值;hj(bi)为边缘区域对应bin的平均,j表示bin值的个数;
步骤S106:定义M为视频帧的动态显著性图谱,将基于四个区域的距离图谱进行融合:
Figure FDA0004035757350000012
其中i和j分别为视频帧边缘区域以及bin值的索引,zk分别为上下左右四个边缘区域的距离图谱,k=1,2,3,4,
Figure FDA0004035757350000021
表示对应于第i个边缘区域和第j个bin值,视频帧四个边缘区域的距离图谱中的最大值;
步骤S107:设轨迹所在序列位于空间金字塔的第z层,时间尺度为s,起始帧为w,轨迹的长度为L,且轨迹的起始帧位于该序列的第a帧;定义轨迹整体的静态行为关联度为多帧的静态显著性图谱对应像素显著值的平均值:
Figure FDA0004035757350000022
其中T表示轨迹,Pt表示轨迹中的第t个点,
Figure FDA0004035757350000023
表示轨迹点对应序列帧的静态显著性图谱,类似地,轨迹的动态行为关联属性可以表示为:
Figure FDA0004035757350000024
其中
Figure FDA0004035757350000025
表示轨迹点对应序列帧的动态显著性图谱;
步骤S108:得到轨迹的行为关联度定义如下:
Figure FDA0004035757350000026
2.根据权利要求1所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S2具体包括以下步骤:
步骤S201:利用步骤S108得到的轨迹的行为关联度对轨迹相对于高斯分布δ的权重γn(δ)进行加权:
γ′n(δ)=γn(δ)R(T)
步骤S202:将视频帧中所有轨迹的每一种局部特征描述符分别利用费舍尔向量
Figure FDA0004035757350000027
和堆叠的费舍尔向量
Figure FDA0004035757350000028
分别进行编码,并且采用L2正则化进行处理,得到基于轨迹行为关联度的视频帧表示:
Figure FDA0004035757350000029
其中FV表示费舍尔向量,SFV表示堆叠的费舍尔向量,HOG、HOF和MBH分别表示方向梯度直方图、光流直方图和运动边界直方图。
3.根据权利要求2所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S3具体包括以下步骤:
步骤S301:将轨迹采用相邻轨迹点的位移进行表示:
T=(ΔPt,ΔPt+1,...,ΔPt+L-1)
其中位移向量ΔPt=(Pt+1-Pt)=(xt+1-xt,yt+1-yt)=(ut,vt),(xt,yt)为轨迹点Pt的空间坐标,设一条轨迹位移向量的均值为
Figure FDA0004035757350000031
则该轨迹的位移标准差为:
Figure FDA0004035757350000032
步骤S302:若一条轨迹穿过某一视频帧,则这条轨迹对于该视频帧的隶属度定义为W(T,Fr)=e-|l-0.5L|
其中T表示轨迹,L表示轨迹的长度,l表示轨迹的第l个点穿过视频帧Fr;则视频帧Fr的行为关联度定义为
Figure FDA0004035757350000033
其中K表示穿过视频帧Fr的轨迹的数目。
4.根据权利要求3所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S4具体包括以下步骤:
在生成基于轨迹行为关联度的视频帧表示之后,将视频表示为一系列视频帧表示的序列,利用层次化的排列池化的方法对视频帧表示之间的动态信息进行建模,得到基于视频帧行为关联度的视频表示:
Figure FDA0004035757350000034
其中HRP表示使用层次化的排列池化方法对视频中的动态信息进行建模。
5.根据权利要求4所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S5具体包括以下步骤:
步骤S501:从视频中提取光流后;
步骤S502:将训练数据集中的每个视频分成三个分段,在三个分段中均匀采样25个视频片段,其中在第一视频分段中采样9个片段,在第二、三个视频分段中分别采样8个片段;
步骤S503:将带有视频动作标签的片段被用来训练时间分割网络,并将训练好的时间分割网络中用于产生视频片段级别分类的部分作为局部特征提取器。
6.根据权利要求5所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S6具体包括以下步骤:
将局部特征被聚合形成全局的特征表示为:
fg=H(f1,f2,...,fn)
其中f1,f2,...,fn表示局部特征,n表示局部特征的个数,H表示特征聚合函数,fg表示视频的全局特征。
7.根据权利要求6所述的一种基于行为关联度融合特征的视频人体行为识别算法,其特征在于,步骤S7具体包括以下步骤:
步骤S701:结合两种视频表示、利用支持向量机进行学习和分类,并产生视频相应的动作类别标签:将基于视频帧行为关联度的视频表示c和基于时间分割网络的视频表示fg进行拼接,得到结合的视频表示P:
P={c,fg}
步骤S702:利用SVM分类器对该表示进行分类,得到视频相应的动作类别标签。
CN201811368213.4A 2018-11-16 2018-11-16 一种基于行为关联度融合特征的视频人体行为识别算法 Active CN109543590B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811368213.4A CN109543590B (zh) 2018-11-16 2018-11-16 一种基于行为关联度融合特征的视频人体行为识别算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811368213.4A CN109543590B (zh) 2018-11-16 2018-11-16 一种基于行为关联度融合特征的视频人体行为识别算法

Publications (2)

Publication Number Publication Date
CN109543590A CN109543590A (zh) 2019-03-29
CN109543590B true CN109543590B (zh) 2023-04-18

Family

ID=65847809

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811368213.4A Active CN109543590B (zh) 2018-11-16 2018-11-16 一种基于行为关联度融合特征的视频人体行为识别算法

Country Status (1)

Country Link
CN (1) CN109543590B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110796071B (zh) * 2019-10-28 2021-02-19 广州云从博衍智能科技有限公司 行为检测方法、系统、机器可读介质及设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009049314A2 (en) * 2007-10-11 2009-04-16 Trustees Of Boston University Video processing system employing behavior subtraction between reference and observed video image sequences
WO2014200437A1 (en) * 2013-06-12 2014-12-18 Agency For Science, Technology And Research Method and system for human motion recognition
CN103854016B (zh) * 2014-03-27 2017-03-01 北京大学深圳研究生院 基于方向性共同发生特征的人体行为分类识别方法及系统
CN105989358A (zh) * 2016-01-21 2016-10-05 中山大学 一种自然场景视频识别方法
JP6895276B2 (ja) * 2017-03-03 2021-06-30 株式会社日立製作所 行動認識システムおよび行動認識方法
CN108734475B (zh) * 2017-04-19 2022-01-04 中山大学 一种基于大数据关联度分析的溯源防伪方法
CN107609460B (zh) * 2017-05-24 2021-02-02 南京邮电大学 一种融合时空双重网络流和attention机制的人体行为识别方法
CN107463912A (zh) * 2017-08-10 2017-12-12 武汉大学深圳研究院 基于运动显著性的视频人体行为识别方法
KR101914717B1 (ko) * 2017-09-28 2018-11-02 전남대학교산학협력단 대칭 양정치 행렬의 곱 다양체에 대해 재생 커널 힐버트 공간을 이용한 인간 행동 인식 방법
CN108345846A (zh) * 2018-01-29 2018-07-31 华东师范大学 一种基于卷积神经网络的人体行为识别方法及识别系统
CN112966646B (zh) * 2018-05-10 2024-01-09 北京影谱科技股份有限公司 基于双路模型融合的视频分割方法、装置、设备及介质

Also Published As

Publication number Publication date
CN109543590A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
Kim et al. Unsupervised learning of image segmentation based on differentiable feature clustering
CN109508684B (zh) 一种视频中人体行为识别的方法
CN107609459B (zh) 一种基于深度学习的人脸识别方法及装置
CN111310731B (zh) 基于人工智能的视频推荐方法、装置、设备及存储介质
Zhang et al. Learning semantic scene models by object classification and trajectory clustering
Zhang et al. Mining semantic context information for intelligent video surveillance of traffic scenes
CN110111340A (zh) 基于多路割的弱监督实例分割方法
CN108596211B (zh) 一种基于集中学习与深度网络学习的遮挡行人再识别方法
CN106203423B (zh) 一种融合上下文探测的弱结构感知视觉目标跟踪方法
CN105354565A (zh) 基于全卷积网络人脸五官定位与判别的方法及系统
Seguin et al. Instance-level video segmentation from object tracks
CN108491766B (zh) 一种端到端的基于深度决策森林的人群计数方法
CN112836640A (zh) 一种单摄像头多目标行人跟踪方法
Zheng et al. Aware progressive clustering for unsupervised vehicle re-identification
CN109753884A (zh) 一种基于关键帧提取的视频行为识别方法
Gammulle et al. Coupled generative adversarial network for continuous fine-grained action segmentation
CN112699834A (zh) 交通标识检测方法、装置、计算机设备和存储介质
JP4567660B2 (ja) 電子画像内で物体のセグメントを求める方法
Lin et al. Deep learning of spatio-temporal features with geometric-based moving point detection for motion segmentation
Lin et al. Temporally coherent 3D point cloud video segmentation in generic scenes
CN109543590B (zh) 一种基于行为关联度融合特征的视频人体行为识别算法
CN105956604A (zh) 一种基于两层时空邻域特征的动作识别方法
CN112418358A (zh) 一种强化深度融合网络的车辆多属性分类方法
CN112446417A (zh) 基于多层超像素分割的纺锤形果实图像分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant