CN109583335A - 一种基于时空信息融合的视频人体行为识别方法 - Google Patents

一种基于时空信息融合的视频人体行为识别方法 Download PDF

Info

Publication number
CN109583335A
CN109583335A CN201811368223.8A CN201811368223A CN109583335A CN 109583335 A CN109583335 A CN 109583335A CN 201811368223 A CN201811368223 A CN 201811368223A CN 109583335 A CN109583335 A CN 109583335A
Authority
CN
China
Prior art keywords
video
track
frame
spatial
temporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811368223.8A
Other languages
English (en)
Other versions
CN109583335B (zh
Inventor
周小峰
李奥
衣杨
沈金龙
朱艺
顾佳良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201811368223.8A priority Critical patent/CN109583335B/zh
Publication of CN109583335A publication Critical patent/CN109583335A/zh
Application granted granted Critical
Publication of CN109583335B publication Critical patent/CN109583335B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及人工智能领域,更具体的,涉及一种基于时空信息融合的视频人体行为识别方法。本发明基于密集光流场结合轨迹的时间显著值提取显著轨迹,并基于底层显著轨迹构造了一种新的中层特征——轨迹组,其在一定程度上刻画了时间维度上的运动信息,弥补了底层轨迹的缺陷,同时构造了轨迹组在时间维度上的前后、远近关系,丰富了轨迹组的时间关系。本发明基于稀疏采样提出了自适应分段采样策略,对视频采样的数目随视频时长而自适应变化,对任意时长的视频都能够提取到富有判别力的空间信息。

Description

一种基于时空信息融合的视频人体行为识别方法
技术领域
本发明涉及人工智能领域,更具体的,涉及一种基于时空信息融合的视频人体行为识别方法。
背景技术
近年来,一些研究构建中层特征以表示运动相关的语义信息弥补全局和局部特征表示的缺陷。这类表示方式能够较为有效地挖掘行为动作的时空结构,含有丰富的动作语义信息和较强的判别力。但现有的方法大多从运动几何等方面考虑,采用较为复杂的建模方式构建中层特征,导致计算资源耗用过多。
而在利用卷积神经网络提取视频中的空间信息时,当前常用的采样策略主要是稀疏采样策略,该策略将视频均匀分成K段,从每一段中随机选取一帧作为卷积网络的输入,最后将每一段的分类分数进行融合。这种采样方式对短视频和长视频都采用相同的K,在视频过长时可能导致丢失一些重要的帧信息,在视频过短时可能会使所采集的帧过多,造成冗余。
发明内容
本发明基于密集光流场结合轨迹的时间显著值提取显著轨迹,并基于底层显著轨迹构造了一种新的中层特征——轨迹组,其在一定程度上刻画了时间维度上的运动信息,弥补了底层轨迹的缺陷,同时构造了轨迹组在时间维度上的前后、远近关系,丰富了轨迹组的时间关系。本发明基于稀疏采样提出了自适应分段采样策略,对视频采样的数目随视频时长而自适应变化,对任意时长的视频都能够提取到富有判别力的空间信息。
为实现以上发明目的,采用的技术方案是:
一种基于时空信息融合的视频人体行为识别方法,包括以下步骤:
步骤S1:对视频时间信息进行提取分类,将原始视频进行灰度空间尺度变换,提取显著轨迹;
步骤S2:根据轨迹的持续时间进行聚类而构建视频中层特征TG;
步骤S3:构造TG之间的时间关系;
步骤S4:计算TG的特征描述符;
步骤S5:采用Fisher编码方法对TG特征进行编码,结合TG以及时间关系作为视频表示;
步骤S6:采用隐结构的支持向量机对视频进行分类;
步骤S7:对视频空间信息进行提取分类,采用自适应分段采样策略从视频中进行稀疏采样;
步骤S8:对采样所得到的视频帧利用卷积神经网络提取空间特征;
步骤S9:根据提取到的特征进行行为视频分类;
步骤S10:把根据视频时间信息得到的分类结果和根据视频空间信息得到的分类结果进行平均加权融合,得到最后的视频分类结果。
优选的,步骤S1具体包括以下步骤:
步骤S101:输入原始视频序列X;
步骤S102:计算初始化视频轨迹长度L,采样步长STEP:
步骤S103:对原始视频做灰度转换;
步骤S104:对进行灰度转换后的视频起始帧进行密集采样得到轨迹集初始点;
步骤S105:跟踪初始点在后续视频帧的位置,同时计算各个视频帧的时间显著值以及过滤阈值;
步骤S106:将视频序列的轨迹记作 表示以第j帧为起始帧,第i个点形成的长度为L的轨迹,将第j帧上每个特征点pj(xj,yj),通过中值滤波后的密集光流场f=(ut,vt)跟踪至第j+1帧:得到第j帧的位置pj,具体公式如下:
其中,M为中值滤波核,是(xj,yj)四舍五入取整后的位置坐标;
步骤S107:计算第j帧的所有采样点的时间显著值,设在第j帧中,点周围3×3像素块作为该点的中心块为其周围9×9像素块为第一周围块为16×16像素块为第二周围块为为中心块建立一个光流字典 分别为对应的同一光流图像上的两个周围块,点的中心块与周围块的运动差值(n=1,2)作为的时间显著值,记作由以下公式计算获得:
其中Ov(·)和Oh(·)分别是中心块和周围块的水平和垂直方向上的光流平均值,轨迹的时间显著值定义为该条轨迹上每个点的平均时间显著值:
步骤S108:在第j帧的时间显著值的基础上计算平均时间显著值,第j帧的平均时间显著值Sf定义为:
其中,H和W分别是帧的高度值和宽度值;为第j帧所有采样点的时间显著值总和;count是帧采样点的总个数;
步骤S109:计算每一帧的过滤阈值Tf
步骤S110:初始化Tf为2Sf,若点的时间显著值小于Tf,则Tf设置为否则Tf保持不变;
步骤S111:计算每条轨迹的时间显著值;
步骤S112:计算轨迹的自适应过滤阈值长度为L的轨迹共跨越L+1帧;
步骤S113:提取显著轨迹集,
优选的,步骤S2具体包括以下步骤:
步骤S201:构建视频表示Mc
其中,φ(X)表示提取到的整个视频的显著轨迹,X为视频序列。表示从一个视频的N个TG中学习出K个最具有判别力的TG,τ表示隐变量,μ=(μ0i)表示显著轨迹特征和TG的权重;
步骤S202:将视频轨迹作为视频表示Mc中的隐变量进行学习,学习到的隐变量为具有较强判别力的TG集合。
优选的,步骤S3具体包括以下步骤:
步骤S301:据每条轨迹的起始时间为每个视频构建了N个TG,本发明将所有TG记作B,第i个和第j个TG之间的时间关系记作:
Γ=χ(Bi,Bj)
步骤S302:融合提取的显著轨迹特征、TG特征以及构造的时间关系特征Γ得到视频表示Mc1,Mc1表示视频融合后的特征,视频表示Mc1为:
优选的,步骤S4具体包括以下步骤:
采用HOF和MBH作为TG的特征描述符,这两种描述符串联拼接构成视频特征表示V=[VHOF,VMBH],其中VHOF和VMBH分别表示HOF和MBH两种描述符的直方图。
优选的,步骤S7具体包括以下步骤:
步骤S701:给定一个视频序列V,其时长为T,则将该视频序列平均分为T+1段{S1,S2,...,ST+1},每一段包含相同数量的视频帧,然后从每一段中随机选取一帧ti(ti∈Si)用来表示该段视频的空间信息,则从所有视频分段中随机选出的视频帧组成了卷积神经网络的输入集t={t1,t2,...,tT+1};
步骤S702:将自适应分段采样的得到的视频帧输入到同一个卷积神经网络提取空间特征,用F(ti,W)代表用第i帧作为输入得到的行为分类结果,用S2代表输入集t平均分类结果,并将其作为利用视频空间信息分类得到的最后结果,则S2可表示为:
优选的,步骤S10具体包括以下步骤:
由视频时间信息所得到的行为分类结果为S1,空间信息所得到的行为分类结果为S2,用S表示视频时间信息和空间信息融合得到的最后行为分类结果,则S可表示为:
S=(S1+S2)/2。
与现有技术相比,本发明的有益效果是:
本发明基于密集光流场结合轨迹的时间显著值提取显著轨迹,并基于底层显著轨迹构造了一种新的中层特征——轨迹组,其在一定程度上刻画了时间维度上的运动信息,弥补了底层轨迹的缺陷,同时构造了轨迹组在时间维度上的前后、远近关系,丰富了轨迹组的时间关系。本发明基于稀疏采样提出了自适应分段采样策略,对视频采样的数目随视频时长而自适应变化,对任意时长的视频都能够提取到富有判别力的空间信息。
附图说明
图1为本发明的流程图。
图2为UCF、KTH和YouTube数据集情况。
图3为本发明算法在KTH数据集上的混淆矩阵。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
以下结合附图和实施例对本发明做进一步的阐述。
实施例1
如图1所示,一种基于时空信息融合的视频人体行为识别方法,包括以下步骤:
步骤S1:对视频时间信息进行提取分类,将原始视频进行灰度空间尺度变换,提取显著轨迹;
步骤S2:根据轨迹的持续时间进行聚类而构建视频中层特征TG;
步骤S3:构造TG之间的时间关系;
步骤S4:计算TG的特征描述符;
步骤S5:采用Fisher编码方法对TG特征进行编码,结合TG以及时间关系作为视频表示;
步骤S6:采用隐结构的支持向量机对视频进行分类;
步骤S7:对视频空间信息进行提取分类,采用自适应分段采样策略从视频中进行稀疏采样;
步骤S8:对采样所得到的视频帧利用卷积神经网络提取空间特征;
步骤S9:根据提取到的特征进行行为视频分类;
步骤S10:把根据视频时间信息得到的分类结果和根据视频空间信息得到的分类结果进行平均加权融合,得到最后的视频分类结果。
优选的,步骤S1具体包括以下步骤:
步骤S101:输入原始视频序列X;
步骤S102:计算初始化视频轨迹长度L,采样步长STEP:
步骤S103:对原始视频做灰度转换;
步骤S104:对进行灰度转换后的视频起始帧进行密集采样得到轨迹集初始点;
步骤S105:跟踪初始点在后续视频帧的位置,同时计算各个视频帧的时间显著值以及过滤阈值;
步骤S106:将视频序列的轨迹记作 表示以第j帧为起始帧,第i个点形成的长度为L的轨迹,将第j帧上每个特征点pj(xj,yj),通过中值滤波后的密集光流场f=(ut,vt)跟踪至第j+1帧:得到第j帧的位置pj,具体公式如下:
其中,M为中值滤波核,是(xj,yj)四舍五入取整后的位置坐标;
步骤S107:计算第j帧的所有采样点的时间显著值,设在第j帧中,点周围3×3像素块作为该点的中心块为其周围9×9像素块为第一周围块为16×16像素块为第二周围块为为中心块建立一个光流字典 分别为对应的同一光流图像上的两个周围块,点的中心块与周围块的运动差值(n=1,2)作为的时间显著值,记作由以下公式计算获得:
其中Ov(·)和Oh(·)分别是中心块和周围块的水平和垂直方向上的光流平均值,轨迹的时间显著值定义为该条轨迹上每个点的平均时间显著值:
步骤S108:在第j帧的时间显著值的基础上计算平均时间显著值,第j帧的平均时间显著值Sf定义为:
其中,H和W分别是帧的高度值和宽度值;为第j帧所有采样点的时间显著值总和;count是帧采样点的总个数;
步骤S109:计算每一帧的过滤阈值Tf
步骤S110:初始化Tf为2Sf,若点的时间显著值小于Tf,则Tf设置为否则Tf保持不变;
步骤S111:计算每条轨迹的时间显著值;
步骤S112:计算轨迹的自适应过滤阈值长度为L的轨迹共跨越L+1帧;
步骤S113:提取显著轨迹集,
优选的,步骤S2具体包括以下步骤:
步骤S201:构建视频表示Mc:
其中,φ(X)表示提取到的整个视频的显著轨迹,X为视频序列。表示从一个视频的N个TG中学习出K个最具有判别力的TG,τ表示隐变量,μ=(μ0i)表示显著轨迹特征和TG的权重;
步骤S202:将视频轨迹作为视频表示Mc中的隐变量进行学习,学习到的隐变量为具有较强判别力的TG集合。
优选的,步骤S3具体包括以下步骤:
步骤S301:据每条轨迹的起始时间为每个视频构建了N个TG,本发明将所有TG记作B,第i个和第j个TG之间的时间关系记作:
Γ=χ(Bi,Bj)
步骤S302:融合提取的显著轨迹特征、TG特征以及构造的时间关系特征Γ得到视频表示Mc1,Mc1表示视频融合后的特征,视频表示Mc1为:
优选的,步骤S4具体包括以下步骤:
采用HOF和MBH作为TG的特征描述符,这两种描述符串联拼接构成视频特征表示V=[VHOF,VMBH],其中VHOF和VMBH分别表示HOF和MBH两种描述符的直方图.
优选的,步骤S7具体包括以下步骤:
步骤S701:给定一个视频序列V,其时长为T,则将该视频序列平均分为T+1段{S1,S2,...,ST+1},每一段包含相同数量的视频帧,然后从每一段中随机选取一帧ti(ti∈Si)用来表示该段视频的空间信息,则从所有视频分段中随机选出的视频帧组成了卷积神经网络的输入集t={t1,t2,...,tT+1};
步骤S702:将自适应分段采样的得到的视频帧输入到同一个卷积神经网络提取空间特征,用F(ti,W)代表用第i帧作为输入得到的行为分类结果,用S2代表输入集t平均分类结果,并将其作为利用视频空间信息分类得到的最后结果,则S2可表示为:
优选的,步骤S10具体包括以下步骤:
由视频时间信息所得到的行为分类结果为S1,空间信息所得到的行为分类结果为S2,用S表示视频时间信息和空间信息融合得到的最后行为分类结果,则S可表示为:
S=(S1+S2)/2。
实施例2
如图1、图2以及图3所示,本实施例采用两个各具特点的标准数据集,包括UCF、KTH和YouTube,后者难度更大,如图2所示。
实验环境:MATLAB与python
实验工具箱:Tensorflow,OpenCV,ffmpeg,boost和Libsvm
实验方法:在分类过程中,针对三个行为数据集皆采取留一交叉验证法(Leave-One-Out-Cross-Validation,LOOCV)
评价标准:本发明对识别结果均采用行为类别平均识别率作为通用评价标准。首先计算单一类别的识别率,再对其加权求平均得到所有类别的平均识别率。第r个类别行为的识别率为:
其中,|Kr|为第r类行为的视频数量,Vi代表测试视频序列,P(Vi)为Vi的预测结果标签,为第r类正确分类的视频数量。数据集中所有动作类别的平均识别率AverageAccuracy为:
其中,|R|为数据集中类别数目,是|R|个类别的识别率的总和。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (7)

1.一种基于时空信息融合的视频人体行为识别方法,其特征在于,包括以下步骤:
步骤S1:对视频时间信息进行提取分类,将原始视频进行灰度空间尺度变换,提取显著轨迹;
步骤S2:根据显著轨迹的持续时间进行聚类而构建视频中层特征TG;
步骤S3:构造TG之间的时间关系;
步骤S4:计算TG的特征描述符;
步骤S5:采用Fisher编码方法对TG特征进行编码,结合TG以及时间关系作为时间信息视频表示;
步骤S6:采用隐结构的支持向量机对视频进行分类;
步骤S7:对视频空间信息进行提取分类,采用自适应分段采样策略从视频中进行稀疏采样;
步骤S8:对采样所得到的视频帧利用卷积神经网络提取空间特征;
步骤S9:根据提取到的特征进行行为视频分类;
步骤S10:把根据视频时间信息得到的分类结果和根据视频空间信息得到的分类结果进行平均加权融合,得到最后的视频分类结果。
2.根据权利要求1所述的一种基于时空信息融合的视频人体行为识别方法,其特征在于,步骤S1具体包括以下步骤:
步骤S101:输入原始视频序列X;
步骤S102:计算初始化视频轨迹长度L,采样步长STEP:
步骤S103:对原始视频做灰度转换;
步骤S104:对进行灰度转换后的视频起始帧进行密集采样得到轨迹集初始点;
步骤S105:跟踪初始点在后续视频帧的位置,同时计算各个视频帧的时间显著值以及过滤阈值;
步骤S106:将视频序列的轨迹记作 表示以第j帧为起始帧,第i个点形成的长度为L的轨迹,将第j帧上每个特征点pj(xj,yj),通过中值滤波后的密集光流场f=(ut,vt)跟踪至第j+1帧:得到第j帧的位置pj,具体公式如下:
其中,M为中值滤波核,是(xj,yj)四舍五入取整后的位置坐标;
步骤S107:计算第j帧的所有采样点的时间显著值,设在第j帧中,点周围3×3像素块作为该点的中心块为其周围9×9像素块为第一周围块为16×16像素块为第二周围块为为中心块建立一个光流字典 分别为对应的同一光流图像上的两个周围块,点的中心块与周围块的运动差值作为的时间显著值,记作由以下公式计算获得:
其中Ov(·)和Oh(·)分别是中心块和周围块的水平和垂直方向上的光流平均值,轨迹的时间显著值定义为该条轨迹上每个点的平均时间显著值:
步骤S108:在第j帧的时间显著值的基础上计算平均时间显著值,第j帧的平均时间显著值Sf定义为:
其中,H和W分别是帧的高度值和宽度值;为第j帧所有采样点的时间显著值总和;count是帧采样点的总个数;
步骤S109:计算每一帧的过滤阈值Tf
步骤S110:初始化Tf为2Sf,若点的时间显著值小于Tf,则Tf设置为否则Tf保持不变;
步骤S111:计算每条轨迹的时间显著值;
步骤S112:计算轨迹的自适应过滤阈值长度为L的轨迹共跨越L+1帧;
步骤S113:提取显著轨迹集,
3.根据权利要求2所述的一种基于时空信息融合的视频人体行为识别方法,其特征在于,步骤S2具体包括以下步骤:
步骤S201:构建视频表示Mc
其中,φ(X)表示提取到的整个视频的显著轨迹,X为视频序列,表示从一个视频的N个TG中学习出K个最具有判别力的TG,τ表示隐变量,μ=(μ0i)表示显著轨迹特征和TG的权重;
步骤S202:将视频轨迹作为视频表示Mc中的隐变量进行学习,学习到的隐变量为具有较强判别力的TG集合。
4.根据权利要求3所述的一种基于时空信息融合的视频人体行为识别方法,其特征在于,步骤S3具体包括以下步骤:
步骤S301:据每条轨迹的起始时间为每个视频构建了N个TG,将所有TG记作B,第i个和第j个TG之间的时间关系记作:
Γ=χ(Bi,Bj)
步骤S302:融合提取的显著轨迹特征、TG特征以及构造的时间关系特征Γ得到视频表示Mc1,Mc1表示视频融合后的特征,视频表示Mc1为:
5.根据权利要求4所述的一种基于时空信息融合的视频人体行为识别方法,其特征在于,步骤S4具体包括以下步骤:
采用HOF和MBH作为TG的特征描述符,这两种描述符串联拼接构成视频特征表示V=[VHOF,VMBH],其中VHOF和VMBH分别表示HOF和MBH两种描述符的直方图.
6.根据权利要求5所述的一种基于时空信息融合的视频人体行为识别方法,其特征在于,步骤S8具体包括以下步骤:
步骤S801:给定一个视频序列V,其时长为T,则将该视频序列平均分为T+1段{S1,S2,...,ST+1},每一段包含相同数量的视频帧,然后从每一段中随机选取一帧ti(ti∈Si)用来表示该段视频的空间信息,则从所有视频分段中随机选出的视频帧组成了卷积神经网络的输入集t={t1,t2,...,tT+1};
步骤S802:将自适应分段采样的得到的视频帧输入到同一个卷积神经网络提取空间特征,用F(ti,W)代表用第i帧作为输入得到的行为分类结果,用S2代表输入集t平均分类结果,并将其作为利用视频空间信息分类得到的最后结果,则S2可表示为:
7.根据权利要求6所述的一种基于时空信息融合的视频人体行为识别方法,其特征在于,步骤S10具体包括以下步骤:
由视频时间信息所得到的行为分类结果为S1,空间信息所得到的行为分类结果为S2,用S表示视频时间信息和空间信息融合得到的最后行为分类结果,则S可表示为:
S=(S1+S2)/2。
CN201811368223.8A 2018-11-16 2018-11-16 一种基于时空信息融合的视频人体行为识别方法 Active CN109583335B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811368223.8A CN109583335B (zh) 2018-11-16 2018-11-16 一种基于时空信息融合的视频人体行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811368223.8A CN109583335B (zh) 2018-11-16 2018-11-16 一种基于时空信息融合的视频人体行为识别方法

Publications (2)

Publication Number Publication Date
CN109583335A true CN109583335A (zh) 2019-04-05
CN109583335B CN109583335B (zh) 2023-04-07

Family

ID=65923048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811368223.8A Active CN109583335B (zh) 2018-11-16 2018-11-16 一种基于时空信息融合的视频人体行为识别方法

Country Status (1)

Country Link
CN (1) CN109583335B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668504A (zh) * 2020-12-30 2021-04-16 百果园技术(新加坡)有限公司 动作识别方法、装置及电子设备
CN113469142A (zh) * 2021-03-12 2021-10-01 山西长河科技股份有限公司 一种监控视频时空信息融合的分类方法、装置及终端

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120219213A1 (en) * 2011-02-28 2012-08-30 Jinjun Wang Embedded Optical Flow Features
CN104143089A (zh) * 2014-07-28 2014-11-12 东南大学 人体动作识别中的基于空时能量分解的关键点检测方法
CN104299007A (zh) * 2014-09-17 2015-01-21 电子科技大学 一种用于行为识别的分类器训练方法
CN104834918A (zh) * 2015-05-20 2015-08-12 中国科学院上海高等研究院 一种基于高斯过程分类器的人体行为识别方法
CN105893936A (zh) * 2016-03-28 2016-08-24 浙江工业大学 一种基于hoirm和局部特征融合的行为识别方法
CN106529477A (zh) * 2016-11-11 2017-03-22 中山大学 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN107273835A (zh) * 2017-06-07 2017-10-20 南京航空航天大学 基于视频分析的暴力行为智能检测方法
CN107292247A (zh) * 2017-06-05 2017-10-24 浙江理工大学 一种基于残差网络的人体行为识别方法及装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120219213A1 (en) * 2011-02-28 2012-08-30 Jinjun Wang Embedded Optical Flow Features
CN104143089A (zh) * 2014-07-28 2014-11-12 东南大学 人体动作识别中的基于空时能量分解的关键点检测方法
CN104299007A (zh) * 2014-09-17 2015-01-21 电子科技大学 一种用于行为识别的分类器训练方法
CN104834918A (zh) * 2015-05-20 2015-08-12 中国科学院上海高等研究院 一种基于高斯过程分类器的人体行为识别方法
CN105893936A (zh) * 2016-03-28 2016-08-24 浙江工业大学 一种基于hoirm和局部特征融合的行为识别方法
CN106529477A (zh) * 2016-11-11 2017-03-22 中山大学 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN107292247A (zh) * 2017-06-05 2017-10-24 浙江理工大学 一种基于残差网络的人体行为识别方法及装置
CN107273835A (zh) * 2017-06-07 2017-10-20 南京航空航天大学 基于视频分析的暴力行为智能检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JEONG-JIK SEO ET AL: "Efficient and effective human action recognition", 《2015 11TH IEEE INTERNATIONAL CONFERENCE AND WORKSHOPS ON AUTOMATIC FACE AND GESTURE RECOGNITION(FG) 》 *
WANG LM ET AL: "Action Recognition with Trajectory-Pooled Deep-Convolutional Descriptors", 《2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668504A (zh) * 2020-12-30 2021-04-16 百果园技术(新加坡)有限公司 动作识别方法、装置及电子设备
CN113469142A (zh) * 2021-03-12 2021-10-01 山西长河科技股份有限公司 一种监控视频时空信息融合的分类方法、装置及终端
CN113469142B (zh) * 2021-03-12 2022-01-14 山西长河科技股份有限公司 一种监控视频时空信息融合的分类方法、装置及终端

Also Published As

Publication number Publication date
CN109583335B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN107330362B (zh) 一种基于时空注意力的视频分类方法
CN105550699B (zh) 一种基于cnn融合时空显著信息的视频识别分类方法
CN105787458B (zh) 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN109190561B (zh) 一种视频播放中的人脸识别方法及系统
CN106529477B (zh) 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN106778796B (zh) 基于混合式协同训练的人体动作识别方法及系统
CN109190479A (zh) 一种基于混合深度学习的视频序列表情识别方法
CN110555387B (zh) 骨架序列中基于局部关节点轨迹时空卷的行为识别方法
CN104504362A (zh) 基于卷积神经网络的人脸检测方法
CN112784763A (zh) 基于局部与整体特征自适应融合的表情识别方法及系统
CN112819065B (zh) 基于多重聚类信息的无监督行人难样本挖掘方法和系统
CN113239801B (zh) 基于多尺度特征学习和多级域对齐的跨域动作识别方法
CN114186069B (zh) 基于多模态异构图注意力网络的深度视频理解知识图谱构建方法
CN113642482B (zh) 一种基于视频时空上下文的视频人物关系分析方法
CN111027377A (zh) 一种双流神经网络时序动作定位方法
CN113177612A (zh) 一种基于cnn少样本的农业病虫害图像识别方法
CN111967433A (zh) 一种基于自监督学习网络的动作识别办法
CN108573241B (zh) 一种基于融合特征的视频行为识别方法
CN112633377A (zh) 一种基于生成对抗网络的人体行为预测方法及系统
CN109583335A (zh) 一种基于时空信息融合的视频人体行为识别方法
CN109002808B (zh) 一种人体行为识别方法及系统
CN114332711A (zh) 面部动作识别及模型训练的方法、装置、设备和存储介质
CN114037886A (zh) 图像识别方法、装置、电子设备和可读存储介质
Sun et al. Weak supervised learning based abnormal behavior detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant