CN104036287B - 一种基于人类运动显著轨迹的视频分类方法 - Google Patents
一种基于人类运动显著轨迹的视频分类方法 Download PDFInfo
- Publication number
- CN104036287B CN104036287B CN201410208197.8A CN201410208197A CN104036287B CN 104036287 B CN104036287 B CN 104036287B CN 201410208197 A CN201410208197 A CN 201410208197A CN 104036287 B CN104036287 B CN 104036287B
- Authority
- CN
- China
- Prior art keywords
- video
- vector
- track
- feature description
- vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 36
- 239000013598 vector Substances 0.000 claims abstract description 82
- 230000003287 optical effect Effects 0.000 claims abstract description 25
- 238000012360 testing method Methods 0.000 claims abstract description 17
- 238000005516 engineering process Methods 0.000 claims abstract description 16
- 238000012549 training Methods 0.000 claims abstract description 13
- 239000000203 mixture Substances 0.000 claims abstract 2
- 239000011159 matrix material Substances 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 238000013145 classification model Methods 0.000 abstract description 3
- 230000009467 reduction Effects 0.000 abstract description 3
- 238000002474 experimental method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 210000000038 chest Anatomy 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000009017 pursuit movement Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于人类运动显著轨迹的视频分类方法,包括以下步骤:将视频集M划分成训练集Mt和测试集Mv,使用SIFT和稠密光流技术在多尺度空间上跟踪每一个视频中人类运动信息,获得每一个视频的运动显著轨迹;分别提取每个轨迹的特征描述向量;使用PCA方法消除特征描述向量中的冗余信息,对每一类特征描述向量进行降维;利用高斯混合模型对训练集Mt中的特征描述向量进行聚类,再使用Fisher Vector方法生成视频集M中每一个视频的Fisher向量;在训练集Mt上,构建线性SVM分类模型;在测试集Mv上,使用该线性SVM分类模型对测试集中的视频进行分类。与现有技术相比,本发明具有鲁棒性好、计算效率高等优点。
Description
技术领域
本发明涉及一种视频识别方法,尤其是涉及一种基于人类运动显著轨迹的视频分类方法。
背景技术
随着多媒体技术与计算机网络的广泛应用,使得网络上出现大量视频数据。为了能够有效的管理这些视频文件,为用户提供更好的体验服务,自动识别视频中的人类行为变的越来越重要。
基于轨迹的技术能够有效地捕获视频中的运动信息,并且具有非常高的视频特征表示能力,所以该技术在一些视频数据集上取得了比较好的实验结果。目前,该技术还存在以下问题:
第一,视频中人类的行为可能会被背景运动或者摄像机运动混淆。尤其是摄像机的运动将干扰实际的人类运动信息。
第二,为了获得更高的识别准确率,某些研究人员采用提高轨迹采样密度的方法。但是,在跟踪运动轨迹时,高采样密度将消耗更多的CPU资源、提高算法的计算复杂度。
第三,在现实生活中,由于人类行为类别内部存在很大的差异,对视频进行人类行为识别的准确率不高。
SIFT(Scale Invariant Feature Transform,尺度不变特征转换)技术是用于图像处理领域的一种描述子,在尺度空间寻找极值点,提取位置、尺度、旋转不变量,可在图像中检测出关键点。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种鲁棒性好、计算效率高的基于人类运动显著轨迹的视频分类方法。
本发明的目的可以通过以下技术方案来实现:
一种基于人类运动显著轨迹的视频分类方法,包括以下步骤:
步骤1:将视频集M划分成训练集Mt和测试集Mv,使用SIFT和稠密光流技术在多尺度空间上跟踪每一个视频中人类运动信息,获得每一个视频的运动显著轨迹;
步骤2:分别提取每个轨迹的特征描述向量,所述的特征描述向量包括梯度直方图向量、光流直方图向量、x分量运动边界直方图向量和y分量运动边界直方图向量;
步骤3:使用PCA方法消除特征描述向量中的冗余信息,对每一类特征描述向量进行降维;
步骤4:利用高斯混合模型对训练集Mt中的特征描述向量进行聚类,再使用FisherVector生成视频集M中每一个视频的Fisher向量;
步骤5:在训练集Mt上,使用其中所有视频的Fisher向量做为线性SVM的输入,构建线性SVM分类模型,输出训练好的线性SVM分类模型;
步骤6:在测试集Mv上,使用步骤5获得的线性SVM分类模型对测试集中的视频进行分类。
步骤1中,所述的使用SIFT和稠密光流技术在多尺度空间上跟踪每一个视频中人类运动信息,获得每一个视频的运动显著轨迹具体为:
1a)循环提取视频中的每一帧图像,以为缩放因子构建尺度空间,设某一尺度空间上当前帧图像为Ik,前一帧图像为Ik-1;
1b)使用SIFT技术检测每一帧图像的显著点P={Pi,i=1,···,m},m为显著点总数;
1c)使用随机抽样一致算法估计摄像机的运动变化矩阵H,设某点的原始坐标为R=(x,y,1)T,则消除摄像机运动后的坐标为Q=H·R,通过该方法,重新计算当前视频帧I'k,消除摄像机的运动信息,x、y分别为点R的横坐标和纵坐标;
1d)使用Gunnar Farneback的稠密光流算法,在某一尺度空间上,根据Ik-1与I'k计算稠密光流矩阵,该计算过程通过OPENCV中的calcOpticalFlowFarneback函数实现;
1e)在某一尺度空间上,计算前一帧Ik-1中点Pk-1在当前帧Ik中的位置其中W为稠密光流矩阵;
1f)在多尺度空间上,通过稠密光流跟踪每一个显著点,形成运动显著轨迹。
所述的步骤2具体为:
2a)以每一个显著点P为中心,默认在灰度图像矩阵的32×32像素区域内,计算该区域的梯度直方图向量,其维度为32;
2b)以每一个显著点P为中心,默认在稠密光流矩阵的32×32像素区域内,计算该区域的光流直方图向量,其维度为36;
2c)计算当前帧稠密光流矩阵x分量的梯度Mx和y分量的梯度My,以每一个显著点P为中心,默认在矩阵Mx和My的32×32像素区域内,分别计算上述区域的x分量运动边界直方图和y分量运动边界直方图向量,其维度均为32;
2d)以a帧为轨迹长度,每b帧求均值后,其中,a=3b,分别将上述向量对应连接起来,得到轨迹的特征描述向量;
2e)用有符号平方根L1归一化方法对上述特征向量进行归一化操作。
所述的步骤4具体为:
4a)设X={xt,t=1...T}是某一个视频的上述某一类维数为D的特征描述向量集合,设uλ是一个高斯混合模型:设λ=(wi,μi,Σi,i=1...K)为该高斯混合模型的参数,其中,K表示高斯分量的数目,wi表示第i个高斯分量ui的权重,μi表示ui的均值,∑i表示ui的协方差矩阵,则xt属于某一聚类i的概率:
4b)对于每一个高斯分量,计算其均值μi和标准差σi的梯度向量:
其中,T表示特征向量数;
4c)向量和向量在每一个高斯分量上进行串联,得到视频的Fisher向量该向量的维度是2×D×K。
与现有技术相比,本发明具有以下优点:
第一,本发明首次提出在多尺度空间上使用Scale Invariant FeatureTransform(SIFT)特征点和稠密光流形成显著轨迹,该方法能够有效的跟踪人类运动信息,鲁棒性好;
第二,本发明使用摄像机运动估计技术消除由于摄像机运动导致的干扰因素,实现提取鲁棒的轨迹运动信息,该方法能够消除摄像机运动对人类行为识别产生的干扰;
第三,本发明的识别准确率优于在Hollywood2、YouTube、Olympic Sports、UCF50、HMDB51视频数据集上的主流算法,并且具有较高的计算效率。
附图说明
图1为本发明的原理框架示意图;
图2为本发明训练线性SVM模型流程图;
图3为本发明在测试集视频中人类行为识别流程图;
图4为某视频的鲁棒轨迹示意图,其中,(4a)是HMDB51数据集中某视频在某一时刻前后2帧重叠示意图,(4b)是该时刻消除摄像机运动前的光流示意图,(4c)是该时刻消除摄像机运动后的光流示意图,(4d)是该时刻的运动轨迹示意图;
图5为计算复杂度比较示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
如图1-图3所示,一种基于人类运动显著轨迹的视频分类方法,包括以下步骤:
步骤1:将视频集M划分成训练集Mt和测试集Mv,使用鲁棒的SIFT和稠密光流技术在多尺度空间上跟踪每一个视频中人类运动信息,获得每一个视频的运动显著轨迹,具体为:
1a)循环提取视频中的每一帧图像,以为缩放因子构建尺度空间,设某一尺度空间上当前帧图像为Ik,前一帧图像为Ik-1;
1b)使用SIFT技术检测每一帧图像的显著点P={Pi,i=1,···,m},m为显著点总数;
1c)使用随机抽样一致算法(Random Sample Consensus,RANSAC)估计摄像机的运动变化矩阵H,设某点的原始坐标为R=(x,y,1)T,则消除摄像机运动后的坐标为Q=H·R,通过该方法,重新计算当前视频帧I'k,消除摄像机的运动信息,x、y分别为点R的横坐标和纵坐标;
1d)使用Gunnar Farneback的稠密光流算法,在某一尺度空间上,根据Ik-1与I'k计算稠密光流矩阵,该计算过程通过OPENCV中的calcOpticalFlowFarneback函数实现;
1e)在某一尺度空间上,计算前一帧Ik-1中点Pk-1在当前帧Ik中的位置其中W为稠密光流矩阵;
1f)在多尺度空间上,通过稠密光流跟踪每一个显著点,形成鲁棒的运动显著轨迹。图4中的(4a)-(4d)是对鲁棒轨迹的形象展示。
步骤2:分别提取每个轨迹的特征描述向量,所述的特征描述向量包括梯度直方图(Histogram of Gradient,HOG)向量、光流直方图(Histogram of Optical Flow,HOF)向量、x分量运动边界直方图(Motion Boundary Histogram,MBHx)向量和y分量运动边界直方图(MBHy)向量。
2a)以每一个显著点P为中心,默认在灰度图像矩阵的32×32像素区域内,计算该区域的梯度直方图向量,其维度为32(即:2×2×8);
2b)以每一个显著点P为中心,默认在稠密光流矩阵的32×32像素区域内,计算该区域的光流直方图向量,其维度为36(即:2×2×9);
将32×32像素区域划分成2×2的子区域,每个子区域中的点按方向进行投票。对于每个子区域,将360°划分为8个箱子(即:每个箱子占45°),并增加一个额外的0方向箱子,则每个区域有9个箱子。所以光流直方图向量的维度为36(即:2×2×9);
2c)计算当前帧稠密光流矩阵x分量的梯度Mx和y分量的梯度My,以每一个显著点P为中心,默认在矩阵Mx和My的32×32像素区域内,分别计算上述区域的x分量运动边界直方图和y分量运动边界直方图向量,其维度均为32(即:2×2×8);
2d)以a帧为轨迹长度,每b帧求均值,其中,a=3b,默认a=15,b=5,然后分别将上述向量对应连接起来,得到轨迹的特征描述向量,则轨迹的HOG、HOF、MBHx和MBHy的维度分别为96、108、96、96;
2e)用有符号平方根L1归一化(signed square root and L1normalization)方法对上述特征向量进行归一化操作。
步骤3:使用PCA(Principal Component Analysis)方法消除特征描述向量中的冗余信息,对每一类特征描述向量V进行降维,得到64维特征向量V64。
步骤4:利用高斯混合模型对训练集Mt中的特征描述向量进行聚类,再使用FisherVector生成视频集M中每一个视频的Fisher向量。
分别对轨迹的HOG、HOF、MBHx、MBHy特征向量进行聚类,再用每类特征(即:HOG、HOF、MBHx、MBHy)的一个Fisher向量表示某一个视频。对于不同类别的特征向量,该表示过程相同。具体表示过程如下:
4a)设X={xt,t=1...T}是某一个视频的上述某一类维数为D的特征描述向量集合,设uλ是一个高斯混合模型:设λ=(wi,μi,Σi,i=1...K)为该高斯混合模型的参数,其中,K表示高斯分量的数目,wi表示第i个高斯分量ui的权重,μi表示ui的均值,∑i表示ui的协方差矩阵,则xt属于某一聚类i的概率:
4b)对于每一个高斯分量,计算其均值μi和标准差σi的梯度向量:
其中,T表示特征向量数;
4c)向量和向量在每一个高斯分量上进行串联,得到视频的Fisher向量该向量的维度是2×D×K。
步骤5:在训练集Mt上,使用其中所有视频的Fisher向量做为线性SVM的输入,构建线性SVM分类模型,输出训练好的线性SVM分类模型。
步骤6:在测试集Mv上,使用步骤5获得的线性SVM训练分类模型对测试集中的视频进行分类,识别每个视频中的人类行为。
为了验证本发明的性能,设计了以下两组实验。
实验一:显著轨迹与Dense轨迹的计算复杂度比较。
实验选取Hollywood2数据集中的700个视频做为实验数据,在一台I3 3.4GHZ CPU和8G内存的PC上进行本实验。在该实验中,设置显著轨迹和Dense轨迹的轨迹参数相同,并且都为单线程应用程序。实验分别统计显著轨迹与Dense轨迹提取上述700个视频的时间。通过公式(1)计算显著轨迹相对Dense轨迹的计算速度提升比例。
其中,N是视频数,表示Dense轨迹方法处理N个视频花费的时间,表示显著轨迹方法处理N个视频花费的时间。
上述两个方法的时间比较如图5所示。从结果中可知,在上述条件下,本发明的计算复杂度低于Dense轨迹方法。
实验二:识别准确率比较。
在五个公开视频数据集(即:Hollywood2、YouTube、Olympic Sports、UCF50、HMDB51)上,按照相应数据集的实验规定进行训练和测试。在Hollywood2和Olympic Sports数据集上,实验输出测试集的mean average precision(mAP)值,在其他三个数据集上,实验输出测试集的average accuracy值。在上述五个数据集上,本发明的实验结果分别是:67.5%、90.2%、91.8%、92.1%和58.3%。实验结果证明本发明优于目前公布的主流算法,具有较高的识别率。
以上所述仅为本发明的优选实施例,并不用于限制本发明。本发明还包括由以上技术特征任意组合所组成的技术方案。
Claims (3)
1.一种基于人类运动显著轨迹的视频分类方法,其特征在于,包括以下步骤:
步骤1:将视频集M划分成训练集Mt和测试集Mv,使用SIFT和稠密光流技术在多尺度空间上跟踪每一个视频中人类运动信息,获得每一个视频的运动显著轨迹;
步骤2:分别提取每个轨迹的特征描述向量,所述的特征描述向量包括梯度直方图向量、光流直方图向量、x分量运动边界直方图向量和y分量运动边界直方图向量;
步骤3:使用PCA方法消除特征描述向量中的冗余信息,对每一类特征描述向量进行降维;
步骤4:利用高斯混合模型对训练集Mt中的特征描述向量进行聚类,再使用FisherVector生成视频集M中每一个视频的Fisher向量;
步骤5:在训练集Mt上,使用其中所有视频的Fisher向量做为线性SVM的输入,构建线性SVM分类模型,输出训练好的线性SVM分类模型;
步骤6:在测试集Mv上,使用步骤5获得的线性SVM分类模型对测试集中的视频进行分类;
步骤1中,所述的使用SIFT和稠密光流技术在多尺度空间上跟踪每一个视频中人类运动信息,获得每一个视频的运动显著轨迹具体为:
1a)循环提取视频中的每一帧图像,以为缩放因子构建尺度空间,设某一尺度空间上当前帧图像为Ik,前一帧图像为Ik-1;
1b)使用SIFT技术检测每一帧图像的显著点P={Pi,i=1,···,m},m为显著点总数;
1c)使用随机抽样一致算法估计摄像机的运动变化矩阵H,设某点的原始坐标为R=(x,y,1)T,则消除摄像机运动后的坐标为Q=H·R,通过该方法,重新计算当前视频帧I'k,消除摄像机的运动信息,x、y分别为点R的横坐标和纵坐标;
1d)使用Gunnar Farneback的稠密光流算法,在某一尺度空间上,根据Ik-1与I'k计算稠密光流矩阵,该计算过程通过OPENCV中的calcOpticalFlowFarneback函数实现;
1e)在某一尺度空间上,计算前一帧Ik-1中点Pk-1在当前帧Ik中的位置其中W为稠密光流矩阵;
1f)在多尺度空间上,通过稠密光流跟踪每一个显著点,形成运动显著轨迹。
2.根据权利要求1所述的一种基于人类运动显著轨迹的视频分类方法,其特征在于,所述的步骤2具体为:
2a)以每一个显著点P为中心,默认在灰度图像矩阵的32×32像素区域内,计算该区域的梯度直方图向量,其维度为32;
2b)以每一个显著点P为中心,默认在稠密光流矩阵的32×32像素区域内,计算该区域的光流直方图向量,其维度为36;
2c)计算当前帧稠密光流矩阵x分量的梯度Mx和y分量的梯度My,以每一个显著点P为中心,默认在矩阵Mx和My的32×32像素区域内,分别计算上述区域的x分量运动边界直方图和y分量运动边界直方图向量,其维度均为32;
2d)以a帧为轨迹长度,每b帧求均值后,其中,a=3b,分别将上述向量对应连接起来,得到轨迹的特征描述向量;
2e)用有符号平方根L1归一化方法对上述特征向量进行归一化操作。
3.根据权利要求2所述的一种基于人类运动显著轨迹的视频分类方法,其特征在于,所述的步骤4具体为:
4a)设X={xt,t=1...T}是某一个视频的上述某一类维数为D的特征描述向量集合,设uλ是一个高斯混合模型:设λ=(wi,μi,Σi,i=1...K)为该高斯混合模型的参数,其中,K表示高斯分量的数目,wi表示第i个高斯分量ui的权重,μi表示ui的均值,∑i表示ui的协方差矩阵,则xt属于某一聚类i的概率:
4b)对于每一个高斯分量,计算其均值μi和标准差σi的梯度向量:
其中,T表示特征向量数;
4c)向量和向量在每一个高斯分量上进行串联,得到视频的Fisher向量该向量的维度是2×D×K。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410208197.8A CN104036287B (zh) | 2014-05-16 | 2014-05-16 | 一种基于人类运动显著轨迹的视频分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410208197.8A CN104036287B (zh) | 2014-05-16 | 2014-05-16 | 一种基于人类运动显著轨迹的视频分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104036287A CN104036287A (zh) | 2014-09-10 |
CN104036287B true CN104036287B (zh) | 2017-05-24 |
Family
ID=51467052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410208197.8A Expired - Fee Related CN104036287B (zh) | 2014-05-16 | 2014-05-16 | 一种基于人类运动显著轨迹的视频分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104036287B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104978561A (zh) * | 2015-03-25 | 2015-10-14 | 浙江理工大学 | 融合梯度和光流特征的视频动作行为识别方法 |
CN104881651B (zh) * | 2015-05-29 | 2017-12-15 | 南京信息工程大学 | 一种基于随机投影和Fisher向量的人物行为识别方法 |
CN105046195B (zh) * | 2015-06-09 | 2018-11-02 | 浙江理工大学 | 基于非对称广义高斯模型的人体行为识别方法 |
CN105160290A (zh) * | 2015-07-03 | 2015-12-16 | 东南大学 | 一种基于改进型稠密轨迹的移动边界采样的行为识别方法 |
CN105224914B (zh) * | 2015-09-02 | 2018-10-23 | 上海大学 | 一种基于图的无约束视频中显著物体检测方法 |
CN106557765A (zh) * | 2015-09-29 | 2017-04-05 | 欧姆龙株式会社 | 注意检测装置以及注意检测方法 |
CN105488519B (zh) * | 2015-11-13 | 2019-01-25 | 同济大学 | 一种基于视频尺度信息的视频分类方法 |
CN105868711B (zh) * | 2016-03-28 | 2020-04-17 | 电子科技大学 | 一种基于稀疏低秩的人体行为识别方法 |
US9946933B2 (en) | 2016-08-18 | 2018-04-17 | Xerox Corporation | System and method for video classification using a hybrid unsupervised and supervised multi-layer architecture |
CN106709419B (zh) * | 2016-11-18 | 2020-06-30 | 中山大学 | 一种基于显著轨迹空间信息的视频人体行为识别方法 |
CN106778854B (zh) * | 2016-12-07 | 2019-12-24 | 西安电子科技大学 | 基于轨迹和卷积神经网络特征提取的行为识别方法 |
CN107229912B (zh) * | 2017-05-22 | 2020-04-07 | 西安电子科技大学 | 基于小波域联合统计描述子的行为识别方法 |
CN108241849B (zh) * | 2017-08-28 | 2021-09-07 | 北方工业大学 | 基于视频的人体交互动作识别方法 |
CN109697387B (zh) * | 2017-10-23 | 2021-07-30 | 北京京东尚科信息技术有限公司 | 运动方向预测方法、装置、电子设备及存储介质 |
CN108629301B (zh) * | 2018-04-24 | 2022-03-08 | 重庆大学 | 一种人体动作识别方法 |
CN111310177A (zh) * | 2020-03-17 | 2020-06-19 | 北京安为科技有限公司 | 一种基于内存行为特征的视频监控设备攻击检测系统 |
CN112044046B (zh) * | 2020-08-28 | 2021-06-25 | 浙江大学 | 基于深度学习的跳绳计数方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663409A (zh) * | 2012-02-28 | 2012-09-12 | 西安电子科技大学 | 一种基于hog-lbp描述的行人跟踪方法 |
CN103345623A (zh) * | 2013-07-11 | 2013-10-09 | 中国科学院自动化研究所 | 一种基于鲁棒相对属性的行为识别方法 |
-
2014
- 2014-05-16 CN CN201410208197.8A patent/CN104036287B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663409A (zh) * | 2012-02-28 | 2012-09-12 | 西安电子科技大学 | 一种基于hog-lbp描述的行人跟踪方法 |
CN103345623A (zh) * | 2013-07-11 | 2013-10-09 | 中国科学院自动化研究所 | 一种基于鲁棒相对属性的行为识别方法 |
Non-Patent Citations (3)
Title |
---|
Action Recognition by Dense Trajectories;Heng Wang等;《Proceedings of the IEEE International Conference on Computer Vision》;20131208;3551-3558 * |
Trajectons: action recognition through the motion analysis of tracked features;Matikainen P 等;《Proceedings of the IEEE International Conference on Computer Vision》;20091231;514-521 * |
基于最大互信息区域跟踪的人体行为检测算法;王泰青 等;《自动化学报》;20121231;第38卷(第12期);2023-2031 * |
Also Published As
Publication number | Publication date |
---|---|
CN104036287A (zh) | 2014-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104036287B (zh) | 一种基于人类运动显著轨迹的视频分类方法 | |
Du et al. | The elements of end-to-end deep face recognition: A survey of recent advances | |
Huang et al. | Tracknet: A deep learning network for tracking high-speed and tiny objects in sports applications | |
CN106778854B (zh) | 基于轨迹和卷积神经网络特征提取的行为识别方法 | |
CN109344736B (zh) | 一种基于联合学习的静态图像人群计数方法 | |
Guo et al. | Action recognition using sparse representation on covariance manifolds of optical flow | |
WO2016138838A1 (zh) | 基于投影极速学习机的唇语识别方法和装置 | |
Sahoo et al. | HAR-depth: a novel framework for human action recognition using sequential learning and depth estimated history images | |
Xian et al. | Evaluation of low-level features for real-world surveillance event detection | |
Yi et al. | Motion keypoint trajectory and covariance descriptor for human action recognition | |
Huang et al. | Evaluation-oriented knowledge distillation for deep face recognition | |
Luo et al. | SFA: small faces attention face detector | |
Zhu et al. | Action recognition in broadcast tennis video | |
Li et al. | Online metric-weighted linear representations for robust visual tracking | |
CN105160290A (zh) | 一种基于改进型稠密轨迹的移动边界采样的行为识别方法 | |
Xu et al. | Action recognition by saliency-based dense sampling | |
Valle et al. | Cascade of encoder-decoder CNNs with learned coordinates regressor for robust facial landmarks detection | |
Edison et al. | Optical acceleration for motion description in videos | |
Gu et al. | Unsupervised and semi-supervised robust spherical space domain adaptation | |
Wang et al. | Basketball shooting angle calculation and analysis by deeply-learned vision model | |
Jiang et al. | Application of a fast RCNN based on upper and lower layers in face recognition | |
Wang et al. | Semantic-aware transfer with instance-adaptive parsing for crowded scenes pose estimation | |
Lin et al. | Region-based context enhanced network for robust multiple face alignment | |
Zhang | [Retracted] Sports Action Recognition Based on Particle Swarm Optimization Neural Networks | |
Bhattacharya et al. | Covariance of motion and appearance featuresfor spatio temporal recognition tasks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230410 Address after: Unit 1001, 369 Weining Road, Changning District, Shanghai, 200336 (9th floor of actual floor) Patentee after: DEEPBLUE TECHNOLOGY (SHANGHAI) Co.,Ltd. Address before: 200092 Siping Road 1239, Shanghai, Yangpu District Patentee before: TONGJI University |
|
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170524 |