CN104408461B - 一种基于滑动窗口局部匹配窗口的动作识别方法 - Google Patents

一种基于滑动窗口局部匹配窗口的动作识别方法 Download PDF

Info

Publication number
CN104408461B
CN104408461B CN201410432364.7A CN201410432364A CN104408461B CN 104408461 B CN104408461 B CN 104408461B CN 201410432364 A CN201410432364 A CN 201410432364A CN 104408461 B CN104408461 B CN 104408461B
Authority
CN
China
Prior art keywords
mrow
feature
action
mfrac
dist
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410432364.7A
Other languages
English (en)
Other versions
CN104408461A (zh
Inventor
陈胜勇
王其超
沃波海
管秋
王鑫
汪晓妍
王万良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201410432364.7A priority Critical patent/CN104408461B/zh
Publication of CN104408461A publication Critical patent/CN104408461A/zh
Application granted granted Critical
Publication of CN104408461B publication Critical patent/CN104408461B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

一种基于滑动窗口局部匹配窗口的动作识别方法,包括如下步骤:1)从立体相机中获得场景中人的深度图序列,从深度图中提取出3D关节点的位置,用姿态之间的3D位移差作为每帧深度图的特征表达;2)用聚类方法对训练集中的描述子进行学习,得到特征集合,并用它对每个描述子进行特征表达,从而得到每帧图像的编码表示;3)采用基于滑动窗口的局部匹配模型,对整个动作图像序列进行动作片段划分,并得到每个动作片段的特征直方图表达;4)用一个长向量把所有片段的特征直方图表达串联起来,就是整个动作的特征表达。本发明有效识别相似的动作、识别率较高。

Description

一种基于滑动窗口局部匹配窗口的动作识别方法
技术领域
本发明涉及视频识别领域,尤其是一种动作识别方法。
背景技术
人体运动特征描述是对序列图像中人体姿态信息的表达,它是人体动作识别的重要组成部分。人体运动是链式非刚体的运动,即身体各部分的运动是刚体运动,而从整体来看,人体的运动又呈现高度的非线性、非刚体性。
人体动作识别主要分为基于时空的动作识别方法和基于序列的动作识别方法。首先在训练视频集中为每一个动作构造对应的三维X-Y-T模型,然后通过匹配待识别动作序列与训练集各动作的三维X-Y-T模型,确定该测试动作的种类。基于时空的动作识别方法主要包括以下三类:基于时空卷的识别方法、基于运动轨迹的识别方法、基于时空局部特征的识别方法。
现有的识别方法存在的缺陷:无法识别相似的动作,识别率较低。
发明内容
为了克服动作识别方法的无法识别相似的动作,识别率较低的不足,本发明提供一种有效识别相似的动作、识别率较高的基于滑动窗口局部匹配窗口的动作识别方法。
本发明解决其技术问题所采用的技术方案是:
一种基于滑动窗口局部匹配窗口的动作识别方法,包括如下步骤:
1)从立体相机中获得场景中人的深度图序列,从深度图中提取出3D关节点的位置,用姿态之间的3D位移差作为每帧深度图的特征表达;
2)用聚类方法对训练集中的描述子进行学习,得到特征集合,并用它对每个描述子进行特征表达,从而得到每帧图像的编码表示;
3)采用基于滑动窗口的局部匹配模型,对整个动作图像序列进行动作片段划分,并得到每个动作片段的特征直方图表达;
基于滑动窗口的局部匹配模型的特征匹配过程如下:假设训练集中学习得到的特征码本个数为M,每个动作序列经处理后包含n帧深度图像。同时假定滑动窗口的尺寸为w,每次移动步长为l,则表示整个动作的特征向量的维度为
4)用一个长向量把所有片段的特征直方图表达串联起来,就是整个动作的特征表达。
进一步,所述步骤2)中,采用局部训练,首先用K-means聚类方法单独对每一类动作的训练集训练得到特征集合,然后将从所有动作集中学习得到的特征集合组成能够表征整个训练集的动作特征集合,最后将每类动作映射到训练得到的动作特征集合,得到每一类动作模型的特征直方图分布图。
再进一步,所述步骤2)中,对每一个姿态描述子进行量化编码。令P为从动作序列中获得的姿态特征描述子,每个特征描述子的维度为D,总共有N个特征,则令训练得到的码本有M个码字,即
编码方式如下:
其中,C=[c1,c2,...cm]表示对应特征码字集F的权值,*表示元素间相乘,di是局部适配因子,选取di为非线性的表达式,同时引入了最近相似距离distMin作为参考;
其中,dist(pi,F)=[dist(pi,f1),dist(pi,f2),…,dist(pi,fM)],dist(pi,fj)表示pi和fj之间的欧拉距离,σ为用于调节权重的系数;
distMin=min{dist(pi,f1),dist(pi,f2),…,dist(pi,fM)}。
更进一步,所述步骤4)中,假设训练集中的动作序列X分成了p个片段,对应的动作片段特征表达为H0(X),H1(X)…,Hp-1(X),则整个动作X的特征表达为:H(X)=[H0(X),H1(X)…,Hp-1(X)]。
当有新的动作序列Y等待分类时,首先进行特征提取,用特征重构方法得到特征词汇表达;然后动作片段划分,用基于滑动窗口的局部匹配模型得到对应片段的特征表达,H0(Y),H1(Y)…,Hp-1(Y);最后依次连接局部特征表达,整个动作Y的特征表达为H(X)=[H0(Y),H1(Y)…,Hp-1(Y)];在分类过程中,通过直方图相交操作进行测试序列与训练集各类动作的相似度衡量:
从而确定动作序列Y的分类。
本发明的有益效果主要表现在:传统的词袋模型实现简单直观,能够识别差异性较大的动作。但由于没有考虑到时空约束,无法识别出相似动作。本文提出了基于滑动窗口的局部匹配窗口的动作识别方法,对传统的词袋模型进行了多方面的改进,增加了时间约束性,提高了动作识别率。在训练过程中,本文用局部训练法取代了传统的整体训练法,提高了特征词汇的表征性。在特征量化阶段,本文用局部线性重构取代了传统的直接量化。在对象特征表达阶段,本文用多个不同动作片段的特征表达取代了传统的整体表达。
附图说明
图1是基于滑动窗口的动作序列特征表达的示意图。
图2是在固定步长下,不同的窗口尺寸对识别性能的影响的示意图。
图3是在固定窗口尺寸下,不同的步长l对算法性能的影响的示意图。
图4是不同参数组合(w,l)下的识别率情况的示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种基于滑动窗口局部匹配窗口的动作识别方法,包括如下步骤:
1)从立体相机中获得场景中人的深度图序列,从深度图中提取出3D关节点的位置,用姿态之间的3D位移差作为每帧深度图的特征表达;
2)用聚类方法对训练集中的描述子进行学习,得到特征集合,并用它对每个描述子进行特征表达,从而得到每帧图像的编码表示;
3)采用基于滑动窗口的局部匹配模型,对整个动作图像序列进行动作片段划分,并得到每个动作片段的特征直方图表达;
基于滑动窗口的局部匹配模型的特征匹配过程如下:假设训练集中学习得到的特征码本个数为M,每个动作序列经处理后包含n帧深度图像。同时假定滑动窗口的尺寸为w,每次移动步长为l,则表示整个动作的特征向量的维度为
4)用一个长向量把所有片段的特征直方图表达串联起来,就是整个动作的特征表达。
本实施例中,采用局部训练,首先用K-means聚类方法单独对每一类动作的训练集训练得到特征集合,然后将从所有动作集中学习得到的特征集合组成能够表征整个训练集的动作特征集合,最后将每类动作映射到训练得到的动作特征集合,得到每一类动作模型的特征直方图分布图。用局部训练法得到的拍手、胸前挥手、走路这三个动作的特征直方图分布图,从中可以发现,有80%以上的训练集动作姿态映射到该类动作训练得到的特征集合上,从而显著增加了动作模型之间的差异性。
特征码本得到后,本文将对每一个姿态描述子进行量化编码。令P为从动作序列中获得的姿态特征描述子,每个特征描述子的维度为D,总共有N个特征,则令训练得到的码本有M个码字,即
这里不同的重构策略将会产生不同的重构结果。
参考稀疏编码,设计了一种新的编码方式。
这里C=[c1,c2,...cm]表示对应特征码字集F的权值,*表示元素间相乘,di是局部适配因子,选取di为非线性的表达式,同时引入了最近相似距离distMin作为参考;
其中,dist(pi,F)=[dist(pi,f1),dist(pi,f2),…,dist(pi,fM)],dist(pi,fj)表示pi和fj之间的欧拉距离,σ为用于调节权重的系数;
distMin=min{dist(pi,f1),dist(pi,f2),…,dist(pi,fM)}。
由于高斯函数非线性的特性,当dist(pi,F)与distMin非常接近时,di的值接近于dmax,当dist(pi,F)大于distMin的三倍时,di的值将趋近与0。这为自适应的选取pi的局部邻域提供了解决方案。
在图像内容分类领域,Grauman等人[66]对传统的词袋模型进行了改进,提出了金字塔匹配核。金字塔匹配核的核心思想是在不同分辨率下计算两个对象对应特征点的匹配情况。在任意固定分辨率下的对应窗口下,两个对象对应相同特征点的个数作为匹配特征点的个数。同时,规定在精细分辨率下得到的匹配对的权值大于在粗糙分辨率下得到的匹配对。
传统的词袋模型把整个对象看做一个整体,用特征映射的方式得到特征直方图,通过对比两个对象直方图的相似性来判别对象。这种匹配方式具有简单快速的优点,但是直方图得到的是特征集的统计信息,忽略了时间和空间上的约束。这会导致相似动作的误匹配。在进行动作识别过程中,将整个姿态作为一个特征词汇,增加了每帧图像空间上的约束。同时,将整个动作序列划分成多个片段,在片段内计算特征集合的直方图分布,从而增加了时间上的约束。
本实施例使用了基于时间窗口的局部匹配模型(locality windows matchingbased on sliding window,SW-LWM)的划分策略,滑动窗口技术较早用于网络中流量的控制,它也成功地应用于图像关键信息的定位。在实际操作中,它把图像定位的任务转化为局部检测,在相继的图像子区域中运用分类器进行定位。一般一幅n*n的图片会产生n的图像子区域,这会产生巨大的计算量。并非在每帧深度图内运用滑动窗口技术进行匹配,而是把整幅图像作为一个单元,在时间维度上运用滑动窗口技术。这样即避免增加大量的计算量,又增加了时间上的约束。
图1展示了基于滑动窗口的动作识别过程,左边为动作序列,右边为直方图。假设训练集中学习得到的特征码本个数为M,每个动作序列经处理后包含n帧深度图像。同时假定滑动窗口的尺寸为w,每次移动步长为l,则表示整个动作的特征向量的维度为
通过上文的局部匹配过程,可以得到不同匹配窗口下的特征表达。假设训练集中的动作序列X分成了p个片段,对应的动作片段特征表达为H0(X),H1(X)…,Hp-1(X),则整个动作X的特征表达为:H(X)=[H0(X),H1(X)…,Hp-1(X)]。
当有新的动作序列Y等待分类时,首先进行特征提取,用特征重构方法得到特征词汇表达;然后动作片段划分,用局部窗口匹配方法得到对应片段的特征表达,H0(Y),H1(Y)…,Hp-1(Y);最后依次连接局部特征表达,整个动作Y的特征表达为H(X)=[H0(Y),H1(Y)…,Hp-1(Y)]。
在分类过程中,通过直方图相交操作进行测试序列与训练集各类动作的相似度衡量:
从而确定动作序列Y的分类。
本实施例中,基于SW-LWM的实验结果:将数据库中的20个动作分成3个动作子集,每个子集包含8种不同的动作(见表1)。在测试1中,1/3的样本作为训练集,其余的作为测试集。在测试2中,2/3的样本作为训练集,其余的作为测试集。在测试3中,一半对象的动作样例作为训练集,另一半对象的动作样例作为测试集。
在局部重构过程的权值选取中,σ越大,权值曲线越平缓,对应的特征词汇重构权值越大;σ越小,权值曲线越瘦高,对应的特征词汇重构权值越小。经实验测试检验,当σ=10.0最适合姿态的重构。
表1 MSR Action3D数据库中的三个动作子集库
动作集1(AS1) 动作集2(AS2) 动作集(AS3)
胸前挥手 扬起手臂挥手 向上扔
敲打 前踢
挥拳 画叉 侧踢
向上扔 画勾 慢跑
拍手 画圈 挥舞网球拍
弯腰 双手挥动 发球
发球 前踢 挥动高尔夫球
捡起投掷 侧面击打 捡起投掷
图2展示了在固定步长下,不同的窗口尺寸对识别性能的影响。从图中可以看出,当窗口过小(如图2中的w=4)和窗口过大(如图2中的w=16)均会导致性能的下降。由于数据库中每个动作序列的帧数有限,当窗口尺寸过大时,时间约束性的降低将导致误匹配点对的增加;当窗口尺寸过小时,由于时间约束性过强,不同执行速率的同类动作将导致同一窗口下匹配点对数量的不足。经实验分析,令序列的长度为n,则窗口大小w的选取应满足:
图3展示了在固定窗口尺寸下,不同的步长l对算法性能的影响。从图中可以看出,当步长l过大(如图3中的l=1)和步长l过小(如图3中的l=7)时,均会降低算法的性能。步长的选择与窗口尺寸有密切关系,当步长变大时窗口之间的交叉区域将变小,同时考虑到动作执行速率的变化,这将导致在特定窗口下有效匹配点数的减少;当步长变小时窗口之间的交叉区域将变大,这既会增加特定窗口下误匹配点对的数量,也一定程度上增加了动作序列特征表达的维度。经实验分析,步长l的选取应满足如下的关系:
综合上述,步长和窗口尺寸的选择应满足以下条件:
在给定条件下,本实施例测试了不同步长、窗口组合对识别性能的影响。
图4展示了不同参数组合(w,l)下的识别率情况。
本实施例的方案,引入了动作片段划分过程,通过在局部窗口内进行匹配,增加了算法的时间约束性,提高了算法的识别性能。

Claims (1)

1.一种基于滑动窗口局部匹配窗口的动作识别方法,其特征在于:包括如下步骤:
1)从立体相机中获得场景中人的深度图序列,从深度图中提取出3D关节点的位置,用姿态之间的3D位移差作为每帧深度图的特征表达;
2)用聚类方法对训练集中的描述子进行学习,得到特征集合,并用它对每个描述子进行特征表达,从而得到每帧图像的编码表示;
3)采用基于滑动窗口的局部匹配模型,对整个动作图像序列进行动作片段划分,并得到每个动作片段的特征直方图表达;
基于滑动窗口的局部匹配模型的特征匹配过程如下:假设训练集中学习得到的特征码本个数为M,每个动作序列经处理后包含n帧深度图像,同时假定滑动窗口的尺寸为w,每次移动步长为l,则表示整个动作的特征向量的维度为
4)用一个长向量把所有片段的特征直方图表达串联起来,就是整个动作的特征表达;
所述步骤2)中,采用局部训练,首先用K-means聚类方法单独对每一类动作的训练集训练得到特征集合,然后将从所有动作集中学习得到的特征集合组成能够表征整个训练集的动作特征集合,最后将每类动作映射到训练得到的动作特征集合,得到每一类动作模型的特征直方图分布图;
所述步骤2)中,对每一个姿态描述子进行量化编码,令P为从动作序列中获得的姿态特征描述子,每个特征描述子的维度为D,总共有N个特征,则令训练得到的码本有M个码字,即
编码方式如下:
其中,C=[c1,c2,...cm]表示对应特征码字集F的权值,*表示元素间相乘,di是局部适配因子,选取di为非线性的表达式,同时引入了最近相似距离distMin作为参考;
<mrow> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <msup> <mrow> <mo>(</mo> <mrow> <mrow> <mo>(</mo> <mrow> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mrow> <mo>(</mo> <mrow> <msub> <mi>p</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>F</mi> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mi>M</mi> <mi>i</mi> <mi>n</mi> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mi>M</mi> <mi>i</mi> <mi>n</mi> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mrow> <mn>2</mn> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>2</mn> <mo>)</mo> </mrow> </mrow>
其中,dist(pi,F)=[dist(pi,f1),dist(pi,f2),…,dist(pi,fM)],dist(pi,fj)表示pi和fj之间的欧拉距离,σ为用于调节权重的系数;
distMin=min{dist(pi,f1),dist(pi,f2),…,dist(pi,fM)};
所述步骤4)中,假设训练集中的动作序列X分成了p个片段,对应的动作片段特征表达为H0(X),H1(X)…,Hp-1(X),则整个动作X的特征表达为:H(X)=[H0(X),H1(X)…,Hp-1(X)];当有新的动作序列Y等待分类时,首先进行特征提取,用特征重构方法得到特征词汇表达;然后动作片段划分,用基于滑动窗口的局部匹配模型得到对应片段的特征表达,H0(Y),H1(Y)…,Hp-1(Y);最后依次连接局部特征表达,整个动作Y的特征表达为H(X)=[H0(Y),H1(Y)…,Hp-1(Y)];在分类过程中,通过直方图相交操作进行测试序列与训练集各类动作的相似度衡量:
<mrow> <mi>&amp;Gamma;</mi> <mrow> <mo>(</mo> <mi>H</mi> <mo>(</mo> <mi>X</mi> <mo>)</mo> <mo>,</mo> <mi>H</mi> <mo>(</mo> <mi>Y</mi> <mo>)</mo> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>M</mi> </munderover> <mi>m</mi> <mi>i</mi> <mi>n</mi> <mrow> <mo>(</mo> <mi>H</mi> <msub> <mrow> <mo>(</mo> <mi>X</mi> <mo>)</mo> </mrow> <mi>j</mi> </msub> <mo>,</mo> <mi>H</mi> <msub> <mrow> <mo>(</mo> <mi>Y</mi> <mo>)</mo> </mrow> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>3</mn> <mo>)</mo> </mrow> </mrow>
从而确定动作序列Y的分类;
所述步骤3)中,步长l和窗口尺寸w的选择应满足以下条件:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>4</mn> </mfrac> <mo>&amp;le;</mo> <mfrac> <mi>w</mi> <mi>n</mi> </mfrac> <mo>&amp;le;</mo> <mfrac> <mn>1</mn> <mn>3</mn> </mfrac> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mfrac> <mn>1</mn> <mn>3</mn> </mfrac> <mo>&amp;le;</mo> <mfrac> <mi>l</mi> <mi>w</mi> </mfrac> <mo>&amp;le;</mo> <mfrac> <mn>2</mn> <mn>3</mn> </mfrac> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> <mo>.</mo> </mrow>
CN201410432364.7A 2014-11-05 2014-11-05 一种基于滑动窗口局部匹配窗口的动作识别方法 Active CN104408461B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410432364.7A CN104408461B (zh) 2014-11-05 2014-11-05 一种基于滑动窗口局部匹配窗口的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410432364.7A CN104408461B (zh) 2014-11-05 2014-11-05 一种基于滑动窗口局部匹配窗口的动作识别方法

Publications (2)

Publication Number Publication Date
CN104408461A CN104408461A (zh) 2015-03-11
CN104408461B true CN104408461B (zh) 2018-03-16

Family

ID=52646092

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410432364.7A Active CN104408461B (zh) 2014-11-05 2014-11-05 一种基于滑动窗口局部匹配窗口的动作识别方法

Country Status (1)

Country Link
CN (1) CN104408461B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680188B (zh) * 2015-03-24 2018-04-27 重庆大学 一种人体姿态基准图像库的构建方法
CN106611157B (zh) * 2016-11-17 2019-11-29 中国石油大学(华东) 一种基于光流定位和滑动窗口检测的多人姿态识别方法
TWI683276B (zh) * 2017-11-10 2020-01-21 太豪生醫股份有限公司 病灶偵測裝置及其方法
CN109195011B (zh) * 2018-10-25 2022-01-25 腾讯科技(深圳)有限公司 一种视频处理方法、装置、设备及存储介质
CN109712174B (zh) * 2018-12-25 2020-12-15 湖南大学 一种复杂异形曲面机器人三维测量的点云误配准滤除方法及系统
CN110765967B (zh) * 2019-10-30 2022-04-22 腾讯科技(深圳)有限公司 一种基于人工智能的动作识别方法和相关装置
CN117014234B (zh) * 2023-10-07 2023-12-08 成都创一博通科技有限公司 基于区块链的信息加密传输方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400154A (zh) * 2013-08-09 2013-11-20 电子科技大学 一种基于有监督等距映射的人体动作识别方法
CN104021381A (zh) * 2014-06-19 2014-09-03 天津大学 一种基于多层级特征的人体动作识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311954B2 (en) * 2007-11-29 2012-11-13 Nec Laboratories America, Inc. Recovery of 3D human pose by jointly learning metrics and mixtures of experts

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400154A (zh) * 2013-08-09 2013-11-20 电子科技大学 一种基于有监督等距映射的人体动作识别方法
CN104021381A (zh) * 2014-06-19 2014-09-03 天津大学 一种基于多层级特征的人体动作识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于局部匹配窗口的动作识别方法;王鑫 等;《计算机辅助设计与图形学学报》;20141031;第26卷(第10期);第1766页第1-5段,第1768页第1-4段,第1769页第1-2段 *
基于流形学习的人体动作识别;王鑫 等;《中国图象图形学报》;20140630(第6期);第914-922页 *

Also Published As

Publication number Publication date
CN104408461A (zh) 2015-03-11

Similar Documents

Publication Publication Date Title
CN104408461B (zh) 一种基于滑动窗口局部匹配窗口的动作识别方法
CN104408396B (zh) 一种基于时间金字塔局部匹配窗口的动作识别方法
Huang et al. Multi-scale dense convolutional networks for efficient prediction
US10186041B2 (en) Apparatus and method for analyzing golf motion
CN106778796B (zh) 基于混合式协同训练的人体动作识别方法及系统
CN103942568B (zh) 一种基于无监督特征选择的分类方法
CN100485713C (zh) 基于集成隐马尔可夫模型学习方法的人体运动数据的识别方法
CN109784280A (zh) 基于Bi-LSTM-Attention模型的人体行为识别方法
CN103544483B (zh) 一种基于局部稀疏表示的联合目标追踪方法及其系统
CN110728220A (zh) 基于人体动作骨骼信息的体操辅助训练方法
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN105574063A (zh) 基于视觉显著性的图像检索方法
CN104298977B (zh) 一种基于不相关性约束的低秩表示人体行为识别方法
JP2015505108A (ja) オブジェクト認識装置、分類ツリー学習装置及びその動作方法
CN104063713B (zh) 一种基于随机蕨分类器的半自主在线学习方法
CN103336835B (zh) 基于权值color‑sift特征字典的图像检索方法
CN110096948B (zh) 基于特征聚合卷积网络的遥感影像识别方法
CN104809469A (zh) 一种面向服务机器人的室内场景图像分类方法
CN102819744A (zh) 一种双通道信息融合的情感识别方法
CN109902564A (zh) 一种基于结构相似性稀疏自编码网络的异常事件检测方法
CN108921047A (zh) 一种基于跨层融合的多模型投票均值动作识别方法
CN110188668A (zh) 一种面向小样本视频动作分类的方法
CN103839273A (zh) 基于压缩感知特征选择的实时检测跟踪框架与跟踪方法
CN109920050A (zh) 一种基于深度学习和薄板样条的单视图三维火焰重建方法
CN107220597B (zh) 一种基于局部特征和词袋模型人体动作识别过程的关键帧选取方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant