CN104200455B - 一种基于运动统计特征分析的关键姿态提取方法 - Google Patents

一种基于运动统计特征分析的关键姿态提取方法 Download PDF

Info

Publication number
CN104200455B
CN104200455B CN201410263618.7A CN201410263618A CN104200455B CN 104200455 B CN104200455 B CN 104200455B CN 201410263618 A CN201410263618 A CN 201410263618A CN 104200455 B CN104200455 B CN 104200455B
Authority
CN
China
Prior art keywords
mrow
mtd
point
msub
mtr
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410263618.7A
Other languages
English (en)
Other versions
CN104200455A (zh
Inventor
毋立芳
张世杰
钱坤
张静文
邱健康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410263618.7A priority Critical patent/CN104200455B/zh
Publication of CN104200455A publication Critical patent/CN104200455A/zh
Application granted granted Critical
Publication of CN104200455B publication Critical patent/CN104200455B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于运动统计特征分析的关键姿态提取方法涉及运动目标检测域。本发明将金字塔LK光流方法应用于举重运动视频中,建立了4个时空通道描述子,将统计分析特性应用于举重运动,而且发现每个通道强度的最值点处和要提取的关键姿态有着紧密的联系。对于教练希望详细查看、分析的关键帧画面以及对于运动员举重的训练具有重大意义。

Description

一种基于运动统计特征分析的关键姿态提取方法
技术领域
本发明涉及运动目标检测域中基于运动员关键姿态提取技术,具体涉及一种基于运动统计特征分析,来提取运动视频中关键姿态帧方法的研究及实现。
背景技术
随着目标检测与跟踪系统进入数字化时代,运动目标检测与跟踪把图像处理、自动控制、信息科学有机结合起来,形成了一种能从图像信号中实时地自动识别目标,提取目标位置信息,自动跟踪目标运动的技术。对序列图像中的目标进行实时检测与跟踪技术越来越具有实用性,它在智能监控、交通监视、流量统计等领域有非常重要的实用价值,具有广阔的发展前景,在军事、工业、安防、智能交通和科学研究等方面都具有重要的意义。
目前,运动目标的检测技术已经颇为成熟,下面是三种比较经典的方法:(1)光流法三种传统的运动目标检测算法之一。当物体运动时,在图象上对应物体的亮度模式也在运动,从而称光流是图象亮度模式的视觉在运动。光流法检测采用了目标随时间变化的光流特性。利用光流法可以通过计算位移向量光流场来初始化目标的轮廓,从而使基于轮廓的跟踪算法有效地检测和跟踪目标。特征光流法的主要点在于对目标帧间的运动的限制较少,可以处理大的帧间的位移;主要缺点是大多数光流计算方法相当复杂,且抗噪性能差,如果没有特定的硬件支持,一般很难应用于序列图像中运动目标的实时性操作。光流法参见文献:Sasa G,Lonoario S.Spalic-temporal image segmentation using opticalflow and clustering algorithm[A].First Int,Workshop on Image and SignalProcessing Analysis[C],Pula,Crotia.2000.63-38。(2)帧间差分法三种传统的运动目标检测算法之一。帧间差分是检测相邻两帧图象之间变化的最简单、最直接的方法,它是直接比较了两帧图象对应象素点的灰度值的不同,然后通过阈值来提取序列图象中的运动区域,第k帧图象A(x,y)和第k+l帧图象Ux,式中T为差分图象二值化的阈值。二值图象中为"0"的象素对应在前后两帧图象间没有发生(由于运动而产生的)变化的地方,为"1"的象素对应两帧图象间发生变化的地方,这常是由目标运动而产生的。帧差法参见文献:Foresti GL.Object recognition and tracking for remote video surveillance[J].Circuits&Systems for Video Technology IEEE Transactions on,1999,9(7):1045-1062.(3)背景消减法三种传统的运动目标检测算法之一。在摄像头固定的情况下,背景消减法是常用的运动目标检测方法。其基本思想是将当前帧图象与事先存储或者实时得到的背景模型比较,根据比较的结果判断此象素点是否属于运动目标区域。背景消减法参见文献:StringaE,Regazzoni C S.Real-time video-shot detection for scene surveillanceapplications[J].IEEE Transactions on Image Processing A Publication of theIEEE Signal Processing Society,2000,9(1):69-79.背景消减法操作简单,检测位置准确且速度快。但通常的背景消减法对光线、天气等光照条件的变化非常敏感。运动目标的阴影也常常被检测为运动目标的一部分。这将影响检测结果的准确性。因此,在非控环境中需要加入背景图象的更新机制。常见的背景模型有单高斯分布背景模型和多高斯分布背景模型,前者是为每一个象素点建立了一个高斯分布模型,而后者则是根据多个高斯分布共同描述一个象素点上的颜色分布,参考文献:C Stauffer,W E L Grimson.L-earningPatters of Activity Using Real—Time Tracking,IEEE Trans.PAMI,2000,22(8):747~757和R T Collins,AJLipton,T Kanade.A System for Video Surveillance andMonitoring.Proc A m.Nuclear Soc.(ANS)English Int,1 Topical Meeting Roboticand Remote Systems,Apr.1999传统的基于统计模型的背景法,由于需要对每个象素点建立统计模型,计算量大,而且通过该模型进行运动目标检测,无法在短时间内消除运动目标带来的"鬼影"。
发明内容
本发明是一种基于运动统计特征进行运动关键姿态的分析方法,将金字塔LK光流方法应用于举重运动视频中,建立了4个时空通道描述子,将统计分析特性应用于举重运动,而且发现每个通道强度的最值点处和要提取的关键姿态有着紧密的联系。对于教练希望详细查看、分析的关键帧画面以及对于运动员举重的训练具有重大意义。
为了实现上述应用,具体步骤如下:
1)获得以人物为中心的视频序列。
2)在每一帧图像上按7*7(比例可以是5*5~9*9,本发明以7*7为例)窗口大小,对像素点进行采样,如下图1是采样的特征点。
3)以采样到的点为特征点进行金字塔Lucas-Kanade光流跟踪。令point[0][i]为前一帧的采样点坐标,point[1][i]为光流跟踪该点的当前图像帧中的坐标,则:
dist=point[1][i]-point[0][i]i=0,1,2.....(width/7)*(height/7) (1)
其中dist为采样点的运动矢量,i为每帧图像中采样点的位置。width为图像宽度,height为图像高度,连接点point[1][i]和点point[0][i],就得到了光流运动的矢量图,以dist的大小为尺度,以point[0][i]为左上角坐标点,在7*7区域内标定亮度,得到了运动的显著性图。图2(a)-(b)是一段举重视频中几帧光流跟踪的矢量图和显著性图。
从矢量图和显著性图可以看出,光流运动主要集中于前景运动员的运动,背景的运动噪声相对较小。
4)根据3)中dist运动矢量,将光流跟踪的结果分解成四个分量水平正方向Fx+、水平负方向Fx-、垂直正方向Fy+、垂直负方向Fy_,建立4个通道描述子。如图3是每个通道建立的过程。
定义点运动的水平距离dx,垂直距离dy为:
dx=point[1][i].x-point[0][i].x i=0,1,2.....(width/7)*(height/7) (2)
dy=point[1][i].y-point[0][i].y i=0,1,2.....(width/7)*(height/7) (3)
光流矢量4个通道划分:
i=0,1,2.....(width/7)*(height/7)
t=1,2.......flast
width,height代表图像的宽度和高度,其中i代表每帧图像中采样的像素点的位置,t代表当前图像在运动视频序列中的帧号,flast为该视频序列中最后一帧图像,dx为光流跟踪的运动矢量在水平方向的运动,dy为光流跟踪的运动矢量在垂直方向的运动,设0.1为阈值(经验值),当|dx|>0.1时,认为跟踪点水平运动显著,当dx>0.1,说明运动矢量是水平正方向,将其赋值给Fx+(t,i);当dx≤0.1,说明运动矢量是水平负方向,将其赋值给Fx-(t,i),设0.1为阈值(经验值),当|dy|>0.1时,认为跟踪点垂直运动显著,当dy>0.1,说明运动矢量是垂直正方向,将其赋值给Fy+(t,i);当dy≤0.1,说明运动矢量是垂直负方向,将其赋值给Fy-(t,i),Fx+(t,i)代表在x水平正方向通道中第t帧图像中,第i个采样点的运动距离值;
Fx-(t,i)代表在x水平负方向通道中第t帧图像中,第i个采样点的运动距离值;Fy+(t,i)代表在y垂直正方向通道中第t帧图像中,第i个采样点的运动距离值;Fy-(t,i)代表在y垂直负方向通道中第t帧图像中,第i个采样点的运动距离值。然后统计每个通道的当前帧所有采样点的强度:
其中t为代表当前图像在运动视频序列中的帧号,i为每帧图像中采样点的位置,Fx+(t,i)代表在x水平正方向第t帧图像中,第i个采样点的运动距离值,Fx+(t,i)为在t帧图像中水平正方向Fx+所有采样点的运动距离和,Fx-(t)为在t帧图像中水平负方向Fx-所有采样点的运动距离和,Fy+(t,i)为在t帧图像中垂直正方向Fy+所有采样点的运动距离和,Fy-(t)为在t帧图像中垂直负方向Fy-所有采样点的运动距离和,其中t=1,2.......flast同理可求出Fx-(t)和Fy+(t)以及Fy-(t)在t帧图像中水平负方向Fx-,垂直正方向Fy+、垂直负方向Fy-所有采样点的运动距离和,然后求出所有帧中每个通道的最大值:
MaxFx+=Fx+(t),其中t∈(1,2.......flast)。MaxFx+为Fx+方向上所有帧中的运动距离最大值,MaxFx-为Fx-方向上所有帧中的运动距离最大值,MaxFy+为Fy+方向上所有帧中运动距离的最大值,MaxFy-为Fy-方向上所有帧中运动距离的最大值,同理可求出MaxFx-和MaxFy+以及MaxFy-。画出每个通道的强度变化曲线,并找出曲线最大值点处对应的关键视频帧。
附图说明
图1采样点
图2(a)-(b)是一段举重视频中几帧光流跟踪的矢量图和显著性图。
图3(c)-(d)是每个通道建立的过程。
图4(e~l)为四个通道的运动强度曲线以及强度曲线最大值点所对应的关键姿态:
(e)--水平正方向Fx+强度曲线
(f)--水平正方向Fx+最大值点所对应的关键姿态(i=52)
(g)--水平负方向Fx-强度曲线
(h)--水平负方向Fx-最大值点所对应的关键姿态帧(i=47)
(i)--垂直正方向Fy+强度曲线
(j)--垂直正方向Fy+最大值点所对应的关键姿态(i=46)
(k)--垂直负方向Fy-强度曲线
(l)--垂直负方向Fy-最大值点所对应的关键姿态帧(i=53)
图4(m)--Fy+通道强度曲线分析
图4(n)--最小值对应视频帧(i=57)
具体实施方式
本发明具体如发明内容所述,不再赘述。通过对步骤4中运动曲线进行分析,从实验数据分析可以看出:
(4.1)由垂直负方向Fy-的强度曲线变化的最大值点处,正好是举重过程中最高点的关键姿态。这是因为在举重过程中,在发力达到达最高点后,需要迅速下降,在垂直负方向,就会形成一个最值点,对应最高点的关键帧。
(4.2)水平负方向Fx-的强度曲线变化的最大值点处,正好是举重过程中发力的关键姿。这是因为在举重过程中,发力姿态向后提铃发力,在水平负方向,就形成了一个极值点,对应发力的关键帧。
(4.3)垂直正方向的Fy+的强度变化曲线,有明显的两个峰值,在两个峰值之间的峰谷阶段,是举重运动的下蹲静止阶段,所以运动强度很小。我们可以在谷阶段提取一个具有最小强度值,定义为下蹲姿态。具体步骤如下:
(a)首先对数据做平滑处理,找到两个峰值点。如下图4(m)是用移动平均滤波器对Fy+方向的数据做两次平滑处理后的结果,很容易确定两个峰(p1,max1)和(p2,max2)。
(b)在Fy+的曲线上,在区间(p1,p2)中找到最小的点(p3,min)。
(c)提取最小点对应的视频帧,如图4(n)。
5)本发明对20组以人为中心的举重视频进行实验研究,发现在水平负方向(发力姿态)和垂直负方向(最高点的关键姿态)提取对应的关键姿态的准确率达到100%,其中通过实验验证表明:垂直正方向的Fy+的强度变化曲线,有明显的两个峰值,在两个峰值之间的峰谷阶段,是举重运动的下蹲静止阶段,所以运动强度很小。我们可以在该段提取一个具有最小强度值,定义为下蹲姿态。对下蹲关键姿态的提取率也是100%。

Claims (1)

1.一种基于运动统计特征分析的关键姿态提取方法,其特征在于,步骤如下:
1)获得以人物为中心的视频序列;
2)在每一帧图像上按7*7窗口大小,对像素点进行采样;
3)以采样到的点为特征点进行金字塔Lucas-Kanade光流跟踪;令point[0][i]为前一帧的采样点坐标,point[1][i]为光流跟踪该点的当前图像帧中的坐标,则:
dist=point[1][i]-point[0][i]i=0,1,2.....(width/7)*(height/7) (1)
其中dist为采样点的运动矢量,i为每帧图像中采样点的位置;width为图像宽度,height为图像高度,连接点point[1][i]和点point[0][i],就得到了光流运动的矢量图,以dist的大小为尺度,以point[0][i]为左上角坐标点,在7*7区域内标定亮度,得到了运动的显著性图;
4)根据3)中dist运动矢量,将光流跟踪的结果分解成四个分量水平正方向Fx+、水平负方向Fx-、垂直正方向Fy+、垂直负方向Fy-,建立4个通道描述子;定义点运动的水平距离dx,垂直距离dy为:
dx=point[1][i].x-point[0][i].x i=0,1,2.....(width/7)*(height/7) (2)
dy=point[1][i].y-point[0][i].y i=0,1,2.....(width/7)*(height/7) (3)
光流矢量4个通道划分:
<mrow> <mtable> <mtr> <mtd> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>Fx</mi> <mo>+</mo> </msub> <mrow> <mo>(</mo> <mrow> <mi>t</mi> <mo>,</mo> <mi>i</mi> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mi>d</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mi>d</mi> <mi>x</mi> <mo>&gt;</mo> <mn>0.1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Fx</mi> <mo>-</mo> </msub> <mrow> <mo>(</mo> <mrow> <mi>t</mi> <mo>,</mo> <mi>i</mi> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mi>d</mi> <mi>x</mi> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mi>d</mi> <mi>x</mi> <mo>&lt;</mo> <mo>-</mo> <mn>0.1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Fy</mi> <mo>+</mo> </msub> <mrow> <mo>(</mo> <mrow> <mi>t</mi> <mo>,</mo> <mi>i</mi> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mi>d</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mi>d</mi> <mi>y</mi> <mo>&gt;</mo> <mn>0.1</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Fy</mi> <mo>-</mo> </msub> <mrow> <mo>(</mo> <mrow> <mi>t</mi> <mo>,</mo> <mi>i</mi> </mrow> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <mi>d</mi> <mi>y</mi> </mrow> </mtd> <mtd> <mrow> <mi>i</mi> <mi>f</mi> </mrow> </mtd> <mtd> <mrow> <mi>d</mi> <mi>y</mi> <mo>&lt;</mo> <mo>-</mo> <mn>0.1</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> <mo>,</mo> <mn>1</mn> <mo>,</mo> <mn>2.....</mn> <mrow> <mo>(</mo> <mrow> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>/</mo> <mn>7</mn> </mrow> <mo>)</mo> </mrow> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>/</mo> <mn>7</mn> </mrow> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mi>t</mi> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mn>2.......</mn> <msub> <mi>f</mi> <mrow> <mi>l</mi> <mi>a</mi> <mi>s</mi> <mi>t</mi> </mrow> </msub> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
width,height代表图像的宽度和高度,其中i代表每帧图像中采样的像素点的位置,t代表当前图像在运动视频序列中的帧号,flast为该视频序列中最后一帧图像,dx为光流跟踪的运动矢量在水平方向的运动,dy为光流跟踪的运动矢量在垂直方向的运动;
Fx+(t,i)代表在x水平正方向通道中第t帧图像中,第i个采样点的运动距离值;Fx-(t,i)代表在x水平负方向通道中第t帧图像中,第i个采样点的运动距离值;Fy+(t,i)代表在y垂直正方向通道中第t帧图像中,第i个采样点的运动距离值;Fy-(t,i)代表在y垂直负方向通道中第t帧图像中,第i个采样点的运动距离值;然后统计每个通道的当前帧所有采样点的强度:
<mrow> <msub> <mi>Fx</mi> <mo>+</mo> </msub> <mo>(</mo> <mi>t</mi> <mo>)</mo> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>0</mn> </mrow> <mrow> <mi>i</mi> <mo>=</mo> <mrow> <mo>(</mo> <mrow> <mi>w</mi> <mi>i</mi> <mi>d</mi> <mi>t</mi> <mi>h</mi> <mo>/</mo> <mn>7</mn> </mrow> <mo>)</mo> </mrow> <mo>*</mo> <mrow> <mo>(</mo> <mrow> <mi>h</mi> <mi>e</mi> <mi>i</mi> <mi>g</mi> <mi>h</mi> <mi>t</mi> <mo>/</mo> <mn>7</mn> </mrow> <mo>)</mo> </mrow> </mrow> </munderover> <msub> <mi>Fx</mi> <mo>+</mo> </msub> <mo>(</mo> <mrow> <mi>t</mi> <mo>,</mo> <mi>i</mi> </mrow> <mo>)</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中t为代表当前图像在运动视频序列中的帧号,i为每帧图像中采样点的位置,Fx+(t,i)代表在x水平正方向第t帧图像中,第i个采样点的运动距离值,Fx+(t)为在t帧图像中水平正方向Fx+所有采样点的运动距离和,Fx-(t)为在t帧图像中水平负方向Fx-所有采样点的运动距离和,Fy+(t)为在t帧图像中垂直正方向Fy+所有采样点的运动距离和,Fy-(t)为在t帧图像中垂直负方向Fy-所有采样点的运动距离和,其中t=1,2.......flast同理求出Fx-(t)和Fy+(t)以及Fy-(t)在t帧图像中水平负方向Fx-,垂直正方向Fy+、垂直负方向Fy-所有采样点的运动距离和,然后求出所有帧中每个通道的最大值:
MaxFx+=Max{Fx+(t,i)},其中,i∈{0,1,2......(width/7)*(height/7)},t∈{1,2......flast};MaxFx+为Fx+方向上所有帧中的运动距离最大值,MaxFx-为Fx-方向上所有帧中的运动距离最大值,MaxFy+为Fy+方向上所有帧中运动距离的最大值,MaxFy-为Fy-方向上所有帧中运动距离的最大值,同理求出MaxFx-和MaxFy+以及MaxFy-;画出每个通道的强度变化曲线,并找出曲线最大值点处对应的关键视频帧。
CN201410263618.7A 2014-06-13 2014-06-13 一种基于运动统计特征分析的关键姿态提取方法 Active CN104200455B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410263618.7A CN104200455B (zh) 2014-06-13 2014-06-13 一种基于运动统计特征分析的关键姿态提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410263618.7A CN104200455B (zh) 2014-06-13 2014-06-13 一种基于运动统计特征分析的关键姿态提取方法

Publications (2)

Publication Number Publication Date
CN104200455A CN104200455A (zh) 2014-12-10
CN104200455B true CN104200455B (zh) 2017-09-15

Family

ID=52085741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410263618.7A Active CN104200455B (zh) 2014-06-13 2014-06-13 一种基于运动统计特征分析的关键姿态提取方法

Country Status (1)

Country Link
CN (1) CN104200455B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104715493B (zh) * 2015-03-23 2018-01-19 北京工业大学 一种运动人体姿态估计的方法
CN106709453B (zh) * 2016-12-24 2020-04-17 北京工业大学 一种基于深度学习的体育视频关键姿态提取方法
CN110517283A (zh) * 2019-07-18 2019-11-29 平安科技(深圳)有限公司 姿态跟踪方法、装置及计算机可读存储介质
CN112966571B (zh) * 2021-02-09 2022-07-12 安徽一视科技有限公司 一种基于机器视觉的立定跳远腾空高度量测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102654917A (zh) * 2011-04-27 2012-09-05 清华大学 运动体运动姿态感知方法及系统
CN103218824A (zh) * 2012-12-24 2013-07-24 大连大学 基于距离曲线幅度的运动关键帧提取
CN103295002A (zh) * 2013-06-03 2013-09-11 北京工业大学 一种基于完全二值姿态仿射尺度不变特征的全姿态人脸识别方法
CN103559491A (zh) * 2013-10-11 2014-02-05 北京邮电大学 人体动作捕获及姿态分析系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102654917A (zh) * 2011-04-27 2012-09-05 清华大学 运动体运动姿态感知方法及系统
CN103218824A (zh) * 2012-12-24 2013-07-24 大连大学 基于距离曲线幅度的运动关键帧提取
CN103295002A (zh) * 2013-06-03 2013-09-11 北京工业大学 一种基于完全二值姿态仿射尺度不变特征的全姿态人脸识别方法
CN103559491A (zh) * 2013-10-11 2014-02-05 北京邮电大学 人体动作捕获及姿态分析系统

Also Published As

Publication number Publication date
CN104200455A (zh) 2014-12-10

Similar Documents

Publication Publication Date Title
CN109740413B (zh) 行人重识别方法、装置、计算机设备及计算机存储介质
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN104751491B (zh) 一种人群跟踪及人流量统计方法及装置
CN109376637B (zh) 基于视频监控图像处理的人数统计系统
CN107330390B (zh) 一种基于图像分析和深度学习的人数统计方法
Mukherjee et al. Anovel framework for automatic passenger counting
WO2022027931A1 (zh) 基于视频图像的运动车辆前景检测方法
CN104992453A (zh) 基于极限学习机的复杂背景下目标跟踪方法
CN105741319B (zh) 基于盲目更新策略和前景模型的改进视觉背景提取方法
CN104200455B (zh) 一种基于运动统计特征分析的关键姿态提取方法
Karpagavalli et al. Estimating the density of the people and counting the number of people in a crowd environment for human safety
CN103093198A (zh) 一种人群密度监测方法及装置
CN106991396A (zh) 一种基于智慧路灯伴侣的目标接力跟踪算法
CN104376334A (zh) 一种多尺度特征融合的行人比对方法
Daramola et al. Automatic vehicle identification system using license plate
Su et al. A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification
Miller et al. Person tracking in UAV video
CN106446832B (zh) 一种基于视频的实时检测行人的方法
Khude et al. Object detection, tracking and counting using enhanced BMA on static background videos
Ul Huda et al. Estimating the number of soccer players using simulation-based occlusion handling
CN111008601A (zh) 一种基于视频的打架斗殴检测方法
Wang et al. Deep learning-based human activity analysis for aerial images
Meshram et al. Vehicle detection and tracking techniques used in moving vehicles
Hu et al. Anomaly detection in crowded scenes via sa-mhof and sparse combination
Sağun et al. A novel approach for people counting and tracking from crowd video

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: No Lifang

Inventor after: Zhang Shijie

Inventor after: Qian Kun

Inventor after: Zhang Jingwen

Inventor after: Qiu Jiankang

Inventor before: No Lifang

Inventor before: Qian Kun

Inventor before: Zhang Jingwen

Inventor before: Qiu Jiankang

COR Change of bibliographic data
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20141210

Assignee: Guangdong Nanwan Dingcheng Information Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2023980044941

Denomination of invention: A Key Attitude Extraction Method Based on Motion Statistical Feature Analysis

Granted publication date: 20170915

License type: Common License

Record date: 20231030

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20141210

Assignee: HENAN JOIN TECHNOLOGY CO.,LTD.

Assignor: Beijing University of Technology

Contract record no.: X2024980000227

Denomination of invention: A Key Attitude Extraction Method Based on Motion Statistical Feature Analysis

Granted publication date: 20170915

License type: Common License

Record date: 20240105

Application publication date: 20141210

Assignee: Henan zhuodoo Information Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000137

Denomination of invention: A Key Attitude Extraction Method Based on Motion Statistical Feature Analysis

Granted publication date: 20170915

License type: Common License

Record date: 20240104

Application publication date: 20141210

Assignee: Luoyang Lexiang Network Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000088

Denomination of invention: A Key Attitude Extraction Method Based on Motion Statistical Feature Analysis

Granted publication date: 20170915

License type: Common License

Record date: 20240104

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20141210

Assignee: LUOYANG YAHUI EXOSKELETON POWER-ASSISTED TECHNOLOGY CO.,LTD.

Assignor: Beijing University of Technology

Contract record no.: X2023990001019

Denomination of invention: A Key Attitude Extraction Method Based on Motion Statistical Feature Analysis

Granted publication date: 20170915

License type: Common License

Record date: 20240109

EE01 Entry into force of recordation of patent licensing contract