CN105069434B - 一种视频中人体动作行为识别方法 - Google Patents

一种视频中人体动作行为识别方法 Download PDF

Info

Publication number
CN105069434B
CN105069434B CN201510492289.8A CN201510492289A CN105069434B CN 105069434 B CN105069434 B CN 105069434B CN 201510492289 A CN201510492289 A CN 201510492289A CN 105069434 B CN105069434 B CN 105069434B
Authority
CN
China
Prior art keywords
track
video
motion
steps
significance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510492289.8A
Other languages
English (en)
Other versions
CN105069434A (zh
Inventor
程海粟
李庆武
仇春春
郭晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN201510492289.8A priority Critical patent/CN105069434B/zh
Publication of CN105069434A publication Critical patent/CN105069434A/zh
Application granted granted Critical
Publication of CN105069434B publication Critical patent/CN105069434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种视频中人体动作行为识别方法,涉及计算机视觉领域。本发明针对目前基于轨迹技术的人体行为识别方法中轨迹提纯和特征表达有效性不足等问题,提出一种基于改进密集轨迹的人体行为识别方法。本发明主要包括两个创新点:一是从生物学角度通过运动显著性分析对密集轨迹进行提纯,使得提纯后的轨迹更加可靠;二是根据运动显著性值分布优化词袋模型,提高特征表达的有效性。本发明的方法在KTH和UCF sports人体动作行为测试数据集上能够取得较高的识别率。

Description

一种视频中人体动作行为识别方法
技术领域
本发明属于计算机视觉领域,尤其是涉及一种视频中人体动作行为识别方法。
背景技术
人体动作行为识别是视频理解的重要研究方向,并已经被广泛地应用到实际中,例如人机交互、异常事件监测和基于内容的视频搜索等。近些年来涌现了大量的人体动作行为识别方法,但由于人体运动的高复杂性、多变性、背景干扰等因素,目前的行为特征大多比较冗余和有效性不足,人体动作行为识别仍是计算机视觉领域的热点与难点问题。既然人体行为具有复杂的多变性,那么基于模板的行为模型需要非常庞大的行为原型模板,在存储和传输方面将花费巨大的代价。
Laptev等人(Laptev I,Lindeberg T.On Space-Time Interest Points[J].International Journal of Computer Vision,2005,64(2-3):107-23)提出了在时空卷中使用检测时空兴趣点的方法提取时空特征,类似于在图像中查找Harris角点,但是对于复杂背景效果不尽理想。等人(M,Laptev I,Schmid C.Actions incontext[C].//Proceedings of IEEE International Conference on Computer Visionand Pattern Recognition,2009:2929-2936)提出了利用行为和场景的上下文关系来提高行为识别的准确率。Chakraborty等人(M,Laptev I,Schmid C.Actions incontext[C].//Proceedings of IEEE International Conference on Computer Visionand Pattern Recognition,2009:2929-2936)提出了一种抑制无用背景兴趣点的方法,突出有价值的兴趣点,获得了识别率的提升。
目前的人体动作行为识别方法中,基于轨迹的技术是最新的研究热点之一。但是有效地使用轨迹技术识别视频中人体动作行为存在两个关键点:轨迹提纯和特征表达有效性,因此需要能够有效对轨迹提纯和特征表达的方法。
发明内容
本发明的目的在于提升视频中人体动作行为的识别率,针对目前基于轨迹技术的人体动作行为识别方法中轨迹提纯和特征表达有效性不足等问题,提出一种基于改进密集轨迹的人体行为识别方法。一是从生物学角度通过运动显著性分析对密集轨迹进行提纯,使得提纯后的轨迹更加可靠;二是根据运动显著性值分布优化词袋模型,提高特征表达的有效性。本发明的方法在KTH和UCF sports人体动作行为测试数据集上能够取得较高的识别率。
本发明技术方案是提供一种视频中人体动作行为识别方法,其特征在于:包括以下步骤:
1)对视频进行运动显著性检测和提取密集轨迹;
2)通过运动显著性分析对密集轨迹进行提纯;
3)根据提纯后的密集轨迹计算行为特征;
4)根据运动显著性值分布优化词袋模型进行精确的视频特征表达。
前述的一种视频中人体动作行为识别方法,其特征在于:在步骤1)中,运动显著性检测是每连续两帧提取一幅运动显著图,每连续15帧提取一段密集轨迹。
前述的一种视频中人体动作行为识别方法,其特征在于:在步骤2)中,所述通过运动显著性分析对密集轨迹进行提纯方法,是从生物学角度依据特征点位置的显著性强度值对轨迹进行提纯。
前述的一种视频中人体动作行为识别方法,其特征在于:在步骤2)中,所述从生物学角度依据特征点位置的显著性强度值对轨迹进行提纯方法,具体原理步骤为:
21)定义未提纯的轨迹为T1={P(t,i)},其中P(t,i)表示第t帧图像中第i个特征点的位置(x,y);
22)对于运动显著性图中强度小于阈值一λ1的区域判定为背景或不重要的特征点;
23)对于轨迹上相邻两帧间特征点的显著性强度差值大于阈值二λ2的定义为跟踪漂移问题;
24)根据步骤22)和23)提纯后的轨迹T2为:
T2={P(t,i)|P(t,i)∈T1,St(P(t,i))>=λ1,|St(P(t,i))-St+1(P(t+1,i))|<=λ2},其中St(P(t,i))为第t帧图像中第i个特征点位置的显著性值。
前述的一种视频中人体动作行为识别方法,其特征在于:在步骤3)中,所述根据密集轨迹计算行为特征方法,是计算密集轨迹位移向量和轨迹包络里每个时空块内计算的HOG(histograms of oriented gradients),HOF(histograms of optical flow)及MBH(motion boundary histogram)描述符作为特征。
前述的一种视频中人体动作行为识别方法,其特征在于:在步骤4)中,根据运动显著性值分布优化词袋模型进行精确的视频特征表达方法,是通过运动区域显著性强度分布图计算每个轨迹的权值,并使用权值K-means聚类学习方法以生成更精确的视觉字典。
前述的一种人体动作行为识别方法,其特征在于:在步骤4)中,使用权值K-means聚类学习方法以生成更精确的视觉字典方法,具体步骤为:
41)在所有的训练视频中,设定提取的所有轨迹集合为T={Ti},对应的特征描述符集合为X={xi},根据运动区域显著性强度分布图计算每个轨迹的权值wi为:
其中,m为轨迹Ti的特征点编号,L为设定的轨迹长度15,Ti为第i个轨迹,xi为第i个轨迹的特征向量;
2)使用权值K-means算法来构建最优视觉词典,公式如下:
其中,Z={zj}集合为构建的视觉字典,zj为视觉词汇,K为设定的字典聚类个数,X表示特征向量集合X={xi},双竖线表示向量的范数,上标2就表示2范数;
3)对于每个行为视频的特征表达,使用一个k维的向量表示为H=[h1,...,hk],即该视频描述符根据视觉字典Z={zj}计算出的词频直方图,hk为视频特征向量中最接近第k个视觉词汇的个数,鉴于视频描述符X={xi}均有对应的权值wi,在计算词频直方图时使用修改的欧式距离公式:
Distanceij=||wixi-zj||2 (14)
并将得到的词频直方图权值化为H′=[w1h1,...,wkhk]作为最终的特征表达直方图,这样可以突出运动剧烈的区域,抑制运动细微和背景区域,使得视频表达效果更好。
附图说明
图1为本发明一种视频中人体动作行为识别方法流程示意图;
图2为提纯后的跑步和举重行为的密集轨迹示意图;
图3为时空块内组合特征提取示意图;
图4为优化K-means在KTH数据集上的性能示意图;
图5为优化K-means在UCF sports数据集上的性能示意图。
具体实施方式
下面对本发明的具体实施方式做进一步详细的描述。
如图1所示,本发明首先对视频序列的每一帧进行采集,提取密集轨迹和运动显著图,并根据运动显著图对密集轨迹进行提纯,然后在轨迹经过的时空块内计算组合特征,再根据运动显著值分布优化词袋模型进行精确特征表达,最后进行特征训练和识别。
如图2所示,设定轨迹最长连续帧数为15,提取原始密集轨迹。对于运动显著性图中强度小于阈值一λ1的区域判定为背景或不重要的特征点,对于轨迹上相邻两帧间特征点的显著性强度差值大于阈值二λ2的定义为跟踪漂移问题,并都予以剔除。
本发明一种视频中人体动作行为识别方法的实现具体步骤如下:
1)使用OpenCV采集视频序列中的每一帧;
2)运动显著图的提取,其具体步骤如下:
a.使用稀疏编码表示视频中每个b×b×w维时空块x;
b.计算每个时空块x的残差;
c.所有时空块的残差归一化作为运动显著图St(x,y)。
3)改进密集轨迹的提取,其具体步骤如下:
a.在视频中,对应每一帧图片,每隔5个像素点采样一个特征点,每个尺度都分别进行采样;
b.设置8个空间尺度,并且每个空间尺度之间的尺度因子按照的比例增加,对于第t帧和第t+1帧图像之间的密集光流场是wt=(ut,vt),其中ut和vt分别是光流场中的水平分量和垂直分量;
c.对第t帧图像上的特征点Pt=(xt,yt)使用中值滤波器在光流域wt上做平滑操作,该点平滑后在对应的第t+1帧上的位置定义为:Pt+1=(xt+1,yt+1)=(xt,yt)+(M*wt)|(x,y),其中M是3×3中值滤波内核;表示中值滤波是以(x,y)为中心,M为内核,wt为光流域;
d.将后续帧中,跟踪到的特征点串联起来就形成了原始轨迹T1={P(t,i)},其中P(t,i)表示第t帧图像中第i个特征点的位置(x,y);
e.对于运动显著性图中强度小于λ1的区域定义为背景或不重要的特征点,并且对于轨迹上相邻两帧间特征点的显著性强度差值大于λ2的定义为跟踪漂移问题。因此,提纯后的轨迹定义:
T2={P(t,i)|P(t,i)∈T1,St(Pt,i)>=λ1,|St(Pt,i)-St+1(Pt+1,i)|<=λ2}
4)组合特征的计算,其具体步骤如下:
a.设定时空卷大小为N×N×L,其中N=32,L=15。并将每个时空卷继续划分成大小为nσ×nσ×nτ的时空块,其中nσ=2,nτ=3。
b.每一个时空块内计算HOG、HOF和MBH特征,并且方向都量化为8bins。最终得到一个326维的描述符,并使用L2范数归一化,其中包含30维的轨迹位移特征,96维的HOG特征,108维HOF特征和192维的MBH特征(如图3,时空块内组合特征提取示意图)。
5)优化词袋模型精确表达特征,其具体步骤如下:
a.在所有的训练视频中,设定提取的所有轨迹集合为T={Ti},对应的特征描述符集合为X={xi}。根据运动区域显著性强度分布图计算每个轨迹的权值:其中,k为轨迹Ti的特征点编号;
b.使用权值K-means算法来构建最优视觉词典,公式为:
其中,Z={zj}为构建的视觉词典。
c.每个行为视频的特征表达,使用一个k维的向量表示H=[h1,...,hk],即该视频描述符根据视觉字典Z={zj}计算出的词频直方图。鉴于视频描述符X={xi}都有对应的权值wi,在计算词频直方图时使用修改的欧式距离公式:Distanceij=||wixi-zj||2,并将得到的词频直方图权值化为H′=[w1h1,...,wkhk]作为最终的特征表达直方图,这样可以突出运动剧烈的区域,抑制运动细微和背景区域,使得视频表达效果更好(如图4,优化K-means在KTH数据集上的性能示意图;如图5,优化K-means在UCF sports数据集上的性能示意图)。
以上已以较佳实施例公布本发明如上,然其并非用以限制本发明,凡采取等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (9)

1.一种视频中人体动作行为识别方法,其特征在于:包括以下步骤:
1)对视频进行运动显著性检测和提取密集轨迹;
2)通过运动显著性分析对密集轨迹进行提纯;
3)根据提纯后的密集轨迹计算行为特征;
4)根据运动显著性值分布优化词袋模型进行精确的视频特征表达。
2.根据权利要求1所述的一种视频中人体动作行为识别方法,其特征在于:在步骤1)中,运动显著性检测是每连续两帧提取一幅运动显著图,每连续15帧提取一段密集轨迹。
3.根据权利要求2所述的一种视频中人体动作行为识别方法,其特征在于:在步骤1)中,运动显著图的提取具体步骤如下:
a.使用稀疏编码表示视频中每个b×b×w维时空块x;
b.计算每个时空块x的残差;
c.所有时空块的残差归一化作为运动显著图St(x,y)。
4.根据权利要求2所述的一种视频中人体动作行为识别方法,其特征在于:在步骤1)中,改进密集轨迹的提取具体步骤如下:
a.在视频中,对应每一帧图片,每隔5个像素点采样一个特征点,每个尺度都分别进行采样;
b.设置8个空间尺度,并且每个空间尺度之间的尺度因子按照的比例增加,对于第t帧和第t+1帧图像之间的密集光流场是wt=(ut,vt),其中ut和vt分别是光流场中的水平分量和垂直分量;
c.对第t帧图像上的特征点Pt=(xt,yt)使用中值滤波器在光流域wt上做平滑操作,该点平滑后在对应的第t+1帧上的位置定义为:Pt+1=(xt+1,yt+1)=(xt,yt)+(M*wt)|(x,y),其中M是3×3中值滤波内核;表示中值滤波是以(x,y)为中心,M为内核,wt为光流域。
5.根据权利要求1所述的一种视频中人体动作行为识别方法,其特征在于:在步骤2)中,所述通过运动显著性分析对密集轨迹进行提纯方法,是从生物学角度依据特征点位置的显著性强度值对轨迹进行提纯。
6.根据权利要求5所述的一种视频中人体动作行为识别方法,其特征在于:在步骤2)中,所述从生物学角度依据特征点位置的显著性强度值对轨迹进行提纯方法,具体原理步骤为:
21)定义未提纯的轨迹为T1={P(t,i)},其中P(t,i)表示第t帧图像中第i个特征点的位置(x,y);
22)对于运动显著性图中强度小于阈值一λ1的区域判定为背景或不重要的特征点;
23)对于轨迹上相邻两帧间特征点的显著性强度差值大于阈值二λ2的定义为跟踪漂移问题;
24)根据步骤22)和23)提纯后的轨迹T2为:
T2={P(t,i)|P(t,i)∈T1,St(P(t,i))>=λ1,|St(P(t,i))-St+1(P(t+1,i))|<=λ2},其中St(P(t,i))为第t帧图像中第i个特征点位置的显著性值。
7.根据权利要求1所述的一种视频中人体动作行为识别方法,其特征在于:在步骤3)中,所述根据密集轨迹计算行为特征方法,是计算密集轨迹位移向量和轨迹包络里每个时空块内计算的HOG,HOF及MBH描述符作为特征。
8.根据权利要求1所述的一种视频中人体动作行为识别方法,其特征在于:在步骤4)中,根据运动显著性值分布优化词袋模型进行精确的视频特征表达方法,是通过运动区域显著性强度分布图计算每个轨迹的权值,并使用权值K-means聚类学习方法以生成更精确的视觉字典。
9.根据权利要求8所述的一种视频中人体动作行为识别方法,其特征在于:在步骤4)中,使用权值K-means聚类学习方法以生成更精确的视觉字典方法,具体步骤为:
41)在所有的训练视频中,设定提取的所有轨迹集合为T={Ti},对应的特征描述符集合为X={xi},根据运动区域显著性强度分布图计算每个轨迹的权值wi为:
<mrow> <msub> <mi>w</mi> <mi>i</mi> </msub> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>n</mi> <mo>=</mo> <mi>t</mi> </mrow> <mrow> <mi>t</mi> <mo>+</mo> <mi>L</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <mfrac> <mrow> <msub> <mi>s</mi> <mi>n</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>P</mi> <mrow> <mo>(</mo> <mi>n</mi> <mo>,</mo> <mi>m</mi> <mo>)</mo> </mrow> </msub> <mo>)</mo> </mrow> </mrow> <mi>L</mi> </mfrac> </mrow>
其中,sn(P(n,m))为第n帧图像中第m个特征点位置的显著性值,m为轨迹Ti的特征点编号,L为设定的轨迹长度15,Ti为第i个轨迹,xi为第i个轨迹的特征向量;
42)使用权值K-means算法来构建最优视觉词典,公式如下:
<mrow> <munder> <mrow> <mi>arg</mi> <mi>min</mi> </mrow> <mi>X</mi> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <munder> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>X</mi> </mrow> </munder> <mo>|</mo> <mo>|</mo> <msub> <mi>w</mi> <mi>i</mi> </msub> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>z</mi> <mi>j</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow>
其中,Z={zj}集合为构建的视觉字典,zj为视觉词汇,K为设定的字典聚类个数,X表示特征向量集合X={xi},双竖线表示向量的范数;
43)对于每个行为视频的特征表达,使用一个k维的向量表示为H=[h1,...,hk],即该视频描述符根据视觉字典Z={zj}计算出的词频直方图,hk为视频特征向量中最接近第k个视觉词汇的个数,鉴于视频描述符X={xi}均有对应的权值wi,在计算词频直方图时使用修改的欧式距离公式:
Distanceij=||wixi-zj||2 (14)
并将得到的词频直方图权值化为H′=[w1h1,...,wkhk]作为最终的特征表达直方图。
CN201510492289.8A 2015-08-12 2015-08-12 一种视频中人体动作行为识别方法 Active CN105069434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510492289.8A CN105069434B (zh) 2015-08-12 2015-08-12 一种视频中人体动作行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510492289.8A CN105069434B (zh) 2015-08-12 2015-08-12 一种视频中人体动作行为识别方法

Publications (2)

Publication Number Publication Date
CN105069434A CN105069434A (zh) 2015-11-18
CN105069434B true CN105069434B (zh) 2018-06-05

Family

ID=54498796

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510492289.8A Active CN105069434B (zh) 2015-08-12 2015-08-12 一种视频中人体动作行为识别方法

Country Status (1)

Country Link
CN (1) CN105069434B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512618B (zh) * 2015-11-27 2019-01-15 北京航空航天大学 视频跟踪方法
CN105989358A (zh) * 2016-01-21 2016-10-05 中山大学 一种自然场景视频识别方法
CN105718935A (zh) * 2016-01-25 2016-06-29 南京信息工程大学 一种适宜于视觉大数据的词频直方图计算方法
CN105825240A (zh) * 2016-04-07 2016-08-03 浙江工业大学 一种基于ap聚类词袋建模的行为识别方法
CN105956517B (zh) * 2016-04-20 2019-08-02 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于密集轨迹的动作识别方法
CN106845329A (zh) * 2016-11-11 2017-06-13 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度卷积特征多通道金字塔池化的动作识别方法
CN106529477B (zh) * 2016-11-11 2019-10-25 中山大学 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN107463912A (zh) * 2017-08-10 2017-12-12 武汉大学深圳研究院 基于运动显著性的视频人体行为识别方法
CN108573241B (zh) * 2018-04-25 2022-07-15 江西理工大学 一种基于融合特征的视频行为识别方法
CN109166178B (zh) * 2018-07-23 2020-10-16 中国科学院信息工程研究所 一种视觉特性与行为特性融合的全景图像显著图生成方法及系统
CN109815921A (zh) * 2019-01-29 2019-05-28 北京融链科技有限公司 加氢站中活动类别的预测方法及装置
CN110111357B (zh) * 2019-04-03 2023-02-07 天津大学 一种视频显著性检测方法
CN110236560A (zh) * 2019-06-06 2019-09-17 深圳市联邦佳维工业装备有限公司 智能穿戴设备的六轴姿态检测方法、系统
CN113362324B (zh) * 2021-07-21 2023-02-24 上海脊合医疗科技有限公司 一种基于视频图像的骨骼健康检测方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663369A (zh) * 2012-04-20 2012-09-12 西安电子科技大学 基于surf高效匹配核的人体运动跟踪方法
CN103186775A (zh) * 2013-03-27 2013-07-03 西安电子科技大学 基于混合描述子的人体运动识别方法
CN104461000A (zh) * 2014-12-03 2015-03-25 北京航空航天大学 一种基于少量缺失信号的在线连续人体运动识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101733131B1 (ko) * 2010-12-14 2017-05-10 한국전자통신연구원 3차원 제스처 처리 방법 및 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663369A (zh) * 2012-04-20 2012-09-12 西安电子科技大学 基于surf高效匹配核的人体运动跟踪方法
CN103186775A (zh) * 2013-03-27 2013-07-03 西安电子科技大学 基于混合描述子的人体运动识别方法
CN104461000A (zh) * 2014-12-03 2015-03-25 北京航空航天大学 一种基于少量缺失信号的在线连续人体运动识别方法

Also Published As

Publication number Publication date
CN105069434A (zh) 2015-11-18

Similar Documents

Publication Publication Date Title
CN105069434B (zh) 一种视频中人体动作行为识别方法
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN109446923B (zh) 基于训练特征融合的深度监督卷积神经网络行为识别方法
Zhang et al. Animal detection from highly cluttered natural scenes using spatiotemporal object region proposals and patch verification
WO2020108362A1 (zh) 人体姿态检测方法、装置、设备及存储介质
CN111783576B (zh) 基于改进型YOLOv3网络和特征融合的行人重识别方法
CN107145862B (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
CN108399435B (zh) 一种基于动静特征的视频分类方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN111046732B (zh) 一种基于多粒度语义解析的行人重识别方法及存储介质
CN109858406A (zh) 一种基于关节点信息的关键帧提取方法
CN107918772B (zh) 基于压缩感知理论和gcForest的目标跟踪方法
CN106709419B (zh) 一种基于显著轨迹空间信息的视频人体行为识别方法
CN107767416B (zh) 一种低分辨率图像中行人朝向的识别方法
Xian et al. Evaluation of low-level features for real-world surveillance event detection
CN111738218B (zh) 人体异常行为识别系统及方法
CN105975932A (zh) 基于时间序列shapelet的步态识别分类方法
CN110477907B (zh) 一种智能辅助识别痫性发作的建模方法
CN107194950B (zh) 一种基于慢特征分析的多人跟踪方法
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN104200218B (zh) 一种基于时序信息的跨视角动作识别方法及系统
CN108573241B (zh) 一种基于融合特征的视频行为识别方法
CN115527269B (zh) 一种人体姿态图像智能识别方法及系统
CN105957103A (zh) 一种基于视觉的运动特征提取方法
Lee et al. Fast object localization using a CNN feature map based multi-scale search

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant