CN103854016A - 基于方向性共同发生特征的人体行为分类识别方法及系统 - Google Patents

基于方向性共同发生特征的人体行为分类识别方法及系统 Download PDF

Info

Publication number
CN103854016A
CN103854016A CN201410119629.8A CN201410119629A CN103854016A CN 103854016 A CN103854016 A CN 103854016A CN 201410119629 A CN201410119629 A CN 201410119629A CN 103854016 A CN103854016 A CN 103854016A
Authority
CN
China
Prior art keywords
feature
space
human body
video
directivity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410119629.8A
Other languages
English (en)
Other versions
CN103854016B (zh
Inventor
刘宏
刘梦源
孙倩茹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University Shenzhen Graduate School
Original Assignee
Peking University Shenzhen Graduate School
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University Shenzhen Graduate School filed Critical Peking University Shenzhen Graduate School
Priority to CN201410119629.8A priority Critical patent/CN103854016B/zh
Publication of CN103854016A publication Critical patent/CN103854016A/zh
Application granted granted Critical
Publication of CN103854016B publication Critical patent/CN103854016B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种基于方向性共同发生特征的人体行为分类识别方法及系统。该方法包括:在视频序列中检测人体目标并提取时空兴趣点;提取HOG和HOF特征,对时空兴趣点聚类;统计具有不同类别标签的时空兴趣点对出现在相同帧时的方向信息;统计方向性时空点对特征直方图,得到针对输入视频的特征描述;将该词袋模型中的直方图特征换成方向性时空点对特征直方图,针对不同类别行为进行训练,得到对应的特征描述;提取得到输入的测试视频的特征描述,与不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。本发明通过描述局部特征点对之间的方向信息有效提升了人体行为分类和识别的准确率和鲁棒性。

Description

基于方向性共同发生特征的人体行为分类识别方法及系统
技术领域
本发明属于机器视觉中的目标识别和智能人机交互技术领域,具体涉及一种鲁棒的基于方向性共同发生特征的人体行为分类识别方法。
背景技术
人体行为分析早在二十世纪三十年代就开始了。但早期较成功的研究还主要是集中于对刚体运动的研究上。五十年代左右,对非刚体的研究逐渐兴起。尤其是人体运动分析,其在智能视频监控、机器人控制、人机交互等方面具有广泛的应用前景,激发了世界范围内的广大工作者的研究兴趣。
在现实场景中,人体行为识别尤其是分类具有众多难点:人体运动的执行者经常是处于不同的年龄阶段、拥有不同的外表,同时,运动速度和时空变化程度都因人而异;不同的运动看上去有很大的相似性,即类间相似,这是与上面提到的类内多样性相对的一种困难情况;同时人体行为分类面临众多图像处理的经典难点问题,如人体遮挡,室外场景中存在阴影,光照变化以及人群拥挤等。面对这些困难,如何实现鲁棒的人体行为分类,从而应用于真实场景中的智能监控,具有重要的研究意义。
人体行为描述方法分为两大类:全局特征和局部特征。全局特征即将人体行为视为一个整体提取得到运动描述,是一种自顶向下的过程。全局特征描述是一种很强的特征,能编码运动的大部分信息。然而,全局特征对视角、遮挡、噪声都极其敏感,并且,提取全局特征的前提是能很好的分割运动前景。这对复杂场景下的人体行为描述要求的预处理过程极为苛刻。考虑到全局特征的不足,针对复杂场景下的人体行为描述,局部特征被提出,作为全局特征的补充。局部特征的提取是一种自底向上的过程:首先检测时空兴趣点,然后在这些兴趣点周围提取局部纹理方块,最后将对这些方块的描述结合起来组成最终描述子。由于词袋模型(bag of visual words model)参见J.C.Niebles,H.Wang,and L.Fei-Fei,“Unsupervisedlearning of human action categories using spatialtemporal words,”in BMVC,vol.3,pp.1249-1258,2006。)的提出,使得利用局部特征进行人体行为分类的框架被广泛采用。局部特征与全局特征不同,其对噪声和部分遮挡的敏感性较低,并且局部特征的提取不需要前景分割和跟踪的过程,因此能很好的适用于复杂场景中的人体行为分析。由于局部特征点忽略了点跟点之间的全局约束关系,因此需要更高一层的空间关系描述来提升现有的词袋模型分类效果。
发明内容
本发明针对上述问题,提出一种基于方向性共同发生特征的人体行为分类识别方法,使用局部特征点并通过描述特征点之间的空间结构关系来建立人体行为模型,最终实现人体行为分类和识别。本发明通过描述局部特征点对之间的方向信息有效提升了传统方法的准确率和鲁棒性。
本发明采用的技术方案如下:
一种基于方向性共同发生特征的人体行为分类识别方法,其步骤如下:
1)在视频序列中检测人体目标;
2)对包含人体目标的时空域提取时空兴趣点;
3)提取时空兴趣点的HOG和HOF特征,并将时空兴趣点聚类成若干类别;
4)对于具有不同类别标签的时空兴趣点对,统计其出现在相同帧时的方向信息;
5)利用所述方向信息统计方向性时空点对特征直方图,得到针对输入视频的特征描述;
6)利用词袋模型将局部特征的个数直方图分布作为整体的特征表达,将该词袋模型中的直方图特征换成由步骤1)~5)得到的方向性时空点对特征直方图,针对不同类别行为进行训练,得到不同行为类别对应的特征描述;
7)当输入测试视频时,根据步骤1)~5)提取得到该视频的特征描述,然后与步骤6)得到的不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。
更进一步,所述人体行为分类是针对视频中能够检测出的人体行为进行的,提取的时空兴趣点指的是时空域中灰度变换剧烈的点。
更进一步,时空兴趣点对的方向性指的是两点在空间中的上下或左右关系,并且优先考虑点对间的上下关系,当两点空间中的垂直距离小于一定阈值时,考虑左右关系;当两点空间中的水平距离也小于一定阈值时,在统计方向性时空点对特征直方图时舍弃该点对。
更进一步,使用均值聚类或其他聚类方法对时空兴趣点进行聚类,时空兴趣点的聚类个数优选为400~1000。
本发明还提出一种采用上述方法的基于方向性共同发生特征的人体行为分类识别系统,其包括:
视频输入端,包括可获取视频序列的摄像设备;
特征提取输出端,提取视频中人体行为对应的方向性时空点对特征描述;
离线训练分类器,在视频输入端获取的视频序列中检测人体行为目标,利用特征提取输出端输出的人体行为的特征描述,针对每个行为类别,将对应的多个视频的直方图特征取平均,并将平均的直方图特征作为该行为类别对应的特征;
匹配输出模块,对于输入的测试视频,利用离线训练分类器得到视频中人体行为对应的特征,并将其与多个行为类别对应的特征分类匹配,将匹配度最高的作为测试视频对应的行为类别,并输出该类别标签。
更进一步,所述视频输入端获取的视频序列为RGB图像序列。
本发明实现了鲁棒的基于方向性共同发生特征的人体行为分类识别方法和系统,即利用局部时空兴趣点对之间上下或者左右的相对方位关系编码局部时空兴趣点的空间结构特征,从而增加了不同行为类别之间的区分度。本发明属于对利用词袋模型和局部特征点做行为分类的框架的拓展。本发明的效果图如图3所示,可以看出与现有技术相比,本发明的人体行为分类效果最好。
附图说明
图1是本发明的基于方向性共同发生特征的人体行为分类识别方法的步骤流程图。
图2是本发明的视频描述子(即方向性时空点对特征直方图)提取流程图;
图3是本发明使用的数据库部分样例;
图4~图6是本发明的人体行为分类效果图;其中图3采用原始词袋模型和直方图特征,图4采用词袋模型和共同发生特征,图5采用词袋模型和本发明提出的方向性点对直方图特征。
具体实施方式
下面通过具体实施例和附图,对本发明做进一步说明。
本发明的基于方向性共同发生特征的人体行为识别方法,使用局部特征点并通过描述特征点之间的空间结构关系来建立人体行为模型,最终实现人体行为分类和识别。局部特征点的提取和描述参照"Evaluation of local spatio-temporal features for action recognition"(2009),H.Wang,M.M.Ullah,A.
Figure BDA0000483009720000031
I.Laptev and C.Schmid;in Proc.BMVC'09。
图1所示为本发明方法的步骤流程图,包括:1)在视频序列中检测人体目标;2)对包含人体目标的时空域提取时空兴趣点;3)提取时空兴趣点的HOG和HOF特征,并将时空兴趣点聚类成若干类别;4)对于具有不同类别标签的时空兴趣点对,统计其出现在相同帧时的方向信息;5)利用所述方向信息统计方向性时空点对特征直方图,得到针对输入视频的特征描述;6)利用词袋模型将局部特征的个数直方图分布作为整体的特征表达,将该词袋模型中的直方图特征换成由步骤1)~5)得到的方向性时空点对特征直方图,针对不同类别行为进行训练,得到不同行为类别对应的特征描述;7)当输入测试视频时,根据步骤1)~5)提取得到该视频的特征描述,然后与步骤6)得到的不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。
下面结合图2说明本发明的人体行为的视频对应的方向性点对直方图特征的提取步骤:
1)时空兴趣点的提取和描述
本发明使用文献“C.Schuldt,I.Laptev,and B.Caputo,“Recognizing human actions:a localsvm approach,”in ICPR,pp.32-36,2004”中使用的时空兴趣点检测器和描述子。时空兴趣点检测器的参数与上述文献中的参数保持一致。时空兴趣点描述子采用维数为90维的HOG特征和72维多HOF特征,两种特征串联起来组成162维的描述子。图2中A、B、C表示时空兴趣点。
2)时空兴趣点的聚类
本发明采用K均值聚类方法,针对实验中的不同数据库设定不同的聚类个数。实验采用UT-Interaction和Rochester两个数据库,分别由文献“M.S.Ryoo,Human activity prediction:Early recognition of ongoing activities from streaming videos,in ICCV,pp.1036-1043,2011”和“R.Messing,C.Pal,and H.Kautz,Activity recognition using the velocity histories of tracked keypoints,in ICCV,pp.104-111,2009”提出。对于UT-Interaction数据库,聚类个数设为450;对Rochester数据库,聚类个数设为500。
3)方向性点对直方图特征提取
本发明关注具有不同类别且出现在相同帧上的时空兴趣点对之间的关系。假设变量S={S1,...,Sk,...,SK}包含一个视频中提取到的所有时空兴趣点;Sk包含所有标签为k的时空兴趣点,其中k属于1到聚类个数K之间;
Figure BDA0000483009720000041
代表标签为i的时空兴趣点;且
Figure BDA0000483009720000042
分别代表该点的横纵坐标和所在的帧数。方向性点对直方图特征提取的主要步骤如下:
Figure BDA0000483009720000051
上述步骤用自然语言描述如下:
a)对具有不同类别标签的共发生点对,由公式(1)计算得到方向性点对特征,并由公式(2)计算得到阈值T。
b)由公式(3)得到整个输入视频中方向性共同发生特征的统计量N。
c)由公式(4)和(5)得到基于统计量N的概率分布P。
d)由公式(6)得到最终特征描述H,H由P级联组成。
其中公式(1)~(6)如下所示:
Figure BDA0000483009720000052
T = Σ i = 1 K Σ j = 1 K Σ ∀ pt i ∈ S i , ∀ pt j ∈ S i | x pt i - x pt j | Σ i = 1 K Σ j = 1 K Σ ∀ pt i ∈ S i , ∀ pt j ∈ S j 1 - - - ( 2 )
N ( i , j ) = Σ ∀ pt i ∈ S i , ∀ pt j ∈ S i n ( pt i , pt j ) - - - ( 3 )
P ( DPF i st | DPFs ) = Σ j = 1 K N ( i , j ) Σ j = 1 K { N ( i ) · N ( j ) } - - - ( 4 )
P ( DPF i en | DPFs ) = Σ j = 1 K N ( j , i ) Σ j = 1 K { N ( i ) · N ( j ) } - - - ( 5 )
H = { { P ( DPF i st | DPFs ) } i = 1 K , { P ( DPF i en | DPFs ) } i = 1 K } - - - ( 6 )
其中,
Figure BDA0000483009720000058
代表标签为i的时空兴趣点,且
Figure BDA0000483009720000059
分别代表该点的横纵坐标和所在的帧数;T为阈值,表征空间点对的平均距离;K为聚类个数;N(i)和N(j)分别代表类别为i和j的时空兴趣点个数;n(pti,ptj)代表由类别i指向类别j的共同发生特征个数;N(i,j)代表方向性共同发生特征的统计量;代表方向性共同发生特征中以标签i作为起点的概率;
Figure BDA0000483009720000062
代表方向性共同发生特征中以标签i作为终点的概率;H为最终表达视频中人体行为的特征向量。
图2中步骤3得到的直方图中,横坐标DPF表示方向性点对直方图特征,probability表示概率,纵坐标N表示特征个数,H表示概率值,AB、AC等表示由A指向B或由A指向C的方向性点对特征,Ast、Bst、Cst表示在所有方向性点对特征中分别由A、B、C作为起点的特征,Aen、Ben、Cen表示分别由A、B、C作为终点的特征。
图3所示为实验所用数据库Rochester和UT-Interaction,第1-2行为Rochester数据库行为实例,第3-4行为UT-Interaction中两个场景下的行为实例。其中Rochester包含10种人体行为动作,分别为:接电话(answer a phone),切香蕉(chop a banana),打电话(dial a phone),喝水(drinkwater),吃香蕉(eat a banana),吃零食(eat snacks),查询电话号码(look up a phone numberin a phone book),剥香蕉(peel a banana),用银器进餐(eat food with silverware)和在白板上写字(write on a white board),由5个人重复表演3次得到,共150段视频。UT-Interaction包含6种人体行为动作,分别为:拥抱(hug),脚踢(kick),指向(point),击打(punch),推搡(push)和握手(shakehands),由表演者在两种场景下分别重复10次得到,共120段视频。
图4~图6所示为分类结果,其中参数K1、K2、avgRate分别为词袋模型所用聚类个数,时空方向点对特征所用聚类个数和运行10次的平均识别率。离线训练分类模块采用留一交叉验证,使用支持向量机作为分类器,比较测试样本与训练得到的模板的匹配度。支持向量机采用切比雪夫核。图4~图6中第一列(左边的图(a))代表在UT-interaction中场景一数据库(60段视频)上的分类结果,第二列(右边的图(b))代表在Rochester上的分类结果。图4采用原始词袋模型和直方图特征,图5采用词袋模型和共同发生特征,共同发生特征参考文献Q.Sunand H.Liu,“Action disambiguation analysis using normalized google-like distance correlogram,”in ACCV,2012,Part III,LNCS7726,pp.425-437,2013。图6采用词袋模型和本发明提出的方向性点对直方图特征。可以看出,本发明提出的方法分类正确率最高。
尽管为说明目的公开了本发明的具体实施例和附图,其目的在于帮助理解本发明的内容并据以实施,但是本领域的技术人员可以理解:在不脱离本发明及所附的权利要求的精神和范围内,各种替换、变化和修改都是可能的。本发明不应局限于本说明书最佳实施例和附图所公开的内容,本发明的保护范围以权利要求书界定的范围为准。

Claims (9)

1.一种基于方向性共同发生特征的人体行为分类识别方法,其步骤包括:
1)在视频序列中检测人体目标;
2)对包含人体目标的时空域提取时空兴趣点;
3)提取时空兴趣点的HOG和HOF特征,并将时空兴趣点聚类成若干类别;
4)对于具有不同类别标签的时空兴趣点对,统计其出现在相同帧时的方向信息;
5)利用所述方向信息统计方向性时空点对特征直方图,得到针对输入视频的特征描述;
6)利用词袋模型将局部特征的个数直方图分布作为整体的特征表达,将该词袋模型中的直方图特征换成由步骤1)~5)得到的方向性时空点对特征直方图,针对不同类别行为进行训练,得到不同行为类别对应的特征描述;
7)当输入测试视频时,根据步骤1)~5)提取得到该视频的特征描述,然后与步骤6)得到的不同类别行为的特征描述模板进行最近邻匹配,匹配度最高的即为该视频对应的行为类别。
2.如权利要求1所述的方法,其特征在于:所述时空兴趣点是时空域中灰度变换剧烈的点。
3.如权利要求1所述的方法,其特征在于:所述时空兴趣点对的方向性是指两点在空间中的上下或左右关系。
4.如权利要求3所述的方法,其特征在于:当两点空间中的垂直距离小于一定阈值时,考虑左右关系;当两点空间中的水平距离也小于一定阈值时,在统计方向性时空点对特征直方图时舍弃该点对。
5.如权利要求1所述的方法,其特征在于:使用均值聚类方法对时空兴趣点进行聚类。
6.如权利要求5所述的方法,其特征在于:所述时空兴趣点的聚类个数为400~1000。
7.如权利要求1所述的方法,其特征在于,步骤5)使用如下方法提取方向性时空点对特征直方图:
a)对具有不同类别标签的共发生点对,由公式(1)计算得到方向性点对特征,并由公式(2)计算得到阈值T;
b)由公式(3)得到整个输入视频中方向性共同发生特征的统计量N;
c)由公式(4)和(5)得到基于统计量N的概率分布P;
d)由公式(6)得到最终特征描述H,H由P级联组成;
其中公式(1)~(6)如下所示:
T = Σ i = 1 K Σ j = 1 K Σ ∀ pt i ∈ S i , ∀ pt j ∈ S i | x pt i - x pt j | Σ i = 1 K Σ j = 1 K Σ ∀ pt i ∈ S i , ∀ pt j ∈ S j 1 - - - ( 2 )
N ( i , j ) = Σ ∀ pt i ∈ S i , ∀ pt j ∈ S i n ( pt i , pt j ) - - - ( 3 )
P ( DPF i st | DPFs ) = Σ j = 1 K N ( i , j ) Σ j = 1 K { N ( i ) · N ( j ) } - - - ( 4 )
P ( DPF i en | DPFs ) = Σ j = 1 K N ( j , i ) Σ j = 1 K { N ( i ) · N ( j ) } - - - ( 5 )
H = { { P ( DPF i st | DPFs ) } i = 1 K , { P ( DPF i en | DPFs ) } i = 1 K } - - - ( 6 )
其中,
Figure FDA0000483009710000026
代表标签为i的时空兴趣点,且
Figure FDA0000483009710000027
分别代表该点的横纵坐标和所在的帧数;T为阈值,表征空间点对的平均距离;K为聚类个数;N(i)和N(j)分别代表类别为i和j的时空兴趣点个数;n(pti,ptj)代表由类别i指向类别j的共同发生特征个数;N(i,j)代表方向性共同发生特征的统计量;
Figure FDA0000483009710000028
代表方向性共同发生特征中以标签i作为起点的概率;代表方向性共同发生特征中以标签i作为终点的概率;H为最终表达视频中人体行为的特征向量。
8.一种采用权利要求1所述方法的人体行为分类识别系统,其特征在于,包括:
视频输入端,包括可获取视频序列的摄像设备;
特征提取输出端,提取视频中人体行为对应的方向性时空点对特征描述;
离线训练分类器,在视频输入端获取的视频序列中检测人体行为目标,利用特征提取输出端输出的人体行为的特征描述,针对每个行为类别,将对应的多个视频的直方图特征取平均,并将平均的直方图特征作为该行为类别对应的特征;
匹配输出模块,对于输入的测试视频,利用离线训练分类器得到视频中人体行为对应的特征,将其与多个行为类别对应的特征分类匹配,将匹配度最高的作为测试视频对应的行为类别,并输出该类别标签。
9.如权利要求8所述的装置,其特征在于:所述视频输入端获取的视频序列为RGB图像序列。
CN201410119629.8A 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及系统 Expired - Fee Related CN103854016B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410119629.8A CN103854016B (zh) 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410119629.8A CN103854016B (zh) 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及系统

Publications (2)

Publication Number Publication Date
CN103854016A true CN103854016A (zh) 2014-06-11
CN103854016B CN103854016B (zh) 2017-03-01

Family

ID=50861650

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410119629.8A Expired - Fee Related CN103854016B (zh) 2014-03-27 2014-03-27 基于方向性共同发生特征的人体行为分类识别方法及系统

Country Status (1)

Country Link
CN (1) CN103854016B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881655A (zh) * 2015-06-03 2015-09-02 东南大学 一种基于多特征时空关系融合的人类行为识别方法
CN105893936A (zh) * 2016-03-28 2016-08-24 浙江工业大学 一种基于hoirm和局部特征融合的行为识别方法
CN105893967A (zh) * 2016-04-01 2016-08-24 北京大学深圳研究生院 基于时序保留性时空特征的人体行为分类检测方法及系统
CN108256434A (zh) * 2017-12-25 2018-07-06 西安电子科技大学 基于混淆矩阵的高层语义视频行为识别方法
CN108604303A (zh) * 2016-02-09 2018-09-28 赫尔实验室有限公司 用于精准图像/视频场景分类的融合自下而上整体图像特征和自上而下实体分类的系统和方法
CN109543590A (zh) * 2018-11-16 2019-03-29 中山大学 一种基于行为关联度融合特征的视频人体行为识别算法
CN109871736A (zh) * 2018-11-23 2019-06-11 腾讯科技(深圳)有限公司 自然语言描述信息的生成方法及装置
CN110837805A (zh) * 2019-11-07 2020-02-25 腾讯科技(深圳)有限公司 视频标签的置信度的测量方法、装置、设备及存储介质
CN111310806A (zh) * 2020-01-22 2020-06-19 北京迈格威科技有限公司 分类网络及图像处理方法、装置、系统和存储介质
CN111339980A (zh) * 2020-03-04 2020-06-26 镇江傲游网络科技有限公司 基于时空直方图的动作识别方法及装置
CN111353519A (zh) * 2018-12-24 2020-06-30 北京三星通信技术研究有限公司 用户行为识别方法和系统、具有ar功能的设备及其控制方法
CN113821681A (zh) * 2021-09-17 2021-12-21 深圳力维智联技术有限公司 视频标签生成方法、装置及设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271527A (zh) * 2008-02-25 2008-09-24 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN102354422A (zh) * 2011-10-19 2012-02-15 湖南德顺电子科技有限公司 一种面向周界防护的可疑目标监测方法
CN103020614A (zh) * 2013-01-08 2013-04-03 西安电子科技大学 基于时空兴趣点检测的人体运动识别方法
CN103279737A (zh) * 2013-05-06 2013-09-04 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN103413154A (zh) * 2013-08-29 2013-11-27 北京大学深圳研究生院 基于归一化类谷歌量度矩阵的人体运动识别方法
US8611670B2 (en) * 2010-02-25 2013-12-17 The Board Of Trustees Of The Leland Stanford Junior University Intelligent part identification for use with scene characterization or motion capture

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101271527A (zh) * 2008-02-25 2008-09-24 北京理工大学 一种基于运动场局部统计特征分析的异常行为检测方法
US8611670B2 (en) * 2010-02-25 2013-12-17 The Board Of Trustees Of The Leland Stanford Junior University Intelligent part identification for use with scene characterization or motion capture
CN102034096A (zh) * 2010-12-08 2011-04-27 中国科学院自动化研究所 基于自顶向下运动注意机制的视频事件识别方法
CN102043967A (zh) * 2010-12-08 2011-05-04 中国科学院自动化研究所 一种有效的运动目标行为建模与识别方法
CN102354422A (zh) * 2011-10-19 2012-02-15 湖南德顺电子科技有限公司 一种面向周界防护的可疑目标监测方法
CN103020614A (zh) * 2013-01-08 2013-04-03 西安电子科技大学 基于时空兴趣点检测的人体运动识别方法
CN103279737A (zh) * 2013-05-06 2013-09-04 上海交通大学 一种基于时空兴趣点的打架行为检测方法
CN103413154A (zh) * 2013-08-29 2013-11-27 北京大学深圳研究生院 基于归一化类谷歌量度矩阵的人体运动识别方法

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881655A (zh) * 2015-06-03 2015-09-02 东南大学 一种基于多特征时空关系融合的人类行为识别方法
CN104881655B (zh) * 2015-06-03 2018-08-28 东南大学 一种基于多特征时空关系融合的人类行为识别方法
CN108604303B (zh) * 2016-02-09 2022-09-30 赫尔实验室有限公司 用于场景分类的系统、方法和计算机可读介质
CN108604303A (zh) * 2016-02-09 2018-09-28 赫尔实验室有限公司 用于精准图像/视频场景分类的融合自下而上整体图像特征和自上而下实体分类的系统和方法
CN105893936B (zh) * 2016-03-28 2019-02-12 浙江工业大学 一种基于hoirm和局部特征融合的行为识别方法
CN105893936A (zh) * 2016-03-28 2016-08-24 浙江工业大学 一种基于hoirm和局部特征融合的行为识别方法
CN105893967B (zh) * 2016-04-01 2020-04-10 深圳市感动智能科技有限公司 基于时序保留性时空特征的人体行为分类检测方法及系统
CN105893967A (zh) * 2016-04-01 2016-08-24 北京大学深圳研究生院 基于时序保留性时空特征的人体行为分类检测方法及系统
CN108256434B (zh) * 2017-12-25 2021-09-28 西安电子科技大学 基于混淆矩阵的高层语义视频行为识别方法
CN108256434A (zh) * 2017-12-25 2018-07-06 西安电子科技大学 基于混淆矩阵的高层语义视频行为识别方法
CN109543590A (zh) * 2018-11-16 2019-03-29 中山大学 一种基于行为关联度融合特征的视频人体行为识别算法
CN109871736A (zh) * 2018-11-23 2019-06-11 腾讯科技(深圳)有限公司 自然语言描述信息的生成方法及装置
US11868738B2 (en) 2018-11-23 2024-01-09 Tencent Technology (Shenzhen) Company Limited Method and apparatus for generating natural language description information
CN109871736B (zh) * 2018-11-23 2023-01-31 腾讯科技(深圳)有限公司 自然语言描述信息的生成方法及装置
CN111353519A (zh) * 2018-12-24 2020-06-30 北京三星通信技术研究有限公司 用户行为识别方法和系统、具有ar功能的设备及其控制方法
CN110837805B (zh) * 2019-11-07 2023-04-07 腾讯科技(深圳)有限公司 视频标签的置信度的测量方法、装置、设备及存储介质
CN110837805A (zh) * 2019-11-07 2020-02-25 腾讯科技(深圳)有限公司 视频标签的置信度的测量方法、装置、设备及存储介质
CN111310806A (zh) * 2020-01-22 2020-06-19 北京迈格威科技有限公司 分类网络及图像处理方法、装置、系统和存储介质
CN111310806B (zh) * 2020-01-22 2024-03-15 北京迈格威科技有限公司 分类网络及图像处理方法、装置、系统和存储介质
CN111339980B (zh) * 2020-03-04 2020-10-09 镇江傲游网络科技有限公司 基于时空直方图的动作识别方法及装置
CN111339980A (zh) * 2020-03-04 2020-06-26 镇江傲游网络科技有限公司 基于时空直方图的动作识别方法及装置
CN113821681A (zh) * 2021-09-17 2021-12-21 深圳力维智联技术有限公司 视频标签生成方法、装置及设备
CN113821681B (zh) * 2021-09-17 2023-09-26 深圳力维智联技术有限公司 视频标签生成方法、装置及设备

Also Published As

Publication number Publication date
CN103854016B (zh) 2017-03-01

Similar Documents

Publication Publication Date Title
CN103854016A (zh) 基于方向性共同发生特征的人体行为分类识别方法及系统
CN105069447B (zh) 一种人脸表情的识别方法
CN102208038B (zh) 基于视觉词典的图像分类方法
CN110458038B (zh) 基于双链深度双流网络的小数据跨域动作识别方法
CN107463892A (zh) 一种结合上下文信息和多级特征的图像中行人检测方法
Huang et al. DeepDiff: Learning deep difference features on human body parts for person re-identification
CN101971190A (zh) 实时身体分割系统
CN105488519B (zh) 一种基于视频尺度信息的视频分类方法
CN102722712A (zh) 基于连续度的多尺度高分辨图像目标检测方法
CN102194108A (zh) 一种聚类线性鉴别分析特征选择的笑脸表情识别方法
CN103020614B (zh) 基于时空兴趣点检测的人体运动识别方法
CN104778472B (zh) 人脸表情特征提取方法
WO2013075295A1 (zh) 低分辨率视频的服装识别方法及系统
CN105893941B (zh) 一种基于区域图像的人脸表情识别方法
Khairdoost et al. Front and rear vehicle detection using hypothesis generation and verification
CN108509861B (zh) 一种基于样本学习和目标检测结合的目标跟踪方法和装置
Vani et al. Using the keras model for accurate and rapid gender identification through detection of facial features
CN103577804A (zh) 基于sift流和隐条件随机场的人群异常行为识别方法
CN114863464A (zh) 一种pid图纸图件信息的二阶识别方法
Yang et al. Multiple features fusion for facial expression recognition based on ELM
CN102609715A (zh) 一种结合多个兴趣点检测子的物体类识别方法
Kim et al. A code based fruit recognition method via image convertion using multiple features
CN108052867B (zh) 一种基于词袋模型的单样本人脸识别方法
CN105893967B (zh) 基于时序保留性时空特征的人体行为分类检测方法及系统
Zhang et al. Facial expression analysis across databases

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170301

CF01 Termination of patent right due to non-payment of annual fee