CN103136540A - 一种基于隐结构推理的行为识别方法 - Google Patents
一种基于隐结构推理的行为识别方法 Download PDFInfo
- Publication number
- CN103136540A CN103136540A CN2013100873431A CN201310087343A CN103136540A CN 103136540 A CN103136540 A CN 103136540A CN 2013100873431 A CN2013100873431 A CN 2013100873431A CN 201310087343 A CN201310087343 A CN 201310087343A CN 103136540 A CN103136540 A CN 103136540A
- Authority
- CN
- China
- Prior art keywords
- symbiosis
- local feature
- point
- obtains
- code book
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000009826 distribution Methods 0.000 claims abstract description 15
- 230000002123 temporal effect Effects 0.000 claims abstract description 4
- 230000031068 symbiosis, encompassing mutualism through parasitism Effects 0.000 claims description 61
- 230000003542 behavioural effect Effects 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012706 support-vector machine Methods 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 230000011514 reflex Effects 0.000 claims description 2
- 230000000699 topical effect Effects 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 11
- 238000001514 detection method Methods 0.000 abstract description 3
- 239000013598 vector Substances 0.000 abstract description 3
- 206010000117 Abnormal behaviour Diseases 0.000 abstract 1
- 230000003993 interaction Effects 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 33
- 230000006870 function Effects 0.000 description 6
- 239000003795 chemical substances by application Substances 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 2
- 238000003064 k means clustering Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
Abstract
本发明公开了一种基于隐结构推理的行为识别方法,包括以下步骤:提取训练数据的局部特征并聚类,构建一个码本词袋,利用局部特征的时空分布建立码本之间的共生关系图,结合局部特征在人体上的分布特性推理出共生关系图中的隐结构并将其反馈到共生关系图中得到一个具有多层结构信息的图模型;利用图模型获取训练数据中局部特征的稳定性系数并构建训练数据的特征向量,训练分类器模型;提取未知视频中的局部特征,利用图模型计算其稳定性系数,构建视频的特征向量,用分类器进行分类。该方法通过研究人体结构特征来学习局部特征之间的结构信息,可以更好的对主体的行为进行描述。本方法可以用于公共安全领域,如异常行为检测等;也可用于人机交互。
Description
技术领域
本发明涉及模式识别和智能监控技术领域,特别涉及一种基于隐结构推理的行为识别方法。
背景技术
近年来,随着科技的发展,越来越多的监控设备出现在我们周围。在一些公共场合,如机场、银行、广场等,监控设备的增多对公共安全的保障是显而易见的。但同时,大量的设备和海量的数据已经是不可能靠人力去控制的了,利用计算机去帮助我们自动分析和检测视频中出现的感兴趣内容并自动报警是科技进步的标志,更是科技发展的必然。因此,对于真实场景中的行为进行理解对人工智能的发展具有重要的意义,为计算机视觉领域的一大热门研究方向。
行为识别方法就是利用计算机视觉技术自动的识别出视频中的行为主体在“干什么”。虽然在近些年出现了很多行为识别方法,在一些简单的场景中,识别率可以达到接近百分之百,但这些方法对于真实场景下的数据的识别率一直受限,主要是因为真实场景数据存在着大量的光照变化、视角变化以及视频来源的不确定性,这些原因成为了行为识别方法从理论到应用的一个障碍。因此,怎样使运动主体的局部特征更加显著成为对真实场景中的行为进行识别的关键。
一些近期的研究表明,局部特征之间存在着多层的结构信息,这些结构信息可以从更全局的角度去对研究对象进行描述。基于结构的特征描述方法也在其它领域得到成功的应用,如部件模型在物体分类和检测上已经做了很多的工作。一些基于结构的行为识别方法也被提出,但识别结果不是很高,究其原因是结构缺少明确的物理含义。因此,基于结构的行为识别方法需要对行为主体的运动形式进行分析,这样才能更好的对主体的运动进行有效的表达。
发明内容
为了解决现有技术存在的问题,本发明提出了一种基于隐结构推理的行为识别方法。本方法受人体的结构特征启发,能够将运动主体的局部特征与来自背景的干扰特征分开,有效的提高了行为的表达能力和识别率。
本发明提出一种基于隐结构推理的行为识别方法,该方法包括以下步骤:
一种基于隐结构推理的行为识别方法,其特征在于,该方法包括以下步骤:
步骤1,提取训练视频数据中每一行为类别的所有视频的局部特征;
步骤2,对所述步骤1得到的每一行为类别的局部特征分别进行聚类,得到n个聚类中心,所述n个聚类中心作为特征码本构成一个词袋,并且用距离一局部特征最近的码本作为该局部特征的标记;
步骤3,利用每一行为类别所对应的词袋中不同的特征码本在训练数据中的时空分布,构建一个描述各个特征码本之间联系的共生关系图G;
步骤4,对每一行为类别所对应的共生关系图G,利用基于香农熵的结构推理方法找出所述共生关系图G中隐藏的结构信息;
步骤5,将推理得到的隐藏的结构信息反馈到每一个共生关系图G中,以使之优化成一个具有多层结构信息的结构化共生关系图模型Gi;
步骤6,利用所述结构化共生关系图模型Gi计算每个局部特征点的稳定性系数;
步骤7,将具有同一码本标识的所有局部特征点的稳定性系数进行累加,得到各个码本的分布直方图Hi,将所有分布直方图首尾连接起来构成一个直方图链,作为所述训练视频数据最终的行为特征;
步骤8,利用所有训练视频数据的行为特征学习得到一个分类器模型;
步骤9,提取每一测试视频的局部特征,并根据所述步骤6、7提取得到所述测试视频的行为特征;
步骤10,将所述步骤9提取得到的行为特征送入所述步骤8得到的分类器模型中进行分类识别,得到分类识别结果。
根据本发明的方法,可以对复杂场景中的行为进行识别分类,具有很好的鲁棒性。本发明中的方法以人体的结构特征为指导,提出的隐结构可以很好的将背景和行为主体上的局部特征分开,有效的提高了特征对行为主体的行为表达能力。
附图说明
图1是本发明基于隐结构推理的行为识别方法流程图;
图2是局部特征点在人体的分布示意图;
图3是根据本发明一实施例的子图示意图;
图4是反应部件与部件以及部件之间联系的两种极端结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
图1为本发明基于隐结构推理的行为识别方法流程图,如图1所示,本发明所提出的基于隐结构推理的行为识别方法包括以下步骤:
步骤1,提取训练视频数据中每一行为类别的所有视频的局部特征;
所述局部特征是指描述对象局部信息的特征。在基于图像序列的行为识别领域里,有很多对局部时空特征进行检测和描述的现有技术,比如:
首先,利用局部特征检测子检测图像序列中能够反应行为变化的兴趣点,常用的检测子有Harris3D检测子、Cuboid检测子等;
接着,利用局部特征描述子对检测到的兴趣点进行特征描述,常用的描述子有HOG/HOF描述子和HOG3D描述子等。
步骤2,对所述步骤1得到的每一行为类别的局部特征分别进行聚类,得到n个聚类中心,将这n个聚类中心作为特征码本,这些码本在一起构成了一个词袋,对于每一个局部特征,用距离其最近的码本作为该局部特征的标记,这样所有的行为类别都可以得到相应的词袋;
该步骤中,可使用现有技术中的K-means聚类方法对局部特征进行聚类。K-means聚类方法的基本过程如下所描述:首先从n个数据样本点中任意选择k个对象作为初始聚类中心;对于-剩下的其它对象,根据它们与这些聚类中心的相似度(距离),分别将它们分配给与其最相似的(聚类中心所代表的)类;然后再计算每个所获新聚类的聚类中心(该聚类中所有对象的均值);不断重复这一过程直到新的聚类中心与老的聚类中心之间的差异收敛为止。
步骤3,对于每一行为类别所对应的词袋,利用其不同的特征码本在训练数据中的时空分布,构建一个描述各个特征码本之间联系的图,即共生关系图;
所述步骤3进一步包括以下步骤:
步骤3.1,对于所述步骤2中每一个带有标记的局部特征,找到时空上距离其最近的M个局部特征点(比如10个)作为其共生点,该局部特征点与与其邻近的M个局部特征点在它们所对应的码本之间构成了M个码本共生点对;
其中,局部特征点之间的时空距离定义为:其中, 为两个特征点在x-y空间上的距离,为两个特征点在时间空间上的距离,(xi,yi,ti)、(xj,yj,tj)分别为两个局部特征点的空间和时间位置,η为空间和时间的尺度平衡系数,在本发明一实施例中,该平衡系数取为3。
步骤3.2,计算所有局部特征点所对应的共生点对集;
步骤3.3,利用所述步骤3.2得到的共生点对集,统计不同码本之间共生的频率,即每个共生点对出现的个数;
步骤3.4,以所有码本作为节点,不同码本之间的共生频率作为对应节点之间的边的权重,构建一个图;
步骤3.5,对所述步骤3.4中得到的图中所有边的权重归一化,并只保留与每一个节点连接的权重最大的预定数量(比如10条)边,从而构成最终的共生关系图。
步骤4,对每一行为类别所对应的共生关系图,利用基于香农熵的结构推理方法找出所述共生关系图中隐藏的结构信息;
所述步骤4进一步包括以下步骤:
本发明提出了一种基于香农熵的结构推理方法同时找到所述共生关系图中两种互补的结构,所述两种互补的结构是以局部特征在人体上的分布特点为先验来定义的,其更能反映运动主体的物理特性。
图2a、图2b为局部特征点在人体的分布示意图,其中,每个局部特征点能够表示局部的运动信息。在这些特征点中,可以看到有两种结构:第一种是人体部件与部件之间的结构信息,如图2b中的粗线连接了人体的两个不同部件;第二种是每个部件内部的结构信息,如图2b中的细线连接了一个部件内部局部特征点。这两种结构信息从不同的层次上描述了人体的行为特性。因此,本发明试图从所述共生关系图中找出这两种结构。
对于一个给定的图G,可以对图中的每一条边构建一个子图g(如图3所示),该子图是由边上的两个节点(u,v)以及与(u,v)相连的所有的节点和所有的边所组成的。图3中,除u和v外的其它节点可分为三个部分:只与u连接的节点集Su,只与v连接的节点集Sv,以及与u和v同时连接的节点集Sc。本发明定义连接每个边的两个节点的两种不同的路径来描述上述两种不同的结构。第一种路径是从u经过Sc到v,这种路径可以反映(u,v)在图中所包含的部件内部的连接关系,该种路径的条数记为E。第二种路径是从Su经过(u,v)到达Sv,如(a,u,v,e)等,这种路径能够描述(u,v)在图中所包含的部件与部件之间的连接关系,这里将子图中所符合此类路径的路径条数记为N。不难发现,当N很大,E很小的时候,可以对应到图4a所显示的结构;当N很小,E很大的时候,可以对应到图4b所显示的结构。这两种结构是与前面提到的两种结构对应的两种极限。设定某一条路径属于第一种路径的概率为p,为了从图G中找到符合这两种结构的子图,本发明定义了一个结构变量:
R(g)=max pE(1-p)N (1)该结构变量可用来描述子图包含所述两种结构信息的强弱。
其中,
由于图G中的每条边都可以对应一个子图,因此,每一个子图的结构变量值也可以表示对应边周围的结构信息。本发明方法称通过这种结构变量来描述的结构为隐结构。
本发明将R(g)进一步定义为:
其中,w(u,v)为对应边在共生关系图中的权重。
对公式1进行改进的原因将在步骤5中阐明。
步骤5,对于每一个共生关系图,将推理得到的隐结构反馈到所述共生关系图中,以使之优化成一个具有多层结构信息的结构化共生关系图模型Gi;
对于一个共生关系图,其每条边都有一个权重,同时,通过所述步骤4可以得到每条边所对应子图的结构变量值。本发明将所述步骤4中得到的每条边所对应的结构变量反馈到每条边上,用于优化原共生关系图中每条边的权重。定义共生关系图中连接节点u和v的边的权重为w(u,v),其对应的结构变量为R(u,v),则优化后的权重为
w′(u,v)=w(u,v)(1+R(u,v)). (5)
如果R(e)按公式1进行定义,会出现一种情况:当一条边在的w(e)本身很高,同时该边所对应的子图又符合要找的两种结构,即R(e)比较大,这样,w′(e)就会很大。如果最后对所有的权重归一化,那些只包含一种信息(即共生关系信息或者结构信息)的边就会变的很小。为了避免这种情况,本发明在所述步骤4中采用公式4所描述的结构变量。公式4的特点是:当w(u,v)很大的时候,即使子图结构信息比较强,结构变量的值也不会很大。这样,拥有共生关系信息和结构信息的边的权重将和拥有一种信息的边的权重保持在一个水平上,通过最终的归一化操作,可以与那些不包含任何信息的边的权重明显的区分开。
本发明称优化以后的图为结构化的共生关系图模型。
步骤6,利用所述结构化共生关系图模型Gi来计算每个局部特征点的稳定性系数;
通过前面5个步骤,可以得到不同行为类别对应的词袋CBi和结构化的共生关系图模型Gi。接下来需要利用所述结构化共生关系图模型Gi来计算每个局部特征点的稳定性系数。
所述步骤6进一步包括以下步骤:
步骤61,提取训练视频数据和测试视频数据中每一行为类别的所有视频的局部特征;
步骤62,对所述步骤61得到的局部特征分别进行聚类,将得到的n个聚类中心作为特征码本构成一个词袋,并且用距离一局部特征最近的码本作为该局部特征的标记;
步骤63,对于每一个带有标记的局部特征点,找到时空上距离其最近的M’个局部特征点作为其共生点,其中M’可以等于M也可以不等于M,该局部特征点与与其邻近的所述M’个局部特征点在它们所对应的码本之间构成了M’个码本共生点对;
步骤64,将所得到的共生点对在所述结构化共生关系图模型Gi上所对应的边的权重进行加和,得到描述相应局部特征点的稳定性系数。
通过这种方式,每个局部特征点在CBi和Gi下都可以得到一个稳定性系数。
步骤7,基于所述步骤6中每个局部特征点在任一类行为的词袋CBi和结构化的共生关系图Gi中得到的稳定性系数,将具有同一码本标识的所有局部特征点的稳定性系数进行累加,得到各个码本的分布直方图Hi,视频中的局部特征点在不同类别的词袋和结构化共生关系图模型下可以得到不同的码本分布直方图,将所有得到的分布直方图首尾连接起来,构成一个直方图链,作为所述训练视频数据最终的行为特征;
步骤8,利用所述步骤7得到的所有训练视频数据的行为特征学习得到一个分类器模型;
通过所述步骤7,可以得到所有训练视频数据的行为特征,将这些行为特征送入基于径向基(RBF)核的支持向量机(SVM)中学习可以得到一个多类的分类器。
支持向量机(Support Vector Machines)是在统计学习理论上发展起来的一种新的方法。支持向量机的基本思想是通过非线性映射,把样本空间映射到一个高维乃至无穷维的特征空间,使得在特征空间中可以应用线性学习机的方法解决样本空间中的高度非线性的分类和回归问题。支持向量机能较好地解决小样本、非线性、高维数和局部极小点等实际问题。
使用支持向量机的关键步骤是选择核函数,有多种核函数可以选择,比如线性、多项式、径向基函数和sigmod等。通过比较实验,发现径向基函数(RBF)具有最好的识别率,因此本发明选用径向基函数进行训练和识别。
步骤9,对于每一个测试视频,提取其局部特征,并利用所述步骤6、7的方法提取得到所述测试视频的行为特征;
步骤10,将所述步骤9中提取得到的行为特征送入所述步骤8得到的分类器模型中进行分类识别,得到分类识别结果。
为了验证本发明方法的有效性,使用当前最大的两个真实场景数据库HMDB和UCF50对本发明方法进行了测试,实验表明,本发明方法可以有效的将行为主体上的局部特征从背景中区分出来,具有很强的鲁棒性。
综上,本发明提出了一种基于隐结构推理的识别方案。本发明结合了人体的结构特性,能够有效的解决真实场景下行为数据的复杂性问题,对于行为识别技术从理论发展到实际应用具有重要的意义。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于隐结构推理的行为识别方法,其特征在于,该方法包括以下步骤:
步骤1,提取训练视频数据中每一行为类别的所有视频的局部特征;
步骤2,对所述步骤1得到的每一行为类别的局部特征分别进行聚类,得到n个聚类中心,所述n个聚类中心作为特征码本构成一个词袋,并且用距离一局部特征最近的码本作为该局部特征的标记;
步骤3,利用每一行为类别所对应的词袋中不同的特征码本在训练数据中的时空分布,构建一个描述各个特征码本之间联系的共生关系图G;
步骤4,对每一行为类别所对应的共生关系图G,利用基于香农熵的结构推理方法找出所述共生关系图G中隐藏的结构信息;
步骤5,将推理得到的隐藏的结构信息反馈到每一个共生关系图G中,以使之优化成一个具有多层结构信息的结构化共生关系图模型Gi;
步骤6,利用所述结构化共生关系图模型Gi计算每个局部特征点的稳定性系数;
步骤7,将具有同一码本标识的所有局部特征点的稳定性系数进行累加,得到各个码本的分布直方图Hi,将所有分布直方图首尾连接起来构成一个直方图链,作为所述训练视频数据最终的行为特征;
步骤8,利用所有训练视频数据的行为特征学习得到一个分类器模型;
步骤9,提取每一测试视频的局部特征,并根据所述步骤6、7提取得到所述测试视频的行为特征;
步骤10,将所述步骤9提取得到的行为特征送入所述步骤8得到的分类器模型中进行分类识别,得到分类识别结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤1进一步包括以下步骤:
步骤11,利用局部特征检测子检测图像序列中能够反应行为变化的兴趣点;
步骤12,利用局部特征描述子对检测到的兴趣点进行特征描述。
3.根据权利要求1所述的方法,其特征在于,所述步骤3进一步包括以下步骤:
步骤3.1,对于每一个带有标记的局部特征点,找到时空上距离其最近的M个局部特征点作为其共生点,该局部特征点与与其邻近的所述M个局部特征点在它们所对应的码本之间构成了M个码本共生点对;
步骤3.2,计算所有局部特征点所对应的共生点对集;
步骤3.3,利用所述步骤3.2得到的共生点对集,统计不同码本之间共生的频率,即每个共生点对出现的个数;
步骤3.4,以所有码本作为节点,不同码本之间的共生频率作为对应节点之间的边的权重,构建一个图;
步骤3.5,对所述步骤3.4中得到的图中所有边的权重归一化,并只保留与每一个节点连接的权重最大的预定数量边,从而构成最终的共生关系图。
4.根据权利要求3所述的方法,其特征在于,局部特征点之间的时空距离定义为:
其中, 为两个特征点在x-y空间上的距离,为两个特征点在时间空间上的距离,(xi,yi,ti)、(xj,yj,tj)分别为两个局部特征点的空间和时间位置,η为空间和时间的尺度平衡系数。
5.根据权利要求1所述的方法,其特征在于,所述基于香农熵的结构推理方法中,利用结构变量R(g)的值来表示共生关系图G中对应边周围的隐结构信息,所述结构变量R(g)表示为:
R(g)=max pE(1-p)N,
其中,g表示对共生关系图G中每一条边构建得到的子图,E、N分别为连接每个边的两个节点(u,v)的两种不同的路径的条数,p表示某一条路径属于第一种路径的概率。
6.根据权利要求5所述的方法,其特征在于,所述子图由共生关系图G中对应边上的两个节点(u,v)以及与(u,v)相连的所有的节点和所有的边组成。
7.根据权利要求5所述的方法,其特征在于,所述结构变量R(g)进一步表示为:
其中,w(u,v)为连接节点u和v的边在共生关系图G中的权重。
8.根据权利要求7所述的方法,其特征在于,所述结构化共生关系图模型Gi中,优化后的权重表示为:
w′(u,v)=w(u,v)(1+R(g))。
9.根据权利要求1所述的方法,其特征在于,所述步骤6进一步包括以下步骤:
步骤61,提取训练视频数据和测试视频数据中每一行为类别的所有视频的局部特征;
步骤62,对所述步骤61得到的局部特征分别进行聚类,将得到的n个聚类中心作为特征码本构成一个词袋,并且用距离一局部特征最近的码本作为该局部特征的标记;
步骤63,对于每一个带有标记的局部特征点,找到时空上距离其最近的M’个局部特征点作为其共生点,该局部特征点与与其邻近的所述M’个局部特征点在它们所对应的码本之间构成了M’个码本共生点对;
步骤64,将所得到的共生点对在所述结构化共生关系图模型Gi上所对应的边的权重进行加和,得到描述相应局部特征点的稳定性系数。
10.根据权利要求1所述的方法,其特征在于,所述步骤8中,利用基于径向基核的支持向量机学习得到所述分类器模型。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310087343.1A CN103136540B (zh) | 2013-03-19 | 2013-03-19 | 一种基于隐结构推理的行为识别方法 |
PCT/CN2013/089374 WO2014146463A1 (zh) | 2013-03-19 | 2013-12-13 | 一种基于隐结构推理的行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310087343.1A CN103136540B (zh) | 2013-03-19 | 2013-03-19 | 一种基于隐结构推理的行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103136540A true CN103136540A (zh) | 2013-06-05 |
CN103136540B CN103136540B (zh) | 2015-10-28 |
Family
ID=48496347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310087343.1A Active CN103136540B (zh) | 2013-03-19 | 2013-03-19 | 一种基于隐结构推理的行为识别方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN103136540B (zh) |
WO (1) | WO2014146463A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014146463A1 (zh) * | 2013-03-19 | 2014-09-25 | 中国科学院自动化研究所 | 一种基于隐结构推理的行为识别方法 |
CN107832688A (zh) * | 2017-10-27 | 2018-03-23 | 浙江农林大学 | 一种交通路口视频监控的交通模式和异常行为的检测方法 |
CN109086737A (zh) * | 2018-08-21 | 2018-12-25 | 武汉恒视途安科技有限公司 | 基于卷积神经网络的航运货物监控视频识别方法及系统 |
CN113254468A (zh) * | 2021-04-20 | 2021-08-13 | 西安交通大学 | 一种某型装备的故障查询及推理方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104899248A (zh) * | 2015-04-24 | 2015-09-09 | 济南大学 | 一种通用的运动捕获数据检索方法 |
CN107122780B (zh) * | 2017-02-28 | 2022-12-20 | 青岛科技大学 | 基于时空特征点的互信息与时空分布熵的行为识别方法 |
CN112396184B (zh) * | 2020-12-01 | 2023-09-05 | 中山大学 | 一种基于图结构数据的关系挖掘方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6441846B1 (en) * | 1998-06-22 | 2002-08-27 | Lucent Technologies Inc. | Method and apparatus for deriving novel sports statistics from real time tracking of sporting events |
CN102163290A (zh) * | 2011-05-16 | 2011-08-24 | 天津大学 | 基于时空关联信息的多视角视频监控中异常事件建模方法 |
CN102930302A (zh) * | 2012-10-18 | 2013-02-13 | 山东大学 | 基于在线序贯极限学习机的递增式人体行为识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923653B (zh) * | 2010-08-17 | 2013-03-06 | 北京大学 | 一种基于多层次内容描述的图像分类方法 |
CN102222101A (zh) * | 2011-06-22 | 2011-10-19 | 北方工业大学 | 一种视频语义挖掘方法 |
CN103136540B (zh) * | 2013-03-19 | 2015-10-28 | 中国科学院自动化研究所 | 一种基于隐结构推理的行为识别方法 |
-
2013
- 2013-03-19 CN CN201310087343.1A patent/CN103136540B/zh active Active
- 2013-12-13 WO PCT/CN2013/089374 patent/WO2014146463A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6441846B1 (en) * | 1998-06-22 | 2002-08-27 | Lucent Technologies Inc. | Method and apparatus for deriving novel sports statistics from real time tracking of sporting events |
CN102163290A (zh) * | 2011-05-16 | 2011-08-24 | 天津大学 | 基于时空关联信息的多视角视频监控中异常事件建模方法 |
CN102930302A (zh) * | 2012-10-18 | 2013-02-13 | 山东大学 | 基于在线序贯极限学习机的递增式人体行为识别方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014146463A1 (zh) * | 2013-03-19 | 2014-09-25 | 中国科学院自动化研究所 | 一种基于隐结构推理的行为识别方法 |
CN107832688A (zh) * | 2017-10-27 | 2018-03-23 | 浙江农林大学 | 一种交通路口视频监控的交通模式和异常行为的检测方法 |
CN107832688B (zh) * | 2017-10-27 | 2020-08-11 | 浙江农林大学 | 一种交通路口视频监控的交通模式和异常行为的检测方法 |
CN109086737A (zh) * | 2018-08-21 | 2018-12-25 | 武汉恒视途安科技有限公司 | 基于卷积神经网络的航运货物监控视频识别方法及系统 |
CN113254468A (zh) * | 2021-04-20 | 2021-08-13 | 西安交通大学 | 一种某型装备的故障查询及推理方法 |
CN113254468B (zh) * | 2021-04-20 | 2023-03-31 | 西安交通大学 | 一种装备的故障查询及推理方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103136540B (zh) | 2015-10-28 |
WO2014146463A1 (zh) | 2014-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084151B (zh) | 基于非局部网络深度学习的视频异常行为判别方法 | |
CN107330396B (zh) | 一种基于多属性和多策略融合学习的行人再识别方法 | |
CN113378632B (zh) | 一种基于伪标签优化的无监督域适应行人重识别方法 | |
CN103136540B (zh) | 一种基于隐结构推理的行为识别方法 | |
Liu et al. | Targeting ultimate accuracy: Face recognition via deep embedding | |
CN103268495B (zh) | 计算机系统中基于先验知识聚类的人体行为建模识别方法 | |
CN104616316B (zh) | 基于阈值矩阵和特征融合视觉单词的人物行为识别方法 | |
CN110263673A (zh) | 面部表情识别方法、装置、计算机设备及存储介质 | |
CN106203283A (zh) | 基于三维卷积深度神经网络和深度视频的动作识别方法 | |
CN103729459A (zh) | 一种构建情感分类模型的方法 | |
CN108664924A (zh) | 一种基于卷积神经网络的多标签物体识别方法 | |
CN102682302A (zh) | 一种基于关键帧的多特征融合的人体姿态识别方法 | |
CN104992191A (zh) | 基于深度学习的特征和最大置信路径的图像分类方法 | |
CN103605972A (zh) | 一种基于分块深度神经网络的非限制环境人脸验证方法 | |
CN104299012A (zh) | 一种基于深度学习的步态识别方法 | |
CN104636751A (zh) | 基于时间递归神经网络的人群异常检测和定位系统及方法 | |
CN103942568A (zh) | 一种基于无监督特征选择的分类方法 | |
CN111931505A (zh) | 一种基于子图嵌入的跨语言实体对齐方法 | |
CN104239897A (zh) | 一种基于自编码器词袋的视觉特征表示方法 | |
CN103530657B (zh) | 一种基于加权l2抽取深度学习人脸识别方法 | |
CN111126820B (zh) | 反窃电方法及系统 | |
CN103440471B (zh) | 基于低秩表示的人体行为识别方法 | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
CN104298977A (zh) | 一种基于不相关性约束的低秩表示人体行为识别方法 | |
CN107679135A (zh) | 面向网络文本大数据的话题检测与跟踪方法、装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C53 | Correction of patent of invention or patent application | ||
CB03 | Change of inventor or designer information |
Inventor after: Huang Kaiqi Inventor after: Zhang Zhang Inventor after: Kang Yunfeng Inventor after: Dan Yanhu Inventor before: Huang Kaiqi Inventor before: Zhang Zhang Inventor before: Dan Yanhu |
|
COR | Change of bibliographic data |
Free format text: CORRECT: INVENTOR; FROM: HUANG KAIQI ZHANG ZHANG DAN YANHU TO: HUANG KAIQI ZHANG ZHANG KANG YUNFENGDAN YANHU |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |