CN108280465A - 基于层次聚类的判别性部件挖掘行为识别方法 - Google Patents

基于层次聚类的判别性部件挖掘行为识别方法 Download PDF

Info

Publication number
CN108280465A
CN108280465A CN201711415783.XA CN201711415783A CN108280465A CN 108280465 A CN108280465 A CN 108280465A CN 201711415783 A CN201711415783 A CN 201711415783A CN 108280465 A CN108280465 A CN 108280465A
Authority
CN
China
Prior art keywords
behavior
component
track
cluster
clustering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711415783.XA
Other languages
English (en)
Inventor
同鸣
郭志强
陈逸然
田伟娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201711415783.XA priority Critical patent/CN108280465A/zh
Publication of CN108280465A publication Critical patent/CN108280465A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于层次聚类的判别性部件挖掘行为识别方法,主要解决现有行为部件判别性不足和识别率低的问题。其方案为:1.对行为视频提取稠密轨迹,获取轨迹的底层特征;2.计算轨迹点的空间距离和形状距离,作为层次聚类的相似性度量;3.对稠密轨迹进行层次聚类,将簇内聚合度作为聚类有效性指标,以自动确定最优的聚类簇数目,并将对应的聚类簇作为候选部件;4.对候选部件添加判别式约束,实现候选部件的判别性评估,进一步筛选出判别性部件,以进行行为识别。本发明获得的判别性部件特征具较强的鉴别力,提高了行为识别的准确率,可用于监控安防系统。

Description

基于层次聚类的判别性部件挖掘行为识别方法
技术领域
本发明属于计算机视觉模式识别和视频图像处理方法,特别涉及视频中的人体行为识别方法,可用于监控安防系统。
背景技术
近年来,面对海量涌现的数据,如何自动获取并分析其中包含的内容成为一个亟待解决的问题。基于机器学习和计算机视觉的人体行为识别技术发展迅速,对视频数据进行处理和分析,学习并理解其中人体的动作和行为具有重要的学术价值、潜在的商业价值和巨大的应用前景。
随着行为识别的进一步研究和探索,大量关于底层新特征优化的方法相继被提出,后来研究者们发现,底层特征只能用于表示视频中行为的底层视觉信息,而较大的行为类内变化,以及复杂背景等使得底层特征对视频中行为的表示能力和判别能力受到较大程度的限制,因此,研究者们开始转向挖掘更高层的新语义特征的研究,以实现对现有底层特征的优化和提炼。为了在底层特征中获取与行为类别更相关、更具有判别性的子行为信息,在局部特征的基础上,构建更具有全局信息的行为部件则显得越来越重要。
目前已提出的部件构建方法主要有:
(1)A.Ravichandran,C.Wang,M.Raptis,et al.Superfloxels:A mid-levelrepresentation for video sequences[C].ECCV.Springer Berlin Heidelberg,2012:131-140.文章为了增强部件的表示,提出了一种采用轨迹获取superfloxel,表示为一个聚类簇中具有代表性的轨迹,该轨迹的选取是通过确保提出的聚类方法是关于运动和遮挡边界来实现的。但该方法依赖于数据必须呈球形分布的假设条件。
(2)Q.Zhao,H.I.Horace.Unsupervised approximate-semantic vocabularylearning for human action and video classification[J].Pattern RecognitionLetters,2013,vol.34,no.15,pp.1870-1878.文章提出了一种无监督的上下文谱聚类框架以获取行为视频的部件表示,语义相近的视觉单词能够被划分在同一个聚类簇中,从而增强了聚类方法的精确度,但是该方法人体行为部件的判别力不足。
(3)J.Zhu,B.Wang,X.Yang,W.Zhang,Z.Tu.Action recognition withactons.In:IEEE International Conference on Computer Vision,2013,pp.3559-3566.文章提出了一个双层结构的行为识别框架去自动利用部件“acton”表示,通过一个新的最大边界多通道多示例学习框架学习,同时可以捕获多个中层行为概念,然而该方法提取的中层语义存在语义物理意义不明确的问题,且中层语义的判别性不足。
发明内容
本发明目的在于针对上述已有技术的不足,提出一种基于层次聚类的判别性部件挖掘行为识别方法,以获取具备较强鉴别力的行为部件,最终提高行为识别的准确率。
为实现上述目的,本发明的技术方案包括如下:
技术思路是:首先,在提取稠密轨迹的基础上,获取行为视频的底层特征。其次,计算稠密轨迹的空间距离和形状距离,采用空间距离和形状距离作为层次聚类的相似性度量。然后,进行层次聚类,构造簇内聚合度的聚类有效性指标,以自动确定最优的聚类簇数目,并将对应的聚类簇作为候选行为部件。接着,通过对候选行为部件添加判别式约束,以实现候选行为部件的判别性评估。最后,将具有判别性的行为部件用于行为识别。
为实现上述目的,本发明的技术方案包括如下步骤:
(1)对所有行为视频提取稠密轨迹,得到轨迹点的3D坐标,并分别计算轨迹点的方向梯度直方图HOG和光流方向直方图HOF,串接作为该轨迹的底层特征;
(2)基于稠密轨迹,计算轨迹间的空间距离和形状距离;
(3)采用步骤(2)获得的空间距离和形状距离作为相似性度量,进行层次聚类,获取轨迹聚类簇;
(4)将轨迹聚类簇的簇内信息熵作为聚类的有效性度量指标Eval,通过迭代循环,选取Eval最小值对应的聚类簇作为最优的层次聚类结果,即候选行为部件;
(5)采用判别式约束对候选行为部件进行进一步筛选和抽象:
5a)剔除候选行为部件中的离散轨迹;
5b)计算经5a)剔除后的候选行为部件的类内触发频度
其中,表示为第i类行为的第j个候选行为部件经5a)剔除后的新候选行为部件,表示为第i类行为中所有行为视频隶属于的平均判分,Vi表示第i类行为的任一行为视频,Ni表示第i类行为的视频个数,i=1,2,...,M,M表示行为类别总数目;
5c)对新候选行为部件的类内触发频度进行归一化,得到归一化后的类内触发频度并计算新候选行为部件判别性度量指标
5d)设置新候选行为部件判别性度量指标的阈值为TDis,筛选判别性行为部件:
则将新候选行为部件筛选为判别性行为部件,并将该判别性行为部件作为行为视频的表示,进行行为视频识别;
否则,剔除该新候选行为部件,并将该新候选行为部件的相关轨迹置入轨迹缓冲区,返回步骤(2)。
本发明与现有技术相比具有以下优点:
1)本发明采用空间距离和形状距离作为相似性度量,进行层次聚类,获得的行为部件具备空间位置相近和轨迹形状相似的特点,更加准确且更符合人类对主体运动的理解。
2)本发明构造了簇内聚合度的聚类有效性指标,可自动确定最优的聚类簇数目。
3)本发明在获得的候选行为部件基础上,对候选行为部件添加判别式约束,以实现对候选行为部件判别性的评估,从而获取具备较强判别性的行为部件,最终提高行为识别的准确率。
综上所述,本发明获得的判别性部件具有较强的鉴别力,提高了视频行为识别的准确率。
附图说明
图1是本发明的实现流程图。
具体实施方式
参照图1,本发明的实现步骤如下:
步骤1,对所有行为视频提取稠密轨迹,得到轨迹点的3D坐标,并获取稠密轨迹点的HOG和HOF特征。
本步骤的具体实现如下:
1a)对行为视频八个尺度空间使用密集网格进行采样,每两个尺度空间之间的缩放因子为采样间隔为5个像素;
1b)在光流场中跟踪稠密采样点并形成稠密轨迹;
1c)以轨迹为中心,在轨迹周围提取一个大小为32×32像素,长度为15帧的立方体;
1d)在轨迹立方体块内提取HOG和HOF特征并进行串接,作为该轨迹的底层特征;
步骤2,计算空间距离和形状距离。
利用步骤(1)中获取的轨迹点3D坐标,计算底层轨迹间的欧氏距离dqr
dqr=dsp(t)+dapp(t),t∈o(Tq,Tr),
其中,dsp(t)为空间距离,dapp(t)为形状距离,o(Tq,Tr)表示底层轨迹Tq和Tr的时域重叠区间。
步骤3,采用步骤(2)获得的空间距离和形状距离作为相似性度量,进行层次聚类,获取轨迹聚类簇。
3a)将步骤(1)获得的稠密轨迹作为层次聚类的输入,将每一条稠密轨迹作为一个聚类簇,采用自底向上的凝聚策略,反复聚合数据,形成一个分层的嵌套聚类;
3b)计算每两个簇内所有轨迹间的空间距离和形状距离,作为相似性度量,进行层次聚类,对相似性最大的2个聚类簇进行合并,得到新的聚类簇;
3c)统计新的聚类簇个数,当个数达到预先设置的阈值时,停止循环,并输出各个聚类簇数目对应的轨迹聚类簇,否则,返回步骤3b)。
步骤4,确定最优的聚类簇数目。
4a)本发明采用轨迹聚类簇的簇内信息熵度量方式,利用如下公式计算簇内聚合度的聚类有效性指标Eval:
Eval=Ent_In,
其中,表示为轨迹聚类簇的簇内信息熵,Xu表示为第u个轨迹聚类簇,表示为Xu中所有轨迹间的信息熵之和,簇内信息熵Ent_In越小,表明簇内的数据分布越紧密,数据聚合度也就越高;
4b)在步骤4a)聚类有效性指标Eval的基础上,通过迭代循环,选取Eval最小值对应的聚类簇作为最优的层次聚类结果,即候选行为部件。
步骤5,采用判别式约束对层次聚类得到的候选行为部件进行进一步筛选和抽象,获取具备判别性的行为部件。
5a)剔除候选行为部件中的离散轨迹,设为第i类行为的第j个候选行为部件,利用底层特征为训练对应的判别模型SVMj,其次,将中的所有轨迹依次输入到训练好的SVMj中,获取各轨迹的判分选择最大判分值所对应的标签作为该轨迹的预测标签,其中,标签为1表示属于该部件,为0则不属于该部件,最后将标签为0的轨迹视为离散轨迹,在该部件中剔除并置入轨迹缓冲区,至此,得到更新后的新候选行为部件并更新对应的判别模型为SVM′j
5b)将行为视频的测试集输入到步骤5a)的SVM′j中,获取测试集的判分,计算经5a)剔除后的新候选行为部件的类内触发频度
其中,表示为第i类行为的第j个候选行为部件经5a)剔除后的新候选行为部件,表示为第i类行为中所有行为视频隶属于新候选行为部件的平均判分,Vi表示第i类行为的任一行为视频,Ni表示第i类行为的视频个数,i=1,2,...,M,M表示行为类别总数目;
5c)对新候选行为部件的类内触发频度进行归一化,得到归一化后的类内触发频度并计算新候选行为部件判别性度量指标
其中,
5d)设置新候选行为部件判别性度量指标的阈值为TDis,筛选判别性行为部件:
则将新候选行为部件筛选为判别性行为部件,并将该判别性行为部件作为行为视频的表示,进行视频行为识别;
否则,剔除该新候选行为部件,并将该新候选行为部件的相关轨迹置入轨迹缓冲区,返回步骤2。
为了验证本发明的有效性,在常用的人体行为数据库KTH和UCF-Sports上,利用本发明进行人体行为识别;
识别结果为:在数据库KTH上的识别率为95.32%,在数据库UCF-Sports上的识别率为94.43%。
以上描述仅是本发明的一个具体实例,并未构成对本发明的任何限制,显然对于本领域的专业人员来说,在了解了本发明内容和原理后,都可能在不背离本发明原理、结构的情况下,进行形式和细节上的各种修改和改变,但是这些基础于本发明思想的修正和改变仍在本发明的权利要求保护范围之内。

Claims (7)

1.基于层次聚类的判别性部件挖掘行为识别方法,包括如下步骤:
(1)对所有行为视频提取稠密轨迹,得到轨迹点的3D坐标,并分别计算轨迹点的方向梯度直方图HOG和光流方向直方图HOF,串接作为该轨迹的底层特征;
(2)基于稠密轨迹,计算轨迹间的空间距离和形状距离;
(3)采用步骤(2)获得的空间距离和形状距离作为相似性度量,进行层次聚类,获取轨迹聚类簇;
(4)将轨迹聚类簇的簇内信息熵作为聚类的有效性度量指标Eval,通过迭代循环,选取Eval最小值对应的聚类簇作为最优的层次聚类结果,即候选行为部件;
(5)采用判别式约束对候选行为部件进行进一步筛选和抽象:
5a)剔除候选行为部件中的离散轨迹;
5b)计算经5a)剔除后的候选行为部件的类内触发频度
其中,表示为第i类行为的第j个候选行为部件经5a)剔除后的新候选行为部件,表示为第i类行为中所有行为视频隶属于的平均判分,Vi表示第i类行为的任一行为视频,Ni表示第i类行为的视频个数,i=1,2,...,M,M表示行为类别总数目;
5c)对新候选行为部件的类内触发频度进行归一化,得到归一化后的类内触发频度并计算新候选行为部件判别性度量指标
其中,
5d)设置新候选行为部件判别性度量指标的阈值为TDis,筛选判别性行为部件:
则将新候选行为部件筛选为判别性行为部件,并将该判别性行为部件作为行为视频的表示,进行行为视频识别;
否则,剔除该新候选行为部件,并将该新候选行为部件的相关轨迹置入轨迹缓冲区,返回步骤(2)。
2.根据权利要求1所述的方法,其中步骤(1)中“对所有行为视频提取稠密轨迹”,按如下步骤进行:
1a)对行为视频八个尺度空间使用密集网格进行采样,每两个尺度空间之间的缩放因子为采样间隔为5个像素;
1b)在光流场中跟踪稠密采样点并形成稠密轨迹。
3.根据权利要求1所述的方法,其中步骤(1)中“计算轨迹点的HOG和HOF特征”,按如下步骤进行:
1c)以轨迹为中心,在轨迹周围提取一个大小为32×32像素,长度为15帧的立方体;
1d)在轨迹立方体块内提取HOG和HOF特征并进行串接,作为该轨迹的底层特征。
4.根据权利要求1所述的方法,其中步骤(2)中“基于稠密轨迹,计算轨迹间的空间距离和形状距离”,按如下步骤进行:
利用步骤(1)中获得的轨迹点3D坐标,计算底层轨迹间的欧氏距离dqr
dqr=dsp(t)+dapp(t),t∈o(Tq,Tr),
其中,dsp(t)表示为空间距离,dapp(t)表示为形状距离,o(Tq,Tr)表示底层轨迹Tq和Tr的时域重叠区间。
5.根据权利要求1所述的方法,其中步骤(3)中“采用步骤(2)获得的空间距离和形状距离作为相似性度量,进行层次聚类,获取轨迹聚类簇”,按如下步骤进行:
3a)将步骤(1)获得的稠密轨迹作为层次聚类的输入,将每一条稠密轨迹作为一个聚类簇,采用自底向上的凝聚策略,反复聚合数据,形成一个分层的嵌套聚类;
3b)计算每两个簇内所有轨迹间的空间距离和形状距离,作为相似性度量,进行层次聚类,对相似性最大的2个聚类簇进行合并,得到新的聚类簇;
3c)统计新的聚类簇个数,当个数达到预先设置的阈值时,停止循环,并输出各个聚类簇数目对应的轨迹聚类簇,否则,返回步骤3b)。
6.根据权利要求1所述的方法,其中步骤(4)中“聚类有效性度量指标Eval”,通过如下公式计算:
Eval=Ent_In,
其中,表示为轨迹聚类簇的簇内信息熵,Xu表示为第u个轨迹聚类簇,表示为Xu中所有轨迹间的信息熵之和。
7.根据权利要求1所述的方法,其中步骤5a)中“剔除候选行为部件中的离散轨迹”,按如下步骤进行:
5a1)设为第i类行为的第j个候选行为部件,利用底层特征为训练对应的判别模型SVMj
5a2)将中的所有轨迹依次输入到训练好的SVMj中,获取各轨迹的判分选择最大判分值所对应的标签作为该轨迹的预测标签,其中,标签为1表示属于该部件,为0则不属于该部件,最后将标签为0的轨迹视为离散轨迹,在该部件中剔除并置入轨迹缓冲区,至此,得到更新后的新候选行为部件并更新对应的判别模型为SVMj′。
CN201711415783.XA 2017-12-25 2017-12-25 基于层次聚类的判别性部件挖掘行为识别方法 Pending CN108280465A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711415783.XA CN108280465A (zh) 2017-12-25 2017-12-25 基于层次聚类的判别性部件挖掘行为识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711415783.XA CN108280465A (zh) 2017-12-25 2017-12-25 基于层次聚类的判别性部件挖掘行为识别方法

Publications (1)

Publication Number Publication Date
CN108280465A true CN108280465A (zh) 2018-07-13

Family

ID=62802096

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711415783.XA Pending CN108280465A (zh) 2017-12-25 2017-12-25 基于层次聚类的判别性部件挖掘行为识别方法

Country Status (1)

Country Link
CN (1) CN108280465A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165854A (zh) * 2018-08-29 2019-01-08 中国民用航空总局第二研究所 空管运行效率等级评估方法及其装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140037227A1 (en) * 2012-07-31 2014-02-06 Bin Zhang Hierarchical cluster determination based on subgraph density
CN105095866A (zh) * 2015-07-17 2015-11-25 重庆邮电大学 一种快速行为识别方法和系统
CN107194366A (zh) * 2017-06-06 2017-09-22 西安电子科技大学 基于稠密轨迹协方差描述子的行为识别方法
CN107316005A (zh) * 2017-06-06 2017-11-03 西安电子科技大学 基于稠密轨迹核协方差描述子的行为识别方法
CN107506781A (zh) * 2017-07-06 2017-12-22 浙江工业大学 一种基于bp神经网络的人体行为识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140037227A1 (en) * 2012-07-31 2014-02-06 Bin Zhang Hierarchical cluster determination based on subgraph density
CN105095866A (zh) * 2015-07-17 2015-11-25 重庆邮电大学 一种快速行为识别方法和系统
CN107194366A (zh) * 2017-06-06 2017-09-22 西安电子科技大学 基于稠密轨迹协方差描述子的行为识别方法
CN107316005A (zh) * 2017-06-06 2017-11-03 西安电子科技大学 基于稠密轨迹核协方差描述子的行为识别方法
CN107506781A (zh) * 2017-07-06 2017-12-22 浙江工业大学 一种基于bp神经网络的人体行为识别方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
HENG WANG等: "Dense Trajectories and Motion Boundary Descriptors for Action Recognition", 《INTERNATIONAL JOURNAL OF COMPUTER VISION》 *
MICHALIS RAPTIS等: "Discovering discriminative action parts from mid-level video representations", 《2012 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
MING TONG 等: "A compact discriminant hierarchical clustering approach for action recognition", 《MULTIMEDIA TOOLS AND APPLICATIONS》 *
MING TONG 等: "Action recognition new framework with robust 3D-TCCHOGAC and 3D-HOOFGAC", 《MULTIMEDIA TOOLS AND APPLICATIONS》 *
TIAN LAN 等: "Action Recognition by Hierarchical Mid-Level Action Elements", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *
王凡: "一种基于判别式聚类的人体行为识别方法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
田伟娟: "基于行为网络结构的中层语义行为识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165854A (zh) * 2018-08-29 2019-01-08 中国民用航空总局第二研究所 空管运行效率等级评估方法及其装置
CN109165854B (zh) * 2018-08-29 2021-06-18 中国民用航空总局第二研究所 空管运行效率等级评估方法及其装置

Similar Documents

Publication Publication Date Title
Li et al. Adaptively constrained dynamic time warping for time series classification and clustering
CN109344736B (zh) 一种基于联合学习的静态图像人群计数方法
CN106778595B (zh) 基于高斯混合模型的人群中异常行为的检测方法
CN109919031B (zh) 一种基于深度神经网络的人体行为识别方法
CN105787458B (zh) 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN110348364B (zh) 一种无监督聚类与时空域深度网络相结合的篮球视频群体行为识别方法
CN108509859A (zh) 一种基于深度神经网络的无重叠区域行人跟踪方法
CN104134077B (zh) 一种基于确定学习理论的与视角无关的步态识别方法
TWI766618B (zh) 關鍵點檢測方法、電子設備及電腦可讀儲存介質
CN106529477B (zh) 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN109101938B (zh) 一种基于卷积神经网络的多标签年龄估计方法
CN106204640A (zh) 一种运动目标检测系统及方法
CN105740773A (zh) 基于深度学习和多尺度信息的行为识别方法
CN105550678A (zh) 基于全局显著边缘区域的人体动作特征提取方法
CN106096561A (zh) 基于图像块深度学习特征的红外行人检测方法
CN106529499A (zh) 基于傅里叶描述子和步态能量图融合特征的步态识别方法
CN108447080A (zh) 基于分层数据关联和卷积神经网络的目标跟踪方法、系统和存储介质
CN107563349A (zh) 一种基于VGGNet的人数估计方法
CN107145862A (zh) 一种基于霍夫森林的多特征匹配多目标跟踪方法
CN106682573B (zh) 一种单摄像头的行人跟踪方法
CN109993230A (zh) 一种面向脑功能磁共振图像分类的tsk模糊系统建模方法
CN107633226A (zh) 一种人体动作跟踪识别方法及系统
CN104978567A (zh) 基于场景分类的车辆检测方法
CN107729363A (zh) 基于GoogLeNet网络模型鸟类种群识别分析方法
CN106295532A (zh) 一种视频图像中的人体动作识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180713

WD01 Invention patent application deemed withdrawn after publication