CN104268586A - 一种多视角动作识别方法 - Google Patents
一种多视角动作识别方法 Download PDFInfo
- Publication number
- CN104268586A CN104268586A CN201410553477.2A CN201410553477A CN104268586A CN 104268586 A CN104268586 A CN 104268586A CN 201410553477 A CN201410553477 A CN 201410553477A CN 104268586 A CN104268586 A CN 104268586A
- Authority
- CN
- China
- Prior art keywords
- action
- training
- feature descriptor
- space
- visual angles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种多视角动作识别方法,包括动作训练和动作识别两个过程。动作训练时,通过二维条件随机场的方法训练分类器;动作识别过程包括如下步骤:提取时空兴趣点;计算特征描述子;特征描述子降维;特征描述子聚类,获得预处理文件;将预处理文件送入训练过程中得到的分类器。本发明充分利用了时空兴趣点之间的时空关系,有效地描述了不同动作之间的特征;采用K-means聚类将不同动作聚集到不同的类别,增加了动作识别的区分度;通过引入二维条件随机场,对单个摄像头下的时间动作序列及多个摄像头之间的空间动作序列进行有效的建模,使得训练模型更加准确,从而实现了对人体动作的有效识别。
Description
技术领域
本发明属于计算机视觉技术领域,特别涉及一种多视角动作识别方法。
背景技术
使用摄像机和计算机代替人眼“看”,也就是计算机视觉技术,开始得到了越来越多的关注。该技术通过摄像机摄像以及使用计算机内的预设算法进行运算,可以对图像、视频识别,并做进一步的处理,该种技术试图建立一种从图像或者视频中获取信息并处理的人工智能系统。
而且,随着视频监控技术的日益成熟和监控设备的普及,摄像机等监控设备的成本的日益降低,视频信息的获得变得更加的容易和方便,同时视频信息的质量也越来越高。基于此,人体动作识别得到越来越多的关注。特别对于火车站、机场、地铁、银行、监狱等一些对安全要求较高的公共场所,一旦有危险可疑行为发生时,若计算机能够准确地识别并发出警报,对于安保甚至反恐工作有着重要的意义。
人体动作识别往往既需要提取特征来合理的描述人体动作,又需要设计分类器来准确的区分不同的动作。
目前,动作描述方法大致分为三类:基于全局特征的方法、基于局部特征的方法以及多特征融合的方法。基于全局特征的方法,如光流、运动能量图、运动历史图、方向梯度直方图、时空体等;基于局部特征的方法,如时空兴趣点、Harris兴趣点、三维尺度不变特征转换等。
动作识别方法大致分为模板匹配、生成模型、判别模型三类。
模板匹配就是通过计算待识别模板与已知模板的相似度,把相似度最大的已知模板所对应的类别作为识别结果。生成模型基于一个联合概率函数建立观察值与类别间的关系,通过训练得到每个类别的模型参数,然后分别计算待识别动作与每个模型的匹配程度,将最匹配的类别作为识别结果。生成模型主要包括隐马尔科夫模型、潜在狄利克雷分配模型、概率潜在语义分析模型等。判别模型主要包括支持向量机、条件随机场等。
模板匹配的优点是算法简单易实现,时间开销少,对相差比较大的行为识别效果较好,但对细微差别的行为识别效果较差,对运动持续时间的变化及噪声比较敏感。
生成模型中,隐马尔科夫模型被广泛使用。隐马尔科夫模型基于两个假设:输出独立性假设和马尔科夫性假设。由于其输出独立性假设要求观察值序列严格相互独立才能保证推导的正确性,导致其不能考虑上下文的特征,即不能适应存在依赖关系的观察值序列。而且传统隐马尔科夫模型的链状结构能够为简单的动作,如走、跑等,进行较好的建模,但对于较为复杂的运动,如交互行为、场景事件等,不能得到很好的结果,所以也无法实现多视角的人体动作识别。
判别模型中,条件随机场被广泛使用。条件随机场对整个观察值序列进行建模,它使用了一种概率图模型,具有表达长距离依赖性和交叠性特征的能力,并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。然而,对于多视角的人体动作存在两种观察值序列,一种是单个摄像头下的时间动作序列,另一种是多个摄像头之间的空间动作序列,显然,一维的线性条件随机场已不能表达多视角的人体动作。
综上所述,模型匹配对细微差别的行为识别效果差、对运动持续时间的变化及噪声比较敏感,生成模型不能适应存在依赖关系的观察值序列且对于较复杂的运动不能得到很好的效果,判别模型只能使用一维的线性条件随机场,由于上述方法都存在较大的缺陷,所以提供一种对细微差别的行为识别效果强、对运动持续时间的变化及噪声不敏感、适应存在依赖关系的观察值序列、对复杂动作识别能力强且能表达多视角的人体动作的方法成为了本领域技术人员一直追求的目标。
发明内容
由于现有技术存在对细微差别的行为识别效果差、对运动持续时间的变化及噪声比较敏感、适应存在依赖关系的观察值序列、对于较复杂的运动不能得到很好的效果、只能使用一维的线性条件随机场的问题,本发明提出了一种多视角动作识别方法。
为实现上述技术目的,本发明具体提供了如下的技术方案:
一种多视角动作识别方法,该方法包括如下步骤:(1)动作训练过程,通过二维条件随机场的方法训练并获得分类器;(2)动作识别过程,利用步骤(1)获得的分类器识别动作;
动作识别过程包括如下步骤:
S1:对待识别视频文件提取时空兴趣点;
S2:计算时空兴趣点所在区域的特征描述子;
S3:对S2中所有的特征描述子降维;
S4:将S3中降维后的特征描述子聚类,获得预处理文件;
S5:将S4所得预处理文件送入训练过程中得到的分类器。
通过使用二维条件随机场的方法训练分类器,实现了在时间序列和空间序列的有效的二维建模,使得训练模型的准确度更高,为后续的多视角的人体动作的识别提供了基础,能够有效地识别人体动作。
进一步地,动作训练过程包括如下步骤:
X1:对训练视频文件进行人工标注;
X2:对训练视频文件提取时空兴趣点;
X3:计算时空兴趣点所在区域的特征描述子;
X4:对步骤X3中的特征描述子构成的集合抽样,得到子集;
X5:对步骤X4得到的子集中所有的特征描述子降维;
X6:对步骤X5中降维后的特征描述子进行聚类,获得训练文件;
X7:通过二维条件随机场的方法,使用步骤X6所得的训练文件训练分类器。
进一步地,时空兴趣点的提取方法为高斯滤波和Gabor滤波。
通过在二维图像平面进行高斯滤波和在时间轴上一维Gabor滤波,可以检测得到稠密的时空兴趣点。
进一步地,特征描述子包括方向梯度直方图、光流直方图。采用多种特征描述子,增强特征描述的准确性和全面性,为动作识别的有效性做好铺垫。
进一步地,采用主成分分析的方法进行降维。主成分分析能够消除特征描述子之间的相关影响,减少降维时特征描述子选择的工作量,且这种方法便于在计算机上实现,可操作性强。
进一步地,对特征描述子进行聚类的方法为K-mesns。对于大数据集时,这种算法是相对可非常高效的。
进一步地,对步骤X3中的特征描述子构成的集合进行抽样的方法是随机抽样。通过概率的方式客观地选取抽样,保证了每个特征描述子被选取的概率相同,保证得到合适的子集。
本发明的有益效果为:本发明充分利用了时空兴趣点之间的时空关系,有效地描述了不同动作之间的特征;采用K-means聚类将不同动作聚集到不同的类别,增加了动作识别的区分度;通过引入二维条件随机场,对单个摄像头下的时间动作序列及多个摄像头之间的空间动作序列进行有效的建模,使得训练模型更加准确,从而实现了对人体动作的有效识别。
附图说明
图1为动作训练过程流程图。
图2为动作识别过程流程图。
图3为二维条件随机场的状态序列图。
具体实施方式
下面结合附图对本发明的结构进行详细解释说明。
一种多视角动作识别方法,包括动作训练和动作识别两个过程。
如图1所示,动作训练过程包括如下步骤:
X1:对训练视频文件进行人工标注,共计4个视角,10类动作;
X2:对训练视频文件提取时空兴趣点,本发明采用的是高斯滤波及Gabor滤波等方法;
X3:计算时空兴趣点所在区域的特征描述子,本发明的特征描述子包括方向梯度直方图、光流直方图;
X4:对步骤X3中的特征描述子构成的集合通过随机抽样的方式,得到子集;
X5:对步骤X4得到的子集中所有的特征描述子通过主成分分析的方式降维;
X6:对步骤X5中降维后的特征描述子通过K-means进行聚类,获得训练文件;
X7:通过二维条件随机场的方法,使用步骤X6所得的训练文件训练分类器。
如图2所示,动作识别过程包括如下步骤:
S1:对待识别视频文件提取时空兴趣点,本发明采用的是高斯滤波及Gabor滤波等方法;
S2:计算时空兴趣点所在区域的特征描述子,本发明的特征描述子包括方向梯度直方图、光流直方图;
S3:对S2中所有的特征描述子通过主成分分析的方式降维;
S4:将S3中降维后的特征描述子通过K-means进行聚类,获得预处理文件;
S5:将S4所得预处理文件送入训练过程中得到的分类器,实现多视角动作的识别。
需要说明的是,时空兴趣点是典型的局部时空特征,分布在滤波器响应局部较大的区域,反映了该区域的图像灰度值变化比较显著,具有很好的特征描述和类别区分能力,所以将响应函数的局部极大值定义为时空兴趣点。
本发明中采用的聚类方法是K-means,主要原理是以特征空间中k个特征点为中心进行聚类,将最靠近某一特征点的特征集合归为一类,并在不断添加特征点的过程中更新特征点中心的位置。具体的K-means算法步骤如下:算法之前先确定特征聚类的中心点的个数k:
J1、随机选择k个训练样本的特征值直接作为k个中心点;
J2、对每个新特征值计算离它最近的中心点,即确定其聚类中心点;
J3、添加进去之后,计算此类特征值的新的中心点,即更新中心点的值;满足收敛需求则停止,不满足则返回到J2。
训练过程中,对十类两人交互动作进行训练,包括握手、挥手、拥抱、鞠躬、拳击、推开、头击、掌掴、锁喉及单腿踢。每个动作由10组共14个演员表演三遍,每组由两个演员组成,所有动作都没有具体的规范,由演员自由完成。所有视频由四个角度不同的摄像机进行拍摄,视频的帧率为每秒25帧,大小为400*320。该数据集共包含1200段视频,每段视频长度约为150帧。
如图3所示,用二维条件随机场的状态序列图表示多视角人体动作的时间序列和空间序列,每行T代表单个摄像头下的时间动作序列,每列C代表某个时间下多个摄像头的空间动作序列。
传统的一维条件随机场只能表达一种观察值序列,而本发明可以多视角地从时间和空间的角度观察、识别人体动作。
为了方便说明,我们做了如下设定:
图3中,X={X1,X2,…,Xc}为多视角动作序列,其中Xc={xc 1,xc 2,…,xc t}是第c个视角的视频序列,对应于图3的每一行;每个节点代表着一个随机变量,对应的状态标签为yi,j;Cω={yω,1,yω,2,…,yω,c}表示第ω行的状态序列,即视角ω下所有时刻的状态序列;Tm={y1,m,y2,m,…,yc,m}表示第m列的状态序列,即时刻m下所有视角的状态序列;Δrow(i,j)表示随机变量yi,j所在行;Δcolumn(i,j)表示随机变量yi,j所在列;
I(ω)={(i′,j′),Δrow(i′,j′)=ω}表示第ω行的随机变量集合,即第ω个视角的观察值序列;
J(m)={(i",j"),Δcolumn(i",j")=m}表示第m列的随机变量集合,即第m时刻的观察值序列;
Erow(ω)={((i′,j′),(i,j))∈Erow:(i′,j′)∈I(ω-1),(i,j)∈I(ω)}表示第ω-1行与第ω行之间的边,即两个视角间的空间依赖关系;
Ecolumn(ω)={((i",j"),(i,j))∈Ecolumn(i",j")∈J(m-1),(i,j)∈J(m)}表示第m-1列与第m列之间的边,即两个时刻间的时间依赖关系。
构造矩阵:Mm(Tm-1,Tm|x)=exp(Ψm(Tm-1,Tm|x))
将势函数Ψm(Tm-1,Tm|x)定义为:
其中,
Tm-1={y′1,m-1,y′2,m-1,…,y′c,m-1}表示第m-1列的状态序列;
Tm={y1,m,y2,m,…,yc,m}表示第m列的状态序列;
φ(eω,yi′,j′,yi,j,x)表示不同视角的空间依赖关系;
表示不同时刻的时间依赖关系;
ψ(v,yi′,j′,x)和ω(v,yi",j",x)表示每个随机变量与对应的状态标签的关系,α,β,γ,η,分别为四个势函数的权重;
归一化因子定义为:
由上述公式可得二维条件随机场:
对数似然函数估计参数:
其中Θ={α1,α2,…;β1,β2,…;γ1,γ2,…;η1,η2,…}是上述二维条件随机场的参数。
训练的目的就是为了在满足对数似然函数最大化时获得这些参数Θ={α1,α2,…;β1,β2,…;γ1,γ2,…;η1,η2,…},这些参数用于在识别的过程中使用,即实现对待检测视频中人体动作的识别。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明实质内容上所作的任何修改、等同替换和简单改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种多视角动作识别方法,其特征在于:该方法包括如下步骤:(1)动作训练过程,通过二维条件随机场的方法训练并获得分类器;(2)动作识别过程,利用步骤(1)获得的分类器识别动作;
动作识别过程包括如下步骤:
S1:提取待识别视频文件的时空兴趣点;
S2:计算时空兴趣点所在区域的特征描述子;
S3:对S2中所有的特征描述子降维;
S4:将S3中降维后的特征描述子聚类,获得预处理文件;
S5:将S4所得预处理文件送入训练过程中得到的分类器。
2.根据权利要求1所述的多视角动作识别方法,其特征在于:动作训练过程包括如下步骤:
X1:人工标注训练视频文件;
X2:提取训练视频文件的时空兴趣点;
X3:计算时空兴趣点所在区域的特征描述子;
X4:对步骤X3中的特征描述子构成的集合抽样,得到子集;
X5:对步骤X4得到的子集中所有的特征描述子降维;
X6:对步骤X5中降维后的特征描述子进行聚类,获得训练文件;
X7:通过二维条件随机场的方法,使用步骤X6所得的训练文件训练分类器。
3.根据权利要求1或2所述的多视角动作识别方法,其特征在于:时空兴趣点的提取方法为高斯滤波和Gabor滤波。
4.根据权利要求1或2所述的多视角动作识别方法,其特征在于:特征描述子包括方向梯度直方图、光流直方图。
5.根据权利要求1或2所述的多视角动作识别方法,其特征在于:采用主成分分析的方法进行降维。
6.根据权利要求1或2所述的多视角动作识别方法,其特征在于:对特征描述子进行聚类的方法为K-means。
7.根据权利要求2所述的多视角动作识别方法,其特征在于:对步骤X3中的特征描述子构成的集合进行抽样的方法是随机抽样。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410553477.2A CN104268586B (zh) | 2014-10-17 | 2014-10-17 | 一种多视角动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410553477.2A CN104268586B (zh) | 2014-10-17 | 2014-10-17 | 一种多视角动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104268586A true CN104268586A (zh) | 2015-01-07 |
CN104268586B CN104268586B (zh) | 2018-02-06 |
Family
ID=52160106
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410553477.2A Active CN104268586B (zh) | 2014-10-17 | 2014-10-17 | 一种多视角动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104268586B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794446A (zh) * | 2015-04-22 | 2015-07-22 | 中南民族大学 | 基于合成描述子的人体动作识别方法及系统 |
CN105631420A (zh) * | 2015-12-23 | 2016-06-01 | 武汉工程大学 | 一种基于3d骨架的多视角室内人体行为识别方法 |
CN105930768A (zh) * | 2016-04-11 | 2016-09-07 | 武汉大学 | 一种基于时空约束的目标重识别方法 |
CN105975932A (zh) * | 2016-05-04 | 2016-09-28 | 广东工业大学 | 基于时间序列shapelet的步态识别分类方法 |
CN106022342A (zh) * | 2016-05-05 | 2016-10-12 | 南京邮电大学 | 一种基于kaze算法的图像特征提取方法 |
CN106971145A (zh) * | 2017-03-03 | 2017-07-21 | 广东工业大学 | 一种基于极限学习机的多视角动作识别方法及装置 |
CN106971151A (zh) * | 2017-03-14 | 2017-07-21 | 天津大学 | 一种基于线性判别分析的开放视角动作识别方法 |
CN107203745A (zh) * | 2017-05-11 | 2017-09-26 | 天津大学 | 一种基于跨域学习的跨视角动作识别方法 |
CN107346207A (zh) * | 2017-06-30 | 2017-11-14 | 广州幻境科技有限公司 | 一种基于隐马尔科夫模型的动态手势切分识别方法 |
CN107485844A (zh) * | 2017-09-27 | 2017-12-19 | 广东工业大学 | 一种肢体康复训练方法、系统及嵌入式设备 |
CN109190650A (zh) * | 2018-07-02 | 2019-01-11 | 昆明理工大学 | 一种不规则形状的时空扫描聚类方法 |
CN109565576A (zh) * | 2016-08-15 | 2019-04-02 | 株式会社木村技研 | 安全管理系统 |
CN109872725A (zh) * | 2017-12-05 | 2019-06-11 | 富士通株式会社 | 多视角向量处理方法和设备 |
CN109977994A (zh) * | 2019-02-02 | 2019-07-05 | 浙江工业大学 | 一种基于多示例主动学习的代表性图像选取方法 |
CN110458037A (zh) * | 2019-07-19 | 2019-11-15 | 天津理工大学 | 基于多视角间共性特性挖掘的多任务动作识别方法 |
CN116884094A (zh) * | 2023-09-07 | 2023-10-13 | 武汉理工大学 | 基于视角和行为解耦的多视角行为识别方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894276A (zh) * | 2010-06-01 | 2010-11-24 | 中国科学院计算技术研究所 | 人体动作识别的训练方法和识别方法 |
-
2014
- 2014-10-17 CN CN201410553477.2A patent/CN104268586B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101894276A (zh) * | 2010-06-01 | 2010-11-24 | 中国科学院计算技术研究所 | 人体动作识别的训练方法和识别方法 |
Non-Patent Citations (6)
Title |
---|
LIN XU ETAL.: "Two-dimensional modeling of image random field using artificial neural networks", 《1993 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS》 * |
SOREN FORCHHAMMER ETAL.: "Entropy bounds for constrained two-dimensional random fields", 《IEEE TRANSACTIONS ON INFORMATION THEORY》 * |
卓林等: "基于二维混合条件随机场的Web记录抽取模型", 《计算机工程》 * |
褚一平等: "基于判别模型的视频前景/阴影自动分割算法", 《模式识别与人工智能》 * |
雷庆等: "动作识别中局部时空特征的运动表示方法研究", 《计算机工程与应用》 * |
鹿凯宁等: "基于隐条件随机场的人体行为识别方法", 《天津大学学报(自然科学与工程技术版)》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104794446A (zh) * | 2015-04-22 | 2015-07-22 | 中南民族大学 | 基于合成描述子的人体动作识别方法及系统 |
CN104794446B (zh) * | 2015-04-22 | 2017-12-12 | 中南民族大学 | 基于合成描述子的人体动作识别方法及系统 |
CN105631420A (zh) * | 2015-12-23 | 2016-06-01 | 武汉工程大学 | 一种基于3d骨架的多视角室内人体行为识别方法 |
CN105930768A (zh) * | 2016-04-11 | 2016-09-07 | 武汉大学 | 一种基于时空约束的目标重识别方法 |
CN105975932A (zh) * | 2016-05-04 | 2016-09-28 | 广东工业大学 | 基于时间序列shapelet的步态识别分类方法 |
CN105975932B (zh) * | 2016-05-04 | 2019-07-23 | 广东工业大学 | 基于时间序列shapelet的步态识别分类方法 |
CN106022342A (zh) * | 2016-05-05 | 2016-10-12 | 南京邮电大学 | 一种基于kaze算法的图像特征提取方法 |
CN109565576A (zh) * | 2016-08-15 | 2019-04-02 | 株式会社木村技研 | 安全管理系统 |
CN109565576B (zh) * | 2016-08-15 | 2021-01-26 | 株式会社木村技研 | 安全管理系统及方法 |
CN106971145A (zh) * | 2017-03-03 | 2017-07-21 | 广东工业大学 | 一种基于极限学习机的多视角动作识别方法及装置 |
CN106971151A (zh) * | 2017-03-14 | 2017-07-21 | 天津大学 | 一种基于线性判别分析的开放视角动作识别方法 |
CN106971151B (zh) * | 2017-03-14 | 2020-04-28 | 天津大学 | 一种基于线性判别分析的开放视角动作识别方法 |
CN107203745A (zh) * | 2017-05-11 | 2017-09-26 | 天津大学 | 一种基于跨域学习的跨视角动作识别方法 |
CN107203745B (zh) * | 2017-05-11 | 2020-06-26 | 天津大学 | 一种基于跨域学习的跨视角动作识别方法 |
CN107346207B (zh) * | 2017-06-30 | 2019-12-20 | 广州幻境科技有限公司 | 一种基于隐马尔科夫模型的动态手势切分识别方法 |
CN107346207A (zh) * | 2017-06-30 | 2017-11-14 | 广州幻境科技有限公司 | 一种基于隐马尔科夫模型的动态手势切分识别方法 |
CN107485844A (zh) * | 2017-09-27 | 2017-12-19 | 广东工业大学 | 一种肢体康复训练方法、系统及嵌入式设备 |
CN109872725A (zh) * | 2017-12-05 | 2019-06-11 | 富士通株式会社 | 多视角向量处理方法和设备 |
CN109872725B (zh) * | 2017-12-05 | 2022-10-18 | 富士通株式会社 | 多视角向量处理方法和设备 |
CN109190650A (zh) * | 2018-07-02 | 2019-01-11 | 昆明理工大学 | 一种不规则形状的时空扫描聚类方法 |
CN109977994A (zh) * | 2019-02-02 | 2019-07-05 | 浙江工业大学 | 一种基于多示例主动学习的代表性图像选取方法 |
CN109977994B (zh) * | 2019-02-02 | 2021-04-09 | 浙江工业大学 | 一种基于多示例主动学习的代表性图像选取方法 |
CN110458037A (zh) * | 2019-07-19 | 2019-11-15 | 天津理工大学 | 基于多视角间共性特性挖掘的多任务动作识别方法 |
CN110458037B (zh) * | 2019-07-19 | 2021-09-10 | 天津理工大学 | 基于多视角间共性特性挖掘的多任务动作识别方法 |
CN116884094A (zh) * | 2023-09-07 | 2023-10-13 | 武汉理工大学 | 基于视角和行为解耦的多视角行为识别方法及系统 |
CN116884094B (zh) * | 2023-09-07 | 2023-12-12 | 武汉理工大学 | 基于视角和行为解耦的多视角行为识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104268586B (zh) | 2018-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104268586A (zh) | 一种多视角动作识别方法 | |
Qi et al. | Dynamic texture and scene classification by transferring deep image features | |
Sargano et al. | A comprehensive review on handcrafted and learning-based action representation approaches for human activity recognition | |
Wang et al. | Unsupervised learning of visual representations using videos | |
CN104881637B (zh) | 基于传感信息及目标追踪的多模信息系统及其融合方法 | |
Nour el houda Slimani et al. | Human interaction recognition based on the co-occurence of visual words | |
CN107230267B (zh) | 基于人脸识别算法的幼儿园智能签到方法 | |
Wang et al. | Improving human action recognition by non-action classification | |
CN103942575A (zh) | 基于场景和马尔科夫逻辑网的智能行为分析系统及方法 | |
CN101894276A (zh) | 人体动作识别的训练方法和识别方法 | |
Khelalef et al. | An efficient human activity recognition technique based on deep learning | |
CN105117708A (zh) | 人脸表情识别的方法和装置 | |
CN102184384A (zh) | 一种基于多尺度局部相位量化特征的人脸识别方法 | |
Elharrouss et al. | FSC-set: counting, localization of football supporters crowd in the stadiums | |
Savio et al. | Image processing for face recognition using HAAR, HOG, and SVM algorithms | |
Ahmad et al. | Embedded deep vision in smart cameras for multi-view objects representation and retrieval | |
Zhao et al. | Hybrid generative/discriminative scene classification strategy based on latent Dirichlet allocation for high spatial resolution remote sensing imagery | |
Wang et al. | Action recognition using linear dynamic systems | |
Zhou et al. | Learning semantic context feature-tree for action recognition via nearest neighbor fusion | |
Yu | Deep learning methods for human action recognition | |
Wang et al. | RETRACTED ARTICLE: Human behaviour recognition and monitoring based on deep convolutional neural networks | |
Shen et al. | Accurate and real-time object detection in crowded indoor spaces based on the fusion of DBSCAN algorithm and improved YOLOv4-tiny network | |
CN114783054A (zh) | 一种基于无线和视频特征融合的步态识别方法 | |
Zhang et al. | Transferring training instances for convenient cross-view object classification in surveillance | |
Shamsipour et al. | Artificial intelligence and convolutional neural network for recognition of human interaction by video from drone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |