CN109977787A - 一种多视角的人体行为识别方法 - Google Patents
一种多视角的人体行为识别方法 Download PDFInfo
- Publication number
- CN109977787A CN109977787A CN201910156308.8A CN201910156308A CN109977787A CN 109977787 A CN109977787 A CN 109977787A CN 201910156308 A CN201910156308 A CN 201910156308A CN 109977787 A CN109977787 A CN 109977787A
- Authority
- CN
- China
- Prior art keywords
- visual angle
- angle
- model
- response method
- human bodys
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
公开一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。这种多视角的人体行为识别方法,包括以下步骤:(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。
Description
技术领域
本发明涉及计算机视觉和模式识别的技术领域,尤其涉及一种多视角的人体行为识别方法。
背景技术
人体行为识别是机器学习和计算机视觉领域中一个重要的研究课题,在众多研究课题中得到广泛的应用,如人机交互,视频监控,运动检索和体育视频分析等。目前,在单视角人体行为识别方面已取得了令人满意的表现。但是,当视角发生变化时,性能会显著下降。主要原因是不同视角人体行为的表观差异很大,具体表现为背景、相机运动、照明条件和遮挡情况不同,严重影响到同一个动作在不同视角下的特征表示。因此,多视角的人体行为识别是一个具有挑战性的问题,为此,人们在过去几年提出了众多的解决方法。
现有的方法多使用自相似矩阵或视角不变的规范姿态和轨迹作为多视角动作的视角不变的特征表示。这类方法在视角变化程度小时,具有较好的识别性能。但对较大的视角差异不敏感。另外一种方法基于3D人体模型实现动作识别,这类方法通过几何变换实现在不同视角间的转换。然而,这类方法需要在许多模型参数空间上找到3D和2D之间的最佳匹配,计算效率较低。此外,这些方法的性能与3D模型的质量密切相关。尽管3D模型可以投影到尽可能多的视角,但这些离散的投影将不可避免地导致3D几何信息的丢失。
最近,迁移学习是一个热门的研究课题,其核心是找到源域和目标域之间的相似性,并加以合理利用,从而实现知识的迁移。基于迁移学习的方法在多视角行为识别方法中已获得良好的结果。这些方法将多视角行为识别视为迁移学习问题,并探索出不同视角的共用子空间。但是,当两个视角差异较大时,这些方法无法保证同一个动作在不同视角下的特征相似,因此,大大损害迁移学习的效果。
发明内容
为克服现有技术的缺陷,本发明要解决的技术问题是提供了一种多视角的人体行为识别方法,其能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。
本发明的技术方案是:这种多视角的人体行为识别方法,该方法包括以下步骤:
(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;
(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。
本发明通过可迁移的特定视角字典将底层的特征迁移到视角无关的稀疏空间中,以较低维度的特征表示不同视角的运动;通过视角自适应变换模型,学习得到视角共用的变换矩阵,将不同视角的特征从稀疏空间投影到新的空间;所以能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。
附图说明
图1示出了根据本发明的多视角的人体行为识别方法的流程图。
图2示出了本发明方法在IXMAS数据库上不同视角不同动作类的识别结果。
图3示出了本发明方法在ACT42数据库上不同视角不同动作类的识别结果。
具体实施方式
如图1所示,这种多视角的人体行为识别方法,该方法包括以下步骤:
(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;
(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。
本发明通过可迁移的特定视角字典将底层的特征迁移到视角无关的稀疏空间中,以较低维度的特征表示不同视角的运动;通过视角自适应变换模型,学习得到视角共用的变换矩阵,将不同视角的特征从稀疏空间投影到新的空间;所以能够有效地提取更具判别性、鲁棒的特征,从而提高了多视角的人体行为的识别精度。
优选地,所述步骤(1)中,特定视角的迁移字典的目标函数为公式(1)所示:
其中||·||F是矩阵的Frobenious范数,是第v个视角的特定视角的字典,J是字典的原子个数,并且所有特定视角的字典的原子是相同的;X是稀疏矩阵,ρ是稀疏约束参数;获得了特定视角的字典后,通过正交匹配追踪算法计算相应视角样本的稀疏表示。
优选地,所述公式(1)中,Dv通过KSVD算法解决。
优选地,所述步骤(2)中,视角自适应变换模型包括:平衡分布自适应模型,局部结构一致模型和判别信息保留模型。
优选地,所述平衡分布自适应模型,用于评价边缘分布和条件分布的相对贡献,使用最大均值差异来计算视角之间的分布差异,假设R个源视角的数据为X(s)=[X1,...,XR],目标视角的数据为X(t),特征空间和类别是相同的,但是边缘分布和条件分布均不同,Pr(Xr)≠Pt(X(t)),Pr(lr|Xr)≠Pt(lt|X(t)),其中和分别为源视角和目标视角的类标签,Nr和Nt分别为第r个源视角和目标视角的样本个数,平衡分布自适应模型的目标函数为公式(2):
其中A为变换矩阵,Nr,c和Nt,c分别为第r个源视角和目标视角在第c个类的样本个数,Xr,c和Xt,c分别为第r个源视角和目标视角在第c个类的样本矩阵,μ为平衡参数;如果μ变小,意味着源视角和目标视角的差异较大,边缘分布自适应更重要,否则条件分布自适应更重要;因为目标视角的数据是没有类标签的,所以使用源视角的数据训练分类器来预测目标视角数据,以获得伪标签;由于目标视角样本的伪标签不可靠,所以基于上一次迭代的结果来改善预测结果。
优选地,所述局部结构一致模型的目标函数为公式(3):
其中为源视角和目标视角所有样本的个数,为关联矩阵,矩阵中的每一个元素为两个样本的相似性:
优选地,所述判别信息保留模型的目标函数为公式(4):
其中是第r个视角样本的标签矩阵,为第r个视角第n个样本的标签向量,它的第c个元素是1,其它元素是0。
优选地,所述视角自适应变换模型的目标函数为公式(5):
优选地,该识别方法中使用的分类方法为最近邻分类法:如果一个测试样本在特征空间中最相邻的训练样本所属某一个类别,则该测试样本属于这个类别。
本发明已经应用到IXMAS数据库,ACT42数据库,取得了良好的实验结果。表1、2为本发明方法与本领域主流方法在两个数据库上交叉视角识别的比较结果。交叉视角的识别指的是选用一个视角为测试视角,另一个视角为训练视角。表中每一行对应一个训练视角,每一列对应一个测试视角。每一格中的结果是本发明方法和其它方法的比较,其中每一小格中最后的数值为本发明方法的结果,其它数值为其它方法的结果。从表1可以看出本发明方法在IXMAS数据库的20种组合中的19种组合达到最好的结果,并且有17种情况达到了100%的识别率。从表2可以看出本发明方法在ACT42数据库12种组合均优于其它方法,识别率均高于99%。通过这两个表可以看出,本发明方法对视角的变化是鲁棒的。即便两个视角差异很大,也可以获得较好的结果。
表3、4为本发明方法与其他方法在两个数据库上多视角识别的比较结果。多视角的识别指的是选用一个视角为测试视角,其它的所有视角为训练视角。表中每一列对应一个测试视角。从表3可以看出本发明方法在IXMAS数据库上能达到最好的结果,与Long等人提出的深度学习的方法达到相同的识别率。在测试视角4这一与其它视角差异较大的视角时,本发明方法能获得更好的性能。这进一步验证了本发明方法所提取的视角无关特征的有效性。从表4可以看出本发明方法在ACT42数据库上的平均识别率是最优的,甚至优于Liu等人基于深度学习提取特征的方法。图2、3为本发明方法在两个数据库上不同视角不同动作类的识别结果。从两个图可以看出本发明方法在两个数据库上每个测试视角的每个动作类均能获取较好的结果。
表1
视角0 | 视角1 | 视角2 | 视角3 | 视角4 | |
视角0 | — | 98.8,98.5,100 | 99.1,99.7,100 | 99.4,99.7,100 | 92.7,99.7,100 |
视角1 | 98.8,100,100 | — | 99.7,97.0,100 | 92.7,89.7,99.9 | 90.6,100,99.9 |
视角2 | 99.4,99.1,100 | 96.4,99.3,100 | — | 97.3,100,100 | 95.5,99.7,100 |
视角3 | 98.2,90.0,100 | 97.6,99.7,100 | 99.7,98.2,100 | — | 90.0,96.4,100 |
视角4 | 85.8,99.7,100 | 81.5,98.3,100 | 93.3,97.0,100 | 83.9,98.9,99.9 | — |
平均值 | 95.5,97.2,100 | 93.6,98.3,100 | 98.0,98.7,100 | 93.3,97.0,99.9 | 92.4,98.9,99.9 |
表2
视角1 | 视角2 | 视角3 | 视角4 | |
视角1 | — | 92.86,93.33,99.07 | 92.81,93.59,99.31 | 92.81,93.11,99.21 |
视角2 | 92.85,93.19,99.27 | — | 92.85,93.58,99.26 | 92.86,93.25,99.33 |
视角3 | 92.91,93.32,99.21 | 92.86,93.47,99.24 | — | 92.88,93.33,99.27 |
视角4 | 92.88,93.06,99.33 | 92.87,93.44,99.12 | 92.87,93.76,99.27 | — |
平均值 | 92.88,93.19,99.27 | 92.87,93.41,99.14 | 92.84,93.64,99.28 | 92.85,93.23,99.27 |
表3
方法 | 视角0 | 视角1 | 视角2 | 视角3 | 视角4 | 平均值 |
Junejo et al. | 74.8 | 74.5 | 74.8 | 70.6 | 61.2 | 71.2 |
liu et al. | 86.6 | 81.1 | 80.1 | 83.6 | 82.8 | 82.8 |
Weinland et al. | 86.7 | 89.9 | 86.4 | 87.6 | 66.4 | 83.4 |
Yan et al. | 91.2 | 87.7 | 82.1 | 81.5 | 79.1 | 84.3 |
Hao et al. | 97.9 | 96.7 | 94.6 | 97.9 | 97.9 | 97.0 |
Zheng et al. | 99.7 | 99.7 | 98.8 | 99.4 | 99.1 | 99.3 |
Liu et al. | 99.8 | 99.3 | 99.8 | 99.8 | 99.5 | 99.6 |
Kong et al. | 100 | 99.7 | 100 | 100 | 99.4 | 99.8 |
本发明的方法 | 99.9 | 99.8 | 99.9 | 99.7 | 99.5 | 99.8 |
表4
方法 | 视角1 | 视角2 | 视角3 | 视角4 | 平均值 |
Junejo et al. | 83.1 | 80.5 | 77.9 | 75.2 | 79.2 |
Yan et al. | 84.6 | 86.7 | 80.0 | 82.1 | 83.4 |
Zheng et al. | 93.3 | 93.2 | 93.4 | 93.3 | 93.3 |
Liu et al. | 98.6 | 98.6 | 98.7 | 98.7 | 98.7 |
本发明的方法 | 98.9 | 98.6 | 98.6 | 99.0 | 98.8 |
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (9)
1.一种多视角的人体行为识别方法,其特征在于:该方法包括以下步骤:
(1)学习一组特定视角的迁移字典,使同一个动作在不同视角下的稀疏表示相同,使不同视角的动作特征迁移到稀疏空间中;
(2)通过视角自适应变换模型,将稀疏表示从稀疏空间变换到新的共用空间,该模型联合学习了分布自适应模型、结构一致模型和判别信息保留模型。
2.根据权利要求1所述的多视角的人体行为识别方法,其特征在于:所述步骤(1)中,特定视角的迁移字典的目标函数为公式(1)所示:
其中||·||F是矩阵的Frobenious范数,是第v个视角的特定视角的字典,J是字典的原子个数,并且所有特定视角的字典的原子是相同的;X是稀疏矩阵,ρ是稀疏约束参数;获得了特定视角的字典后,通过正交匹配追踪算法计算相应视角样本的稀疏表示。
3.根据权利要求2所述的多视角的人体行为识别方法,其特征在于:所述公式(1)中,Dv通过KSVD算法解决。
4.根据权利要求3所述的多视角的人体行为识别方法,其特征在于:所述步骤(2)中,视角自适应变换模型包括:平衡分布自适应模型,局部结构一致模型和判别信息保留模型。
5.根据权利要求4所述的多视角的人体行为识别方法,其特征在于:所述平衡分布自适应模型,用于评价边缘分布和条件分布的相对贡献,使用最大均值差异来计算视角之间的分布差异,假设R个源视角的数据为X(s)=[X1,,XR],目标视角的数据为X(t),特征空间和类别是相同的,但是边缘分布和条件分布均不同,Pr(Xr)≠Pt(X(t)),Pr(lr|Xr)≠Pt(lt|X(t)),其中和分别为源视角和目标视角的类标签,Nr和Nt分别为第r个源视角和目标视角的样本个数,平衡分布自适应模型的目标函数为公式(2):
其中A为变换矩阵,Nr,c和Nt,c分别为第r个源视角和目标视角在第c个类的样本个数,Xr,c和Xt,c分别为第r个源视角和目标视角在第c个类的样本矩阵,μ为平衡参数;如果μ变小,意味着源视角和目标视角的差异较大,边缘分布自适应更重要,否则条件分布自适应更重要;因为目标视角的数据是没有类标签的,所以使用源视角的数据训练分类器来预测目标视角数据,以获得伪标签;由于目标视角样本的伪标签不可靠,所以基于上一次迭代的结果来改善预测结果。
6.根据权利要求5所述的多视角的人体行为识别方法,其特征在于:所述局部结构一致模型的目标函数为公式(3):
其中为源视角和目标视角所有样本的个数,为关联矩阵,矩阵中的每一个元素为两个样本的相似性:
7.根据权利要求6所述的多视角的人体行为识别方法,其特征在于:所述判别信息保留模型的目标函数为公式(4):
其中是第r个视角样本的标签矩阵,为第r个视角第n个样本的标签向量,它的第c个元素是1,其它元素是0。
8.根据权利要求7所述的多视角的人体行为识别方法,其特征在于:所述视角自适应变换模型的目标函数为公式(5):
9.根据权利要求8所述的多视角的人体行为识别方法,其特征在于:该识别方法中使用的分类方法为最近邻分类法:如果一个测试样本在特征空间中最相邻的训练样本所属某一个类别,则该测试样本属于这个类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910156308.8A CN109977787B (zh) | 2019-03-01 | 2019-03-01 | 一种多视角的人体行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910156308.8A CN109977787B (zh) | 2019-03-01 | 2019-03-01 | 一种多视角的人体行为识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109977787A true CN109977787A (zh) | 2019-07-05 |
CN109977787B CN109977787B (zh) | 2021-03-02 |
Family
ID=67077622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910156308.8A Expired - Fee Related CN109977787B (zh) | 2019-03-01 | 2019-03-01 | 一种多视角的人体行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109977787B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458037A (zh) * | 2019-07-19 | 2019-11-15 | 天津理工大学 | 基于多视角间共性特性挖掘的多任务动作识别方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867191A (zh) * | 2012-09-04 | 2013-01-09 | 广东群兴玩具股份有限公司 | 一种基于流形子空间学习的降维方法 |
CN103226713A (zh) * | 2013-05-16 | 2013-07-31 | 中国科学院自动化研究所 | 一种多视角行为识别方法 |
CN103500340A (zh) * | 2013-09-13 | 2014-01-08 | 南京邮电大学 | 基于主题知识迁移的人体行为识别方法 |
US8755569B2 (en) * | 2009-05-29 | 2014-06-17 | University Of Central Florida Research Foundation, Inc. | Methods for recognizing pose and action of articulated objects with collection of planes in motion |
CN104063684A (zh) * | 2014-06-17 | 2014-09-24 | 南京信息工程大学 | 基于跨域字典学习的人体动作识别方法 |
CN104268592A (zh) * | 2014-09-22 | 2015-01-07 | 天津理工大学 | 基于协同表示和判别准则的多视角联合动作词典学习方法 |
US20150213323A1 (en) * | 2014-01-27 | 2015-07-30 | Xerox Corporation | Video anomaly detection based upon a sparsity model |
CN107145900A (zh) * | 2017-04-24 | 2017-09-08 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN108509854A (zh) * | 2018-03-05 | 2018-09-07 | 昆明理工大学 | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 |
-
2019
- 2019-03-01 CN CN201910156308.8A patent/CN109977787B/zh not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8755569B2 (en) * | 2009-05-29 | 2014-06-17 | University Of Central Florida Research Foundation, Inc. | Methods for recognizing pose and action of articulated objects with collection of planes in motion |
CN102867191A (zh) * | 2012-09-04 | 2013-01-09 | 广东群兴玩具股份有限公司 | 一种基于流形子空间学习的降维方法 |
CN103226713A (zh) * | 2013-05-16 | 2013-07-31 | 中国科学院自动化研究所 | 一种多视角行为识别方法 |
CN103500340A (zh) * | 2013-09-13 | 2014-01-08 | 南京邮电大学 | 基于主题知识迁移的人体行为识别方法 |
US20150213323A1 (en) * | 2014-01-27 | 2015-07-30 | Xerox Corporation | Video anomaly detection based upon a sparsity model |
CN104063684A (zh) * | 2014-06-17 | 2014-09-24 | 南京信息工程大学 | 基于跨域字典学习的人体动作识别方法 |
CN104268592A (zh) * | 2014-09-22 | 2015-01-07 | 天津理工大学 | 基于协同表示和判别准则的多视角联合动作词典学习方法 |
CN107145900A (zh) * | 2017-04-24 | 2017-09-08 | 清华大学 | 基于一致性约束特征学习的行人再识别方法 |
CN108509854A (zh) * | 2018-03-05 | 2018-09-07 | 昆明理工大学 | 一种基于投影矩阵约束结合判别字典学习的行人再识别方法 |
Non-Patent Citations (9)
Title |
---|
HONGLIN LIU ET AL: "Sparse Pose Regression via Componentwise Clustering Feature Point Representation", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
JIE QIN ET AL: "Cross-view action recognition via transductive transfer learning", 《2013 IEEE INTERNATIONAL CONFERENCE ON IMAGE PROCESSING》 * |
JINDONG WANG ET AL: "Balanced Distribution Adaptation for Transfer Learning", 《2017 IEEE INTERNATIONAL CONFERENCE ON DATA MINING (ICDM)》 * |
JINGJING ZHENG ET AL: "Cross-View Action Recognition via Transferable Dictionary Learning", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
JINGJING ZHENG ET AL: "Learning View-Invariant Sparse Representations for Cross-View Action Recognition", 《2013 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 * |
SHAOFAN WANG ET AL: "Unsupervised Learning of Human Pose Distance Metric via Sparsity Locality Preserving Projections", 《IEEE TRANSACTIONS ON MULTIMEDIA》 * |
YANG LIU ET AL: "Hierarchically Learned View-Invariant Representations for Cross-View Action Recognition", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
杨顺卿: "基于迁移学习的视角无关行为识别研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
郭炜婷等: "基于多视角非负矩阵分解的人体行为识别", 《计算机工程与应用》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110458037A (zh) * | 2019-07-19 | 2019-11-15 | 天津理工大学 | 基于多视角间共性特性挖掘的多任务动作识别方法 |
CN110458037B (zh) * | 2019-07-19 | 2021-09-10 | 天津理工大学 | 基于多视角间共性特性挖掘的多任务动作识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109977787B (zh) | 2021-03-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | Spatial pyramid-enhanced NetVLAD with weighted triplet loss for place recognition | |
Zhang et al. | Chinese sign language recognition with adaptive HMM | |
Wan et al. | Explore efficient local features from RGB-D data for one-shot learning gesture recognition | |
CN106126581B (zh) | 基于深度学习的手绘草图图像检索方法 | |
Sharma et al. | Self-supervised learning of face representations for video face clustering | |
Cheema et al. | Action recognition by learning discriminative key poses | |
US10353948B2 (en) | Content based image retrieval | |
CN110751027B (zh) | 一种基于深度多示例学习的行人重识别方法 | |
Willems et al. | Exemplar-based Action Recognition in Video. | |
CN105678244B (zh) | 一种基于改进编辑距离的近似视频检索方法 | |
Zhang et al. | Automatic discrimination of text and non-text natural images | |
Chen et al. | TriViews: A general framework to use 3D depth data effectively for action recognition | |
Ikizler-Cinbis et al. | Web-based classifiers for human action recognition | |
CN110852152A (zh) | 一种基于数据增强的深度哈希行人重识别方法 | |
Xu et al. | Pose for everything: Towards category-agnostic pose estimation | |
Stoian et al. | Fast action localization in large-scale video archives | |
CN107220597B (zh) | 一种基于局部特征和词袋模型人体动作识别过程的关键帧选取方法 | |
CN111414958B (zh) | 一种视觉词袋金字塔的多特征图像分类方法及系统 | |
Belhaouari et al. | Optimized K‐Means Algorithm | |
CN109934852B (zh) | 一种基于对象属性关系图的视频描述方法 | |
Roy et al. | Sparsity-inducing dictionaries for effective action classification | |
CN111144469B (zh) | 基于多维关联时序分类神经网络的端到端多序列文本识别方法 | |
CN109977787A (zh) | 一种多视角的人体行为识别方法 | |
CN109919057B (zh) | 一种基于高效卷积神经网络的多模态融合手势识别方法 | |
Zheng et al. | Superpixel-based image recognition for food images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20210302 |