CN107203745A - 一种基于跨域学习的跨视角动作识别方法 - Google Patents
一种基于跨域学习的跨视角动作识别方法 Download PDFInfo
- Publication number
- CN107203745A CN107203745A CN201710330526.XA CN201710330526A CN107203745A CN 107203745 A CN107203745 A CN 107203745A CN 201710330526 A CN201710330526 A CN 201710330526A CN 107203745 A CN107203745 A CN 107203745A
- Authority
- CN
- China
- Prior art keywords
- domain
- visual
- cross
- action
- original
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 52
- 230000000007 visual effect Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 38
- 239000013598 vector Substances 0.000 claims abstract description 30
- 239000011159 matrix material Substances 0.000 claims abstract description 20
- 230000009466 transformation Effects 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims abstract description 11
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000012706 support-vector machine Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 12
- 230000001131 transforming effect Effects 0.000 claims description 5
- 238000002474 experimental method Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于跨域学习的跨视角动作识别方法,所述方法包括以下步骤:对目标域和源域的视频数据分别提取视觉特征,采用视觉词袋模型作为视觉表示,形成原始特征向量集;通过变换矩阵将来自不同视图的原始特征变换到公共特征空间中,将原始特征和变换特征结合,分别形成目标域和源域新的特征映射函数,构成新的特征向量集;采用基于标准支持向量机的跨域学习方法训练变换矩阵,并为每个人体动作生成最终分类器;利用分类器对待测视频进行动作类别的判定,得到最终的识别结果。本发明避免了传统动作识别场景中对摄像机空间位置信息的依赖,应用两个变换矩阵使不同的视角域映射到一个共同的特征空间,有效地提高了跨视角动作识别的准确率。
Description
技术领域
本发明涉及跨视角动作识别领域,尤其涉及一种基于跨域学习的跨视角动作识别方法。
背景技术
动作识别是计算机视觉领域的一个研究热点,其中人体动作识别已经吸引了越来越多的关注,它在视频监控,异常事件监测和人机交互中起着重要作用。近年来已有很多优秀的方法成功应用在单视图人类行为数据集[1,2,3]中,但是现有的动作识别方法大多基于同一视角的假设,在固定的视角场景中提取动作特征并构建识别模型。而在真实的应用场景中,由于摄像机角度和位置的变化,同一动作的人体形态和运动轨迹均会发生显著的变化,相应的数据分布和所在的特征空间也会发生改变。因此,在多个视角中进行跨视角的动作识别仍然是一个具有挑战性的课题。
近年来,许多研究人员开始关注跨视角人类行为识别。人类行为是一种时空模型,所以存在两个重要的问题,分别是鲁棒的时空特征和视觉模型的建模。
在特征表示方面,很多研究方法都是基于局部兴趣点的。时空显著性的流行特征是时空兴趣点(Space time Interest Points,STIP)特征[4],它使用导向光流直方图(Histogramsof Oriented Optical Flow,HOF)[5]和方向梯度直方图(Histogram ofOriented Gradient,HOG)[6]的局部梯度和光流的分布;Shao等人[7]提出了隐藏和嵌入动作识别不同的特征表示,用不同权重对不同特征进行编码以实现低维和鲁棒的特征,从而提高识别的准确性;Rao等人[8]提出使用2D帧的时空结构捕获动作的戏剧性变化,这种方法需要可靠的身体关节检测和跟踪,这在计算机视觉中仍然很困难;最近,Zheng等人[9]提出通过稀疏编码提取高级特征以减少不同视图之间的特征差异。
在模型学习方面,传统的跨域学习方法是基于目标域和辅助域具有相同分布的假设,然而这个假设在多视图人类行为识别中是不现实的。Wang等人[10]使用重新加权的方法重新定义训练样本进行学习,减少两个领域之间的特征差距,同时应用自学方法寻找新的特征表示,以提高目标域的学习表现;Xu等人[11]提出了一种改良的域转移支持向量机(Domain transfer support vector machine,DTSVM)学习方法,它利用两个域之间的距离矩阵作为训练分类器的惩罚函数,在网络视频概念检测中表现出很好的性能;Zhu等人[12]提出了一种跨域字典弱监督学习方法,利用其他视域的弱标记数据作为辅助源数据,以增强原始学习系统,提高识别性能。
跨视角人体动作识别目前需要解决的两个关键问题是:
1)采用鲁棒的特征描述符来表征来自不同视角的人体动作;
2)采用优秀的机器学习方法,减少从不同视图提取的动作特征之间的差异。
发明内容
本发明提供了一种基于跨域学习的跨视角动作识别方法,本发明避免了传统动作识别场景中对摄像机空间位置信息的依赖,应用两个变换矩阵使不同的视角域映射到一个共同的特征空间,有效地提高了跨视角动作识别的准确率,详见下文描述:
一种基于跨域学习的跨视角动作识别方法,所述方法包括以下步骤:
对目标域和源域的视频数据分别提取视觉特征,采用视觉词袋模型作为视觉表示,形成原始特征向量集;
通过变换矩阵将来自不同视图的原始特征变换到公共特征空间中,将原始特征和变换特征结合,分别形成目标域和源域新的特征映射函数,构成新的特征向量集;
采用基于标准支持向量机的跨域学习方法训练变换矩阵,并为每个人体动作生成最终分类器;利用分类器对待测视频进行动作类别的判定,得到最终的识别结果。
其中,所述方法还包括:
采集不同视角下的人体动作视频数据,构建多视角的人体动作数据集,从人体动作数据集中选择一个视角作为目标域,其他数据作为源域。
其中,所述采用视觉词袋模型作为视觉表示,形成原始特征向量集的步骤具体为:
利用K均值分别将目标域、源域的特征描述符量化为若干个视觉词汇,形成码本;
根据码本生成直方图,形成目标域原始特征向量集和源域原始特征向量集。
本发明提供的技术方案的有益效果是:
1、避免了采集动作视频时对摄像机空间位置信息的依赖,可以用来处理跨视角人体动作数据库的动作识别问题,具有更广泛的适用性;
2、采用两个变换矩阵做特征映射,减少了不同域之间的差异,同时增加了训练样本的大小,提高分类器的性能;
3、模型学习中使用块加权核函数矩阵(即后续的核矩阵)来突出显著性分量,提高了模型的判别能力。
附图说明
图1为一种基于跨域学习的跨视角动作识别方法的流程图;
图2为IXMAS(洛桑联邦理工学院运动获取数据库)多视角人体动作数据集的样本示例。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
为了解决背景技术中存在的问题,需要提供一种能够全面、自动、准确对跨视角情况下的人体动作进行识别的方法。研究表明:将来自不同视图的动作特征变换到一个公共特征空间中,不同视角下的人体动作就可以在这个公共空间中进行比较。
实施例1
本发明实施例提出了一种基于跨域学习的跨视角动作识别方法,参见图1,详见下文描述:
101:对目标域和源域的视频数据分别提取视觉特征,采用视觉词袋模型作为视觉表示,形成原始特征向量集;
102:通过变换矩阵将来自不同视图的原始特征变换到公共特征空间中,将原始特征和变换特征结合,分别形成目标域和源域新的特征映射函数,构成新的特征向量集;
103:采用基于标准支持向量机的跨域学习方法训练变换矩阵,并为每个人体动作生成最终分类器;利用分类器对待测视频进行动作类别的判定,得到最终的识别结果。
在步骤101之前,本方法还包括:采集不同视角下的人体动作视频数据,构建多视角的人体动作数据集,从人体动作数据集中选择一个视角作为目标域,其他数据作为源域。
如上所述,本发明实施例避免了传统动作识别场景中对摄像机空间位置信息的依赖,应用两个变换矩阵使不同的视角域映射到一个共同的特征空间,有效地提高了跨视角动作识别的准确率。
实施例2
下面结合具体的计算公式、附图对实施例1中的方案进行进一步地介绍,详见下文描述:
201:采集不同视角下的人体动作视频数据,构建多视角的人体动作数据集,从人体动作数据集中选择一个视角作为目标域,其他数据作为源域(即辅助域);
其中,人体动作视频数据来自于IXMAS多视角动作识别数据库[13]。图2给出了IXMAS多视角数据集的样本示例,每列显示不同视角下的同一个动作。该数据集包含11个日常动作,分别是:检查手表、交叉臂、挠头、坐下、起床、转身、走路、招手、出拳、踢腿和捡东西,每个动作由10个非职业演员表演3次,并且由不同位置的5个摄像机(即5个视角,分别对应图2中的五行)同时拍摄每个动作。
本发明实例选择成对视图(两个视角)来进行测试。首先在IXMAS中选择一个视角(视角1)拍摄的数据作为目标域,另外一个视角(视角2)拍摄的数据作为源域;其次,再用视角2的数据用作目标域,视角1的数据用作辅助域,也进行相同的实验。因此,对于IXMAS,有10组实验。
即,实验1:视角1为目标域,2为源域;实验2:视角2为目标域,1为源域;实验3:视角1为目标域,3为源域;实验4:视角3为目标域,1为源域等。
在实验过程中,从目标域中选择一个人(任意1人)的动作作为测试数据,从目标域中随机选择其他人(另外9人)的动作数据与来自另一个视角的相同动作数据作为模型学习的训练样本。
例如:选择图2中的第一行的视角(作为视角1)拍摄的转身、捡东西等动作的数据作为目标域,第二行的视角(作为视角2)拍摄的转身、捡东西等动作的数据作为源域。在目标域中选择一个人的转身动作作为测试数据,其余9人的所有动作(包括转身、捡东西等)数据、与源域中的转身动作数据作为模型学习的训练样本。
这个实验设置可以保证目标域的训练样本的数量小于源域,同时更适合于现实世界。因为在现实世界中,很难得到目标域的视角信息,但是可以容易地获得源域的视角信息。
202:对目标域和源域的视频数据分别提取视觉特征,然后采用视觉词袋模型作为视觉表示,形成原始特征向量集;
其中,视觉特征采用STIP特征[9],应用导向光流直方图(HOF)和方向梯度直方图(HOG)描述兴趣点,其中HOF可以表示时间信息,HOG可以表示空间信息。
采用视觉词袋模型作为视觉表示,形成原始特征向量集的步骤具体为:
利用K均值分别将目标域和源域的STIP特征描述符量化为1000个视觉词汇形成码本,根据码本生成直方图,形成目标域原始特征向量集和源域原始特征向量集 为目标样本,R为实数集,dt为目标域特征维数,nt为目标域样本个数,为源域样本,ds为源域特征维数,ns为源域样本个数。
203:添加两个变换矩阵,将来自不同视图的原始特征变换到公共特征空间中,同时将原始特征和变换特征结合,分别形成目标域和源域新的特征映射函数,构成新的特征向量集;
其中,公共特征空间定义为dc为公共特征维数。则任何源域样本和目标样本可以分别通过使用两个变换矩阵和投影到公共特征空间上。
当使用P和Q将来自两个不同视图的动作特征变换到同一个空间的过程中,可能会丢失一些有用的信息,为避免这种情况,将变换特征与原始特征结合,通过如下的增强特征映射函数φs和φt增强源域样本和目标样本
其中,表示所有元素均为0的d×1维列向量。
204:采用基于标准支持向量机的跨域学习方法训练上述的两个变换矩阵,并为每个人体动作生成最终分类器;
在本部分,将上标’表示为向量或矩阵的转置。定义增强特征空间的特征权重向量w=[wc,ws,wt],wc, ws,wt分别为向量中的元素,特征权重向量w的取值通过对下述公式(1)的优化问题迭代学习。
通过最小化标准支持向量机的结构风险函数[14],提出如下的公式学习变换矩阵P和Q以及权重向量w:
其中,和分别是样本和的标签,且C>0是调节训练样本损失的正则化参数;预定义λq,λp>0用以分别控制P和Q的复杂度,其中为SVM训练函数自带的参数,属于SVM基础理论,本发明实施例对这几个参数不做赘述。
其中,参数C、λq、λp的具体取值根据实际应用中的需要进行设定,本发明实施例对此不做限制。
为解方程(1),首先导出方程(1)中关于w,b,的内部优化问题的对偶形式(即每一个线性规划问题都伴随有另一个线性规划问题,该部分为本领域技术人员所公知,本发明实施例对此不做赘述)。
具体来说,为方程(2)中的约束引入双变量和
通过设置方程(1)中关于w,b,的拉格朗日导数等于零,获得Karush-Kuhn-Tucker(KKT)条件:
通过KKT条件,得到如下的替代优化问题:
其中,α是对偶变量的向量,y是标签向量,分别包括目标标签和源标签,KP,Q为与P、Q有关的矩阵,为所有元素为1的(ns+nt)×1维列向量,为所有元素为0的(ns+nt)×1维列向量。
定义In为n×n单位矩阵,In×m为所有元素为零的n×m维矩阵;定义为所有元素为0或1的n×1维列向量;不等式a≤b意味着对于i=1,...,n.有ai≤bi;此外,表示矢量a和b之间的逐元素积。
由式(2)导出的核矩阵KP,Q如下所示:
其中,为ns×ns单位矩阵,为nt×nt单位矩阵。
通过观察,可以发现投影矩阵P和Q总是以P′P,P′Q,Q′P和Q′Q的形式出现,所以可以通过定义中间变量H=[P,Q]'[P,Q],丢弃P和Q,使公共子空间变成潜在的。
通过H的引入,将方程式(2)中的优化问题转换如下最后拟定的方法:
trace(H)≤λ,
其中,KH为与中间变量H有关的矩阵,trace(H)为KH的迹。
通过上述处理,通过迭代更新α和H来解决上述的方程(3)。
在获得解α和H之后,可以通过使用以下决策函数作为最终的分类器来预测目标域中的任何测试样本:
其中,和k(xi,xj)=φ(xi)'φ(xj)是两个数据样本xi和xj的预定义核函数。βs和βt的具体取值根据实际应用中的需要进行设定。
205:利用训练好的分类器对待测视频进行动作类别的判定,得到最终的识别结果。
如上所述,本发明实施例避免了传统动作识别场景中对摄像机空间位置信息的依赖,应用两个变换矩阵使不同的视角域映射到一个共同的特征空间,有效地提高了跨视角动作识别的准确率。
参考文献
[1]S.Gourgari,G.Goudelis,K.Karpouzis,S.D.Kollias,THETIS:ThreeDimensional Tennis Shots a Human Action Dataset,CVPR Workshops,2013.pp.676–681.
[2]K.K.Reddy,N.P.Cuntoor,A.G.A.Perera,A.Hoogs,Human ActionRecognition in Large-Scale Datasets Using Histogram of SpatiotemporalGradients,AVSS,2012.pp.106–111.
[3]S.Singh,S.A.Velastin,H.Ragheb,MuHAVi:A Multicamera Human ActionVideo Dataset for the Evaluation of Action Recognition Methods,AVSS,2010.pp.48–55.
[4]H.Wang,M.M.Ullah,A.K I.Laptev,C.Schmid,Evaluation of LocalSpatio-Temporal Features for Action Recognition,BMVC,2009.pp.1–11.
[5]J.M.Hagara,One-Shot-Learning Gesture Recognition UsingHOG-HOF Features,CoRR abs/1312.4190,2013.
[6]K.Onishi,T.Takiguchi,Y.Ariki,3D Human Posture Estimation Using theHOG Features From Monocular Image,ICPR,2008.pp.1–4.
[7]L.Shao,L.Liu,M.Yu,Kernelized multiview projection for robustaction recognition,Int.J.Comput.Vis.(2015)http://dx.doi.org/10.1007/s11263-015-0861-6.
[8]C.Rao,A.Yilmaz,M.Shah,View-invariant representation andrecognition of actions,Int.J.Comput.Vis.50(2)(2002)203–226.
[9]J.Zheng,Z.Jiang,P.J.Phillips,R.Chellappa,Cross-View ActionRecognition via a Transferable Dictionary Pair,BMVC,2012.pp.1–11.
[10]H.Wang,F.Nie,H.Huang,Robust and Discriminative Self-TaughtLearning,ICML(3),2013.pp.298–306.
[11]L.Duan,I.W.-H.Tsang,D.Xu,S.J.Maybank,Domain Transfer SVM forVideo Concept Detection,CVPR,2009.pp.1375–1381.
[12]F.Zhu,L.Shao,Weakly-supervised cross-domain dictionary learningfor visual recognition,Int.J.Comput.Vis.109(1-2)(2014)42–59.http://dx.doi.org/10.1007/s11263-014-0703-y.
[13]D.Weinland,M.P.Fua,Making Action Recognition Robust toOcclusions and Viewpoint Changes,ECCV(3),2010.pp.635–648.
[14]N.Cristianini,J.Shawe-Taylor,An introduction to support vectormachines[J].2000.
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于跨域学习的跨视角动作识别方法,其特征在于,所述方法包括以下步骤:
对目标域和源域的视频数据分别提取视觉特征,采用视觉词袋模型作为视觉表示,形成原始特征向量集;
通过变换矩阵将来自不同视图的原始特征变换到公共特征空间中,将原始特征和变换特征结合,分别形成目标域和源域新的特征映射函数,构成新的特征向量集;
采用基于标准支持向量机的跨域学习方法训练变换矩阵,并为每个人体动作生成最终分类器;利用分类器对待测视频进行动作类别的判定,得到最终的识别结果。
2.根据权利要求1所述的一种基于跨域学习的跨视角动作识别方法,其特征在于,所述方法还包括:
采集不同视角下的人体动作视频数据,构建多视角的人体动作数据集,从人体动作数据集中选择一个视角作为目标域,其他数据作为源域。
3.根据权利要求1所述的一种基于跨域学习的跨视角动作识别方法,其特征在于,所述采用视觉词袋模型作为视觉表示,形成原始特征向量集的步骤具体为:
利用K均值分别将目标域、源域的特征描述符量化为若干个视觉词汇,形成码本;
根据码本生成直方图,形成目标域原始特征向量集和源域原始特征向量集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710330526.XA CN107203745B (zh) | 2017-05-11 | 2017-05-11 | 一种基于跨域学习的跨视角动作识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710330526.XA CN107203745B (zh) | 2017-05-11 | 2017-05-11 | 一种基于跨域学习的跨视角动作识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107203745A true CN107203745A (zh) | 2017-09-26 |
CN107203745B CN107203745B (zh) | 2020-06-26 |
Family
ID=59905648
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710330526.XA Expired - Fee Related CN107203745B (zh) | 2017-05-11 | 2017-05-11 | 一种基于跨域学习的跨视角动作识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107203745B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509925A (zh) * | 2018-04-08 | 2018-09-07 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
CN109508686A (zh) * | 2018-11-26 | 2019-03-22 | 南京邮电大学 | 一种基于层次化特征子空间学习的人体行为识别方法 |
CN110146655A (zh) * | 2019-05-31 | 2019-08-20 | 重庆大学 | 一种基于自适应子空间学习范式的抗电子鼻漂移方法 |
CN110414623A (zh) * | 2019-08-06 | 2019-11-05 | 广东工业大学 | 基于多视角学习的分类模型构建方法及装置 |
CN110543842A (zh) * | 2019-08-22 | 2019-12-06 | 清华大学 | 一种基于Wi-Fi信号的目标运动识别方法及系统 |
CN112580546A (zh) * | 2020-12-24 | 2021-03-30 | 电子科技大学 | 一种用于无人机图像和卫星图像跨视角图像匹配方法 |
CN113101612A (zh) * | 2021-04-06 | 2021-07-13 | 合肥工业大学 | 一种沉浸式上肢康复系统 |
CN113392697A (zh) * | 2021-04-26 | 2021-09-14 | 上海师范大学 | 一种基于词袋模型的人体动作识别方法 |
CN113642499A (zh) * | 2021-08-23 | 2021-11-12 | 中国人民解放军火箭军工程大学 | 基于计算机视觉的人体行为识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226713A (zh) * | 2013-05-16 | 2013-07-31 | 中国科学院自动化研究所 | 一种多视角行为识别方法 |
CN104268586A (zh) * | 2014-10-17 | 2015-01-07 | 北京邮电大学 | 一种多视角动作识别方法 |
CN106022251A (zh) * | 2016-05-17 | 2016-10-12 | 沈阳航空航天大学 | 基于视觉共生矩阵序列的异常双人交互行为识别方法 |
CN106295524A (zh) * | 2016-08-01 | 2017-01-04 | 马平 | 一种基于视觉词袋的人体动作识别方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8224078B2 (en) * | 2000-11-06 | 2012-07-17 | Nant Holdings Ip, Llc | Image capture and identification system and process |
CN101826155B (zh) * | 2010-04-02 | 2012-07-25 | 浙江大学 | 一种基于哈尔特征和动态时序匹配的投篮动作识别方法 |
CN102163290B (zh) * | 2011-05-16 | 2012-08-01 | 天津大学 | 基于时空关联信息的多视角视频监控中异常事件建模方法 |
-
2017
- 2017-05-11 CN CN201710330526.XA patent/CN107203745B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226713A (zh) * | 2013-05-16 | 2013-07-31 | 中国科学院自动化研究所 | 一种多视角行为识别方法 |
CN104268586A (zh) * | 2014-10-17 | 2015-01-07 | 北京邮电大学 | 一种多视角动作识别方法 |
CN106022251A (zh) * | 2016-05-17 | 2016-10-12 | 沈阳航空航天大学 | 基于视觉共生矩阵序列的异常双人交互行为识别方法 |
CN106295524A (zh) * | 2016-08-01 | 2017-01-04 | 马平 | 一种基于视觉词袋的人体动作识别方法 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108509925B (zh) * | 2018-04-08 | 2020-04-14 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
CN108509925A (zh) * | 2018-04-08 | 2018-09-07 | 东北大学 | 一种基于视觉词袋模型的行人重识别方法 |
CN109508686A (zh) * | 2018-11-26 | 2019-03-22 | 南京邮电大学 | 一种基于层次化特征子空间学习的人体行为识别方法 |
CN109508686B (zh) * | 2018-11-26 | 2022-06-28 | 南京邮电大学 | 一种基于层次化特征子空间学习的人体行为识别方法 |
CN110146655B (zh) * | 2019-05-31 | 2021-12-21 | 重庆大学 | 一种基于自适应子空间学习范式的抗电子鼻漂移方法 |
CN110146655A (zh) * | 2019-05-31 | 2019-08-20 | 重庆大学 | 一种基于自适应子空间学习范式的抗电子鼻漂移方法 |
CN110414623A (zh) * | 2019-08-06 | 2019-11-05 | 广东工业大学 | 基于多视角学习的分类模型构建方法及装置 |
CN110414623B (zh) * | 2019-08-06 | 2022-06-24 | 广东工业大学 | 基于多视角学习的分类模型构建方法及装置 |
CN110543842A (zh) * | 2019-08-22 | 2019-12-06 | 清华大学 | 一种基于Wi-Fi信号的目标运动识别方法及系统 |
CN112580546A (zh) * | 2020-12-24 | 2021-03-30 | 电子科技大学 | 一种用于无人机图像和卫星图像跨视角图像匹配方法 |
CN113101612A (zh) * | 2021-04-06 | 2021-07-13 | 合肥工业大学 | 一种沉浸式上肢康复系统 |
CN113392697A (zh) * | 2021-04-26 | 2021-09-14 | 上海师范大学 | 一种基于词袋模型的人体动作识别方法 |
CN113642499A (zh) * | 2021-08-23 | 2021-11-12 | 中国人民解放军火箭军工程大学 | 基于计算机视觉的人体行为识别方法 |
CN113642499B (zh) * | 2021-08-23 | 2024-05-24 | 中国人民解放军火箭军工程大学 | 基于计算机视觉的人体行为识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107203745B (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107203745B (zh) | 一种基于跨域学习的跨视角动作识别方法 | |
He et al. | Recognizing partial biometric patterns | |
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN104036546B (zh) | 一种基于自适应形变模型的任意视角人脸三维重构方法 | |
Wang et al. | Actionness estimation using hybrid fully convolutional networks | |
Zhang et al. | Action recognition from arbitrary views using transferable dictionary learning | |
Xiao et al. | Multiple view semantic segmentation for street view images | |
US10033979B2 (en) | Video surveillance systems, devices and methods with improved 3D human pose and shape modeling | |
Charalambous et al. | A data augmentation methodology for training machine/deep learning gait recognition algorithms | |
CN105740833B (zh) | 一种基于深度序列的人体行为识别方法 | |
Ding et al. | STFC: Spatio-temporal feature chain for skeleton-based human action recognition | |
CN104794737B (zh) | 一种深度信息辅助粒子滤波跟踪方法 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
Wang et al. | Head pose estimation with combined 2D SIFT and 3D HOG features | |
Papadopoulos et al. | Human action recognition using 3d reconstruction data | |
KR101558547B1 (ko) | 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템 | |
CN111582036B (zh) | 可穿戴设备下基于形状和姿态的跨视角人物识别方法 | |
CN108154176B (zh) | 一种针对单一深度图像的3d人体姿态估计算法 | |
CN116152439A (zh) | 一种基于多视角人体图像的人体三维姿态重建方法及系统 | |
CN111428555B (zh) | 一种分关节的手部姿态估计方法 | |
CN109214442A (zh) | 一种基于列表和身份一致性约束的行人重识别算法 | |
Asadi-Aghbolaghi et al. | Supervised spatio-temporal kernel descriptor for human action recognition from RGB-depth videos | |
Kaur et al. | Comparative study of facial expression recognition techniques | |
Lewandowski et al. | View and style-independent action manifolds for human activity recognition | |
CN114494594A (zh) | 基于深度学习的航天员操作设备状态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200626 |