CN109190461A - 一种基于手势关键点的动态手势识别方法和系统 - Google Patents
一种基于手势关键点的动态手势识别方法和系统 Download PDFInfo
- Publication number
- CN109190461A CN109190461A CN201810811365.0A CN201810811365A CN109190461A CN 109190461 A CN109190461 A CN 109190461A CN 201810811365 A CN201810811365 A CN 201810811365A CN 109190461 A CN109190461 A CN 109190461A
- Authority
- CN
- China
- Prior art keywords
- gesture
- frame image
- current frame
- key point
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000008569 process Effects 0.000 claims abstract description 27
- 230000002123 temporal effect Effects 0.000 claims abstract description 22
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 21
- 239000013598 vector Substances 0.000 claims abstract description 18
- 230000009467 reduction Effects 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 7
- 238000007635 classification algorithm Methods 0.000 claims description 5
- 238000003066 decision tree Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 claims 1
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于手势关键点的动态手势识别方法和系统,建模手势姿态的时空结构统计特性,构建过程包括以下步骤:在获取图像中的手势关键点后,利用帧间差分法,取前后几帧的对应手势关键点的位置坐标差,得到当前手势的时域特征;再选取当前图像中任意三个手势关键点的位置坐标,计算其构成的两个向量的夹角,得到当前手势的空域特征;将上述时域、空域特征级联得到中间特征利用K‑means算法对数据集中所有特征进行特征降维,得到一定数量的聚类中心;最后再以手势动作图像序列为单位,构建以聚类中心编号为横轴,各聚类中心权重为纵轴的动态手势时空域特征直方图。本发明能够有效的提高动态手势识别的准确率。
Description
技术领域
本发明属于模式识别技术领域,更具体地,涉及一种基于手势关键点的动态手势识别方法和系统。
背景技术
动态手势识别一直是计算机视觉领域的研究热点之一,作为一种新兴的人机交互方式,动态手势识别在虚拟现实、智能家居、儿童早教、医用机器人等众多领域具有广阔的应用前景。虽然动态手势识别在许多领域都有着广泛的应用空间,也是近年来研究学者密切关注的研究方向,但在动态手势形成过程中,目标手势会快速移动,且其形状、姿态灵活多变,这为动态手势识别带来了很大难度;此外,当目标手势的背景图像复杂或者内容多变时,可能包含与目标手势特征相似的物体,这也为快速精准地实现动态手势识别带来了困难。
目前主流的动态手势识别方法可分为两种:第一种为基于模板匹配技术的方法,它将待识别手势的特征参数与预先存储的模板特征参数进行匹配,通过计算两者之间的相似度来完成识别任务,该方法具有简单便捷的优点,但其需要人工设计模板,从而导致拓展性差,准确率低;第二种为基于神经网络技术的方法,这种方法具有自主学习能力和分布性特点,能有效的抗抵噪声,并具有模式推广能力,然而,该方法需要大量的训练样本,且训练周期较长。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种基于手势关键点的动态手势识别方法和系统,其目的在于,解决现有动态手势识别方法中存在的由于需要人工设计模板所导致的拓展性差、准确率低的技术问题,以及由于需要大量训练样本所导致的训练周期长的技术问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于手势关键点的动态手势识别方法,包括以下步骤:
(1)获取视频图像序列中当前帧图像的多个手势关键点,针对每一个手势关键点,利用帧间差分法获取当前帧图像之前第n帧图像的对应手势关键点的位置坐标与当前帧图像之后第n帧图像的对应手势关键点的位置坐标之间的差值,并利用帧间差分法对该差值做微分处理,以得到当前帧图像在该手势关键点处的手势时域特征,对当前帧图像的所有手势关键点重复上述操作,从而得到当前帧图像的手势时域特征,其中n为自然数;
(2)对当前帧图像的所有手势关键点中的任意三个手势关键点执行以下操作:根据三个手势关键点各自的位置坐标计算三个手势关键点构成的多个向量中任意两个向量之间的夹角,并从得到的多个夹角中任选一个夹角作为当前帧图像的角度特征,利用帧间差分法获取当前帧图像之前第n帧图像对应的角度特征与当前帧图像之后第n帧图像对应的角度特征之间的差值,根据该差值获取当前帧图像中该三个手势关键点处的手势空域特征,针对当前帧图像中的所有手势关键点,重复上述操作,从而最终得到当前帧图像的手势空域特征;
(3)将步骤(1)中得到的当前帧图像的手势时域特征、以及步骤(2)中得到的当前帧图像的手势空域特征进行级联处理,以得到当前帧图像的中间特征;
(4)针对视频序列中的所有剩余帧图像,重复上述步骤(1)到步骤(3),以得到视频序列的中间特征,并利用聚类算法对视频序列的中间特征进行特征降维,以得到该视频序列的中间特征的聚类中心;
(5)使用KNN算法分别计算当前帧图像与步骤(4)中得到的多个聚类中心之间的欧氏距离,从中选择欧氏距离最小的m个,为这m个聚类中心分别分配权重值,并建立m个聚类中心的每一个在步骤(4)中得到的全部聚类中心中的序号与其权重值之间的映射关系,第i个聚类中心的权重大小等于1/Ni,其中m是1到100之间的自然数,i为0到m之间的自然数,Ni表示第i个聚类中心与当前帧图像之间的欧氏距离在从小到大排列的所有m个欧氏距离中的排名。
(6)针对视频序列中的所有帧图像,重复上述步骤(5)的过程,从而得到所有帧图像对应的聚类中心的序号与权重值之间的映射关系,根据该映射关系构建该视频序列的特征直方图,该特征直方图中不同帧图像对应的同一聚类中心的权重值需要进行求和处理;
(7)以步骤(6)得到的视频序列的特征直方图作为输入,使用机器学习分类算法对视频序列进行分类,以得到最终的手势识别结果。
优选地,n与整个视频图像序列的帧长之间的比值范围在1/5和1/5000之间,获取的手势关键点可以是二维、三维、或二者的组合。
优选地,步骤(1)中的手势时域特征包括手势关键点的位置坐标、位置坐标的差值、以及微分处理后得到的结果,步骤(2)中的手势空域特征包括角度特征的差值、以及角度特征。
优选地,在步骤(1)中,差值处理的过程是采用以下公式:
其中ft表示当前帧图像,表示当前帧图像的手势关键点的位置坐标,表示当前帧图像前n帧图像的手势关键点的位置坐标,表示当前帧图像后n帧图像的手势关键点的位置坐标,表示位置坐标的差值。
对差值做微分处理是采用以下公式:
其中表示对差值做微分处理后得到的结果。
优选地,步骤(2)中的差值处理是采用以下公式:
其中表示角度特征之间的差值,θt+n表示当前帧图像之前第n帧图像对应的角度特征,θt-n表示当前帧图像之后第n帧图像对应的角度特征。
优选地,步骤(3)具体是采用以下公式:
其中α、β、为常量系数,用于调节手势时域特征和手势空域特征在中间特征J中的比重,α的取值范围是0.01到100,β的取值范围是0.01到100,的取值范围是0.01到100。
优选地,预设的聚类中心的数量范围是10到10000,使用的聚类算法可以是基于划分的聚类算法、基于密度的方法、基于网络的方法、基于模型的方法等。
优选地,步骤(7)中使用的机器学习分类算法是支持向量机模型、模糊分类法、神经网络法、决策树分类法、KNN、或朴素贝叶斯分类法。
按照本发明的另一方面,提供了一种基于手势关键点的动态手势识别系统,包括以下:
第一模块,用于获取视频图像序列中当前帧图像的多个手势关键点,针对每一个手势关键点,利用帧间差分法获取当前帧图像之前第n帧图像的对应手势关键点的位置坐标与当前帧图像之后第n帧图像的对应手势关键点的位置坐标之间的差值,并利用帧间差分法对该差值做微分处理,以得到当前帧图像在该手势关键点处的手势时域特征,对当前帧图像的所有手势关键点重复上述操作,从而得到当前帧图像的手势时域特征,其中n为自然数;
第二模块,用于对当前帧图像的所有手势关键点中的任意三个手势关键点执行以下操作:根据三个手势关键点各自的位置坐标计算三个手势关键点构成的多个向量中任意两个向量之间的夹角,并从得到的多个夹角中任选一个夹角作为当前帧图像的角度特征,利用帧间差分法获取当前帧图像之前第n帧图像对应的角度特征与当前帧图像之后第n帧图像对应的角度特征之间的差值,根据该差值获取当前帧图像中该三个手势关键点处的手势空域特征,针对当前帧图像中的所有手势关键点,重复上述操作,从而最终得到当前帧图像的手势空域特征;
第三模块,用于将第一模块中得到的当前帧图像的手势时域特征、以及第二模块中得到的当前帧图像的手势空域特征进行级联处理,以得到当前帧图像的中间特征;
第四模块,用于针对视频序列中的所有剩余帧图像,重复上述第一模块到第三模块,以得到视频序列的中间特征,并利用聚类算法对视频序列的中间特征进行特征降维,以得到该视频序列的中间特征的聚类中心;
第五模块,用于使用KNN算法分别计算当前帧图像与第四模块中得到的多个聚类中心之间的欧氏距离,从中选择欧氏距离最小的m个,为这m个聚类中心分别分配权重值,并建立m个聚类中心的每一个在第四模块中得到的全部聚类中心中的序号与其权重值之间的映射关系,第i个聚类中心的权重大小等于1/Ni,其中m是1到100之间的自然数,i为0到m之间的自然数,Ni表示第i个聚类中心与当前帧图像之间的欧氏距离在从小到大排列的所有m个欧氏距离中的排名;
第六模块,用于针对视频序列中的所有帧图像,重复上述第五模块的过程,从而得到所有帧图像对应的聚类中心的序号与权重值之间的映射关系,根据该映射关系构建该视频序列的特征直方图,该特征直方图中不同帧图像对应的同一聚类中心的权重值需要进行求和处理;
第七模块,用于以第六模块得到的视频序列的特征直方图作为输入,使用机器学习分类算法对视频序列进行分类,以得到最终的手势识别结果。
按照本发明的又一方面,提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时,实现上述基于手势关键点的动态手势识别方法的步骤。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明由于采用了步骤(1)和步骤(2),从图像中提取了手势关键点,并利用关键点获取了动态手势的时空域信息,因此,此方法结构信息明显,语义信息丰富,抗光照能力强,能够解决现有方法中存在的拓展性差、准确率低的技术问题;
(2)本发明由于采用了步骤(4)到步骤(6),对获取的动态手势时空域特征进行了特征降维并以视频帧序列为单位,构建了动态手势时空域特征直方图,使本方法具有特征数据冗余性小,维度低,模型复杂度低,稳定性强,适用于小样本学习任务的特点,因此能够解决现有方法中存在的训练样本大、训练周期长的技术问题;
(3)本发明是基于时空域结构统计的特征建模策略,属于无参学习技术,可复现性好,迁移性强,应用范围广阔,经济时效性高。
附图说明
图1是本发明基于手势关键点的动态手势识别方法的流程示意图;
图2是本发明获取到的多个手势关键点的位置示意图;
图3是对图2中的多个手势关键点进行编号的示意图;
图4是由向量构成的夹角示意图;
图5是本发明多个手势关键点构成的角度特征的示意图;
图6是本发明步骤(6)中得到的特征直方图的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1所示,本发明基于手势关键点的动态手势识别方法包括以下步骤:
(1)获取视频图像序列中当前帧图像的多个手势关键点,针对每一个手势关键点,利用帧间差分法(Inter-frame difference method)获取当前帧图像之前第n帧(其中n为自然数)图像的对应手势关键点的位置坐标与当前帧图像之后第n帧图像的对应手势关键点的位置坐标之间的差值,并利用帧间差分法对该差值做微分处理,以得到当前帧图像在该手势关键点处的手势时域特征,其包括手势关键点的位置坐标、差值、以及微分处理后得到的结果,对当前帧图像的所有手势关键点重复上述操作,从而得到当前帧图像在所有手势关键点处的手势时域特征,即当前帧图像的手势时域特征。
具体而言,本步骤中获取帧图像的手势关键点,可通过深度摄像头实现,也可通过神经网络模型(诸如CNN模型等)实现。举例而言,本步骤中获取的手势关键点的数量是21个,如图2所示。
为了对本发明进行清楚描述的目的,对图2中的21个手势关键点进行了编号处理,具体请参见图3所示。
本步骤中n是自然数,其与整个视频图像序列的帧长之间的比值范围在1/5和1/5000之间,本步骤中获取的手势关键点可以是二维、三维、或二者的组合。
本步骤中差值处理的过程是采用以下公式:
其中ft表示当前帧图像,表示当前帧图像的手势关键点的位置坐标,表示当前帧图像前n帧图像的手势关键点的位置坐标,表示当前帧图像后n帧图像的手势关键点的位置坐标,表示位置坐标的差值。
本步骤中对差值做微分处理是采用以下公式:
(2)对当前帧图像的所有手势关键点中的任意三个手势关键点执行以下操作:根据三个手势关键点各自的位置坐标计算三个手势关键点构成的多个向量中任意两个向量之间的夹角,并从得到的多个夹角中任选一个夹角作为当前帧图像的角度特征,利用帧间差分法获取当前帧图像之前第n帧图像对应的角度特征与当前帧图像之后第n帧图像对应的角度特征之间的差值(即一阶微分处理的结果),将该差值和该角度特征作为当前帧图像中该三个手势关键点处的手势空域特征,针对当前帧图像中的所有手势关键点,重复上述操作,从而最终得到当前帧图像的手势空域特征。
如图4所示,设θ为特定的三个关键点构成的两个向量间的夹角(即本发明中所述的角度特征),关键点A和B构成了向量v1,而关键点C和B则构成了向量v2,这两个向量的夹角∠CBA即为本步骤所述的夹角θ,为对角度的一阶微分,即角速度。当前手势的空域信息包括θ、 的计算过程如公式(3)所示:
其中表示角度特征之间的差值,θt+n表示当前帧图像之前第n帧图像对应的角度特征,θt-n表示当前帧图像之后第n帧图像对应的角度特征。
举例而言,本发明中使用的21个手势关键点随机组合可以构成多个角度特征θ,为加快运算速度、减少冗余信息,本发明选取了其中关键的73个角度特征,该73个角度特征的定义如图5所示,其中∠表示角度,其后的三个数字分别是手势关键点的编号(见图3),中间的数字表示角度的顶点。
(3)将步骤(1)中得到的当前帧图像的手势时域特征、以及步骤(2)中得到的当前帧图像的手势空域特征进行级联处理,以得到当前帧图像的中间特征j;
本步骤具体是采用以下公式(4):
上式(4)中,α、β、为常量系数,用于调节手势时域特征和手势空域特征在中间特征J中的比重,α的取值范围是0.01到100,β的取值范围是0.01到100,的取值范围是0.01到100优选地,α=1、β=1、
(4)针对视频序列中的所有剩余帧图像,重复上述步骤(1)到步骤(3),以得到视频序列的中间特征,并利用聚类(Clustering)算法对视频序列的中间特征进行特征降维,以得到该视频序列的中间特征的聚类中心,其中预设的聚类中心的数量范围是10到10000,优选取值为1500个;
具体而言,本发明中使用的聚类算法可以是基于划分的聚类算法(Partition-based methods)、基于密度的方法(Density-based methods)、基于网络的方法(Grid-based methods)、基于模型的方法(Model-based methods)等。
(5)使用K最近邻算法(K-Nearest Neighbor algorithm,简称KNN)分别计算当前帧图像与步骤(4)中得到的多个聚类中心之间的欧氏距离,从中选择欧氏距离最小的m个(其中m的取值范围是1到100),为这m个聚类中心分别分配权重值,并建立m个聚类中心的每一个在步骤(4)中得到的全部聚类中心中的序号与其权重值之间的映射关系,第i个(其中i为0到m之间的自然数)聚类中心的权重大小等于1/Ni,其中Ni表示第i个聚类中心与当前帧图像之间的欧氏距离在从小到大排列的所有m个欧氏距离中的排名。
例如,如果m=10,第3个聚类中心在所有10个欧氏距离中排名第4,则该聚类中心被分配的权重大小为1/4;如果第3个聚类中心在整个1500个聚类中心的序号是100,则本步骤建立了一个聚类中心序号100与权重值1/4之间的映射关系。
(6)针对视频序列中的所有帧图像,重复上述步骤(5)的过程,从而得到所有帧图像对应的聚类中心的序号与权重值之间的映射关系,根据该映射关系构建该视频序列的特征直方图,该特征直方图中不同帧图像对应的同一聚类中心的权重值需要进行求和处理。
如图6所示,图6(a)是五指握拳动作这一动态手势的视频序列的特征直方图,图6(b)是双指握拳动作这一动态手势的视频序列的特征直方图。
(7)以步骤(6)得到的视频序列的特征直方图作为输入,使用机器学习分类算法对视频序列进行分类,以得到最终的手势识别结果。
具体而言,本步骤中使用的机器学习分类算法可以是支持向量机(Supportvector machine,简称SVM)模型、模糊分类法、神经网络法、决策树分类法、KNN、或朴素贝叶斯分类法。
本发明是以特征直方图的方式体现时空域信息,以同一图像中多个手势关键点的相对角度来体现空域信息,以相邻图像对应关键点位置信息的差值来体现时域信息,适用于基于手势关键点的手势识别,如基于三维手势关键点的动态手势识别等。该特征直方图在动态手势识别中包含了丰富的时空域信息,对复杂背景以及光照变换有着良好的鲁棒性,可以有效的提高动态手势识别的准确率。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于手势关键点的动态手势识别方法,其特征在于,包括以下步骤:
(1)获取视频图像序列中当前帧图像的多个手势关键点,针对每一个手势关键点,利用帧间差分法获取当前帧图像之前第n帧图像的对应手势关键点的位置坐标与当前帧图像之后第n帧图像的对应手势关键点的位置坐标之间的差值,并利用帧间差分法对该差值做微分处理,以得到当前帧图像在该手势关键点处的手势时域特征,对当前帧图像的所有手势关键点重复上述操作,从而得到当前帧图像的手势时域特征,其中n为自然数;
(2)对当前帧图像的所有手势关键点中的任意三个手势关键点执行以下操作:根据三个手势关键点各自的位置坐标计算三个手势关键点构成的多个向量中任意两个向量之间的夹角,并从得到的多个夹角中任选一个夹角作为当前帧图像的角度特征,利用帧间差分法获取当前帧图像之前第n帧图像对应的角度特征与当前帧图像之后第n帧图像对应的角度特征之间的差值,根据该差值获取当前帧图像中该三个手势关键点处的手势空域特征,针对当前帧图像中的所有手势关键点,重复上述操作,从而最终得到当前帧图像的手势空域特征;
(3)将步骤(1)中得到的当前帧图像的手势时域特征、以及步骤(2)中得到的当前帧图像的手势空域特征进行级联处理,以得到当前帧图像的中间特征;
(4)针对视频序列中的所有剩余帧图像,重复上述步骤(1)到步骤(3),以得到视频序列的中间特征,并利用聚类算法对视频序列的中间特征进行特征降维,以得到该视频序列的中间特征的聚类中心;
(5)使用KNN算法分别计算当前帧图像与步骤(4)中得到的多个聚类中心之间的欧氏距离,从中选择欧氏距离最小的m个,为这m个聚类中心分别分配权重值,并建立m个聚类中心的每一个在步骤(4)中得到的全部聚类中心中的序号与其权重值之间的映射关系,第i个聚类中心的权重大小等于1/Ni,其中m是1到100之间的自然数,i为0到m之间的自然数,Ni表示第i个聚类中心与当前帧图像之间的欧氏距离在从小到大排列的所有m个欧氏距离中的排名。
(6)针对视频序列中的所有帧图像,重复上述步骤(5)的过程,从而得到所有帧图像对应的聚类中心的序号与权重值之间的映射关系,根据该映射关系构建该视频序列的特征直方图,该特征直方图中不同帧图像对应的同一聚类中心的权重值需要进行求和处理;
(7)以步骤(6)得到的视频序列的特征直方图作为输入,使用机器学习分类算法对视频序列进行分类,以得到最终的手势识别结果。
2.根据权利要求1所述的动态手势识别方法,其特征在于,n与整个视频图像序列的帧长之间的比值范围在1/5和1/5000之间,获取的手势关键点可以是二维、三维、或二者的组合。
3.根据权利要求1所述的动态手势识别方法,其特征在于,步骤(1)中的手势时域特征包括手势关键点的位置坐标、位置坐标的差值、以及微分处理后得到的结果,步骤(2)中的手势空域特征包括角度特征的差值、以及角度特征。
4.根据权利要求3所述的动态手势识别方法,其特征在于,在步骤(1)中,
差值处理的过程是采用以下公式:
其中ft表示当前帧图像,表示当前帧图像的手势关键点的位置坐标,表示当前帧图像前n帧图像的手势关键点的位置坐标,表示当前帧图像后n帧图像的手势关键点的位置坐标,表示位置坐标的差值。
对差值做微分处理是采用以下公式:
其中表示对差值做微分处理后得到的结果。
5.根据权利要求3所述的动态手势识别方法,其特征在于,步骤(2)中的差值处理是采用以下公式:
其中表示角度特征之间的差值,θt+n表示当前帧图像之前第n帧图像对应的角度特征,θt-n表示当前帧图像之后第n帧图像对应的角度特征。
6.根据权利要求1所述的动态手势识别方法,其特征在于,步骤(3)具体是采用以下公式:
其中α、β、为常量系数,用于调节手势时域特征和手势空域特征在中间特征中的比重,α的取值范围是0.01到100,β的取值范围是0.01到100,的取值范围是0.01到100。
7.根据权利要求1所述的动态手势识别方法,其特征在于,
预设的聚类中心的数量范围是10到10000;
使用的聚类算法可以是基于划分的聚类算法、基于密度的方法、基于网络的方法、基于模型的方法等。
8.根据权利要求1所述的动态手势识别方法,其特征在于,步骤(7)中使用的机器学习分类算法是支持向量机模型、模糊分类法、神经网络法、决策树分类法、KNN、或朴素贝叶斯分类法。
9.一种基于手势关键点的动态手势识别系统,其特征在于,包括以下:
第一模块,用于获取视频图像序列中当前帧图像的多个手势关键点,针对每一个手势关键点,利用帧间差分法获取当前帧图像之前第n帧图像的对应手势关键点的位置坐标与当前帧图像之后第n帧图像的对应手势关键点的位置坐标之间的差值,并利用帧间差分法对该差值做微分处理,以得到当前帧图像在该手势关键点处的手势时域特征,对当前帧图像的所有手势关键点重复上述操作,从而得到当前帧图像的手势时域特征,其中n为自然数;
第二模块,用于对当前帧图像的所有手势关键点中的任意三个手势关键点执行以下操作:根据三个手势关键点各自的位置坐标计算三个手势关键点构成的多个向量中任意两个向量之间的夹角,并从得到的多个夹角中任选一个夹角作为当前帧图像的角度特征,利用帧间差分法获取当前帧图像之前第n帧图像对应的角度特征与当前帧图像之后第n帧图像对应的角度特征之间的差值,根据该差值获取当前帧图像中该三个手势关键点处的手势空域特征,针对当前帧图像中的所有手势关键点,重复上述操作,从而最终得到当前帧图像的手势空域特征;
第三模块,用于将第一模块中得到的当前帧图像的手势时域特征、以及第二模块中得到的当前帧图像的手势空域特征进行级联处理,以得到当前帧图像的中间特征;
第四模块,用于针对视频序列中的所有剩余帧图像,重复上述第一模块到第三模块,以得到视频序列的中间特征,并利用聚类算法对视频序列的中间特征进行特征降维,以得到该视频序列的中间特征的聚类中心;
第五模块,用于使用KNN算法分别计算当前帧图像与第四模块中得到的多个聚类中心之间的欧氏距离,从中选择欧氏距离最小的m个,为这m个聚类中心分别分配权重值,并建立m个聚类中心的每一个在第四模块中得到的全部聚类中心中的序号与其权重值之间的映射关系,第i个聚类中心的权重大小等于1/Ni,其中m是1到100之间的自然数,i为0到m之间的自然数,Ni表示第i个聚类中心与当前帧图像之间的欧氏距离在从小到大排列的所有m个欧氏距离中的排名;
第六模块,用于针对视频序列中的所有帧图像,重复上述第五模块的过程,从而得到所有帧图像对应的聚类中心的序号与权重值之间的映射关系,根据该映射关系构建该视频序列的特征直方图,该特征直方图中不同帧图像对应的同一聚类中心的权重值需要进行求和处理;
第七模块,用于以第六模块得到的视频序列的特征直方图作为输入,使用机器学习分类算法对视频序列进行分类,以得到最终的手势识别结果。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时,实现如权利要求1至8中所述基于手势关键点的动态手势识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810811365.0A CN109190461B (zh) | 2018-07-23 | 2018-07-23 | 一种基于手势关键点的动态手势识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810811365.0A CN109190461B (zh) | 2018-07-23 | 2018-07-23 | 一种基于手势关键点的动态手势识别方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109190461A true CN109190461A (zh) | 2019-01-11 |
CN109190461B CN109190461B (zh) | 2019-04-26 |
Family
ID=64937094
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810811365.0A Expired - Fee Related CN109190461B (zh) | 2018-07-23 | 2018-07-23 | 一种基于手势关键点的动态手势识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109190461B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110160528A (zh) * | 2019-05-30 | 2019-08-23 | 华中科技大学 | 一种基于角度特征识别的移动装置位姿定位方法 |
CN111062312A (zh) * | 2019-12-13 | 2020-04-24 | RealMe重庆移动通信有限公司 | 手势识别方法、手势控制方法、装置、介质与终端设备 |
CN111078008A (zh) * | 2019-12-04 | 2020-04-28 | 东北大学 | 一种早教机器人的控制方法 |
CN111556350A (zh) * | 2020-04-21 | 2020-08-18 | 海信集团有限公司 | 一种智能终端及人机交互方法 |
CN112148128A (zh) * | 2020-10-16 | 2020-12-29 | 哈尔滨工业大学 | 一种实时手势识别方法、装置及人机交互系统 |
WO2021035646A1 (zh) * | 2019-08-29 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 可穿戴设备及其控制方法、识别手势的方法和控制系统 |
WO2021098573A1 (zh) * | 2019-11-20 | 2021-05-27 | Oppo广东移动通信有限公司 | 手部姿态估计方法、装置、设备以及计算机存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008045144A2 (en) * | 2006-10-05 | 2008-04-17 | Naval Air Warfare Center Aircraft Division Office Of Counsel | Gesture recognition method and apparatus |
US20140321750A1 (en) * | 2011-06-23 | 2014-10-30 | Marwen Nouri | Dynamic gesture recognition process and authoring system |
CN107357427A (zh) * | 2017-07-03 | 2017-11-17 | 南京江南博睿高新技术研究院有限公司 | 一种用于虚拟现实设备的手势识别控制方法 |
CN107679512A (zh) * | 2017-10-20 | 2018-02-09 | 济南大学 | 一种基于手势关键点的动态手势识别方法 |
-
2018
- 2018-07-23 CN CN201810811365.0A patent/CN109190461B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008045144A2 (en) * | 2006-10-05 | 2008-04-17 | Naval Air Warfare Center Aircraft Division Office Of Counsel | Gesture recognition method and apparatus |
US20140321750A1 (en) * | 2011-06-23 | 2014-10-30 | Marwen Nouri | Dynamic gesture recognition process and authoring system |
CN107357427A (zh) * | 2017-07-03 | 2017-11-17 | 南京江南博睿高新技术研究院有限公司 | 一种用于虚拟现实设备的手势识别控制方法 |
CN107679512A (zh) * | 2017-10-20 | 2018-02-09 | 济南大学 | 一种基于手势关键点的动态手势识别方法 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110160528A (zh) * | 2019-05-30 | 2019-08-23 | 华中科技大学 | 一种基于角度特征识别的移动装置位姿定位方法 |
WO2021035646A1 (zh) * | 2019-08-29 | 2021-03-04 | 深圳市大疆创新科技有限公司 | 可穿戴设备及其控制方法、识别手势的方法和控制系统 |
US11782514B2 (en) | 2019-08-29 | 2023-10-10 | SZ DJI Technology Co., Ltd. | Wearable device and control method thereof, gesture recognition method, and control system |
WO2021098573A1 (zh) * | 2019-11-20 | 2021-05-27 | Oppo广东移动通信有限公司 | 手部姿态估计方法、装置、设备以及计算机存储介质 |
CN111078008A (zh) * | 2019-12-04 | 2020-04-28 | 东北大学 | 一种早教机器人的控制方法 |
CN111062312A (zh) * | 2019-12-13 | 2020-04-24 | RealMe重庆移动通信有限公司 | 手势识别方法、手势控制方法、装置、介质与终端设备 |
CN111062312B (zh) * | 2019-12-13 | 2023-10-27 | RealMe重庆移动通信有限公司 | 手势识别方法、手势控制方法、装置、介质与终端设备 |
CN111556350A (zh) * | 2020-04-21 | 2020-08-18 | 海信集团有限公司 | 一种智能终端及人机交互方法 |
CN111556350B (zh) * | 2020-04-21 | 2022-03-25 | 海信集团有限公司 | 一种智能终端及人机交互方法 |
CN112148128A (zh) * | 2020-10-16 | 2020-12-29 | 哈尔滨工业大学 | 一种实时手势识别方法、装置及人机交互系统 |
CN112148128B (zh) * | 2020-10-16 | 2022-11-25 | 哈尔滨工业大学 | 一种实时手势识别方法、装置及人机交互系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109190461B (zh) | 2019-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190461B (zh) | 一种基于手势关键点的动态手势识别方法和系统 | |
CN110021051B (zh) | 一种基于生成对抗网络通过文本指导的人物图像生成方法 | |
CN110222653B (zh) | 一种基于图卷积神经网络的骨架数据行为识别方法 | |
CN100407798C (zh) | 三维几何建模系统和方法 | |
CN111539469A (zh) | 一种基于视觉自注意力机制的弱监督细粒度图像识别方法 | |
CN108364016A (zh) | 基于多分类器的渐进式半监督分类方法 | |
Zheng et al. | Prompt vision transformer for domain generalization | |
CN106845430A (zh) | 基于加速区域卷积神经网络的行人检测与跟踪方法 | |
KR102462934B1 (ko) | 디지털 트윈 기술을 위한 영상 분석 시스템 | |
CN104899561A (zh) | 一种并行化的人体行为识别方法 | |
CN110378366A (zh) | 一种基于耦合知识迁移的跨域图像分类方法 | |
CN105144196A (zh) | 用于计算相机或对象姿态的方法和设备 | |
CN111814626A (zh) | 一种基于自注意力机制的动态手势识别方法和系统 | |
CN104899607B (zh) | 一种传统云纹图案的自动分类方法 | |
CN111311702B (zh) | 一种基于BlockGAN的图像生成和识别模块及方法 | |
Liu et al. | Single-view 3D scene reconstruction and parsing by attribute grammar | |
CN109064389B (zh) | 一种手绘线条画生成现实感图像的深度学习方法 | |
CN111445426B (zh) | 一种基于生成对抗网络模型的目标服装图像处理方法 | |
CN110210431A (zh) | 一种基于点云语义标注和优化的点云分类方法 | |
CN111259950A (zh) | 一种基于3d模型训练yolo神经网络的方法 | |
CN114723037A (zh) | 一种聚合高阶邻居节点的异构图神经网络计算方法 | |
CN112149645A (zh) | 基于生成对抗学习和图神经网络的人体姿势关键点识别方法 | |
Li et al. | Few-shot meta-learning on point cloud for semantic segmentation | |
CN106599901B (zh) | 基于深度玻尔兹曼机的协同目标分割与行为识别方法 | |
CN104966058A (zh) | 一种基于分层二叉树的行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190426 |
|
CF01 | Termination of patent right due to non-payment of annual fee |