CN107909042B - 一种连续手势切分识别方法 - Google Patents
一种连续手势切分识别方法 Download PDFInfo
- Publication number
- CN107909042B CN107909042B CN201711166583.5A CN201711166583A CN107909042B CN 107909042 B CN107909042 B CN 107909042B CN 201711166583 A CN201711166583 A CN 201711166583A CN 107909042 B CN107909042 B CN 107909042B
- Authority
- CN
- China
- Prior art keywords
- data
- gesture
- time
- distance
- continuous
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 25
- 238000012360 testing method Methods 0.000 claims abstract description 12
- 238000005452 bending Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000011524 similarity measure Methods 0.000 claims description 5
- 238000003064 k means clustering Methods 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims description 3
- 239000010755 BS 2869 Class G Substances 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 abstract description 9
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 abstract description 2
- 238000004891 communication Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 206010011878 Deafness Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种连续手势切分识别方法,包括以下步骤:训练动态时间规划模板;对测试数据减少冗余手势数据量并离散化后,计算初始时刻t=0与不同手势模板的距离记为Dt,选取距离最小的把当前时刻作为该手势的起始点,随着时刻增加若某一时刻Dt距离变化激增,则该时刻为手势终止点;判断出终止点后,下一时刻还原为初始时刻t=0,循环寻找下一个手势的起始点,并随着时刻增加寻找终止点切分下一个手势;在计算距离Dt的时候,附加上一个指数因子,附加指数因子的距离记为etDt;通过判断etDt的激增来判断手势终止点。本发明有效减少了数据处理消耗的时间,避免噪声点对切分和识别的影响;同时改进动态时间规划相似度计算的测度函数,有效的增加了切分的准确率。
Description
技术领域
本发明涉及人机交互和模式识别领域,特别涉及一种连续手势切分识别方法。
背景技术
随着人机交互技术和人体动作捕捉技术的发展,人们体会到了以手势作为交流方式的自然性和流畅性优势,以及在诸多特定领域不可忽视的作用,例如作为聋哑人的交流方式、应用于虚拟现实领域等。考虑到基于手势的人机交互应用越来越广,越来越受到人们的重视,各种手势识别的方案被提出来提高手势的交流体验。
在手势识别的过程中,一个关键的问题就是如何对连续手势进行自动化准确化的切分,即从连续的手势数据序列中,找到有效的手势起始点与终止点。目前很多手势识别方法都人为的事先从连续手势序列中提取出有效手势,这显然无法满足应用领域的实际要求。而很多现存的自动切分有效手势的连续手势切分识别方法中,通常由于数据量大,冗余数据量多,数据中存在噪声点,同一个手势由于执行速度不同和动作幅度不同而存在时空差异性等,导致手势切分的效果差,难以做到实时的切分与识别,识别的准确率也不理想。因此需要对现存的连续手势切分识别技术提出更好的改进方案。
发明内容
本发明的主要目的在于克服现有技术的缺点与不足,提供一种连续手势切分识别方法,用少数手势样本数据代表整个手势样本数据,有效减少了数据处理消耗的时间,使手势识别具有更好的实时性和准确率,并且可以避免噪声点对切分和识别的影响;同时改进动态时间规划相似度计算的测度函数,有效的增加了切分的准确率,切分出有效手势后立马输出识别结果,具有良好的实时性。
本发明的目的通过以下的技术方案实现:
一种连续手势切分识别方法,包含以下步骤:
S1、训练动态时间规划(DTW)模板:
S1-1、通过数据手套获取需要定义的50个手势的手部姿态数据,其中,每个手势的手部姿态数据包括N个训练样本,每个训练样本包括t个时刻的手势数据,每个时刻的手势数据由n个数据组成代表手部的n维特征;每个训练样本的数据表示为
S=(s1,1,s1,2,...s1,t;s2,1,s2,2,...,s2,t;...;sn,1,sn,2,...sn,t),
其中,si,j表示该样本j时刻第i个特征的数据;i=1,2,...,n;j=1,2,...,t;
S1-2、减少冗余手势数据量,由于事物的变化具有连续性的特点,手势的变化同样具有连续性,不考虑噪声点的情况下,连续两个时刻的手势数据不会发生突变。所以可以认为连续一段时间内手势的数据属于同一类数据。
将每个训练样本连续M个时刻的数据用其平均值表示作为代表数据,整个手势样本数据的数据量减少了M倍,减少冗余手势数据量后的训练样本数据可以表示成
其中,表示连续M个时刻的数据的平均值;si,k是S矩阵中对应第i行第k列的数据;
而且取平均值可以有效地消除孤立噪声点的存在,避免了噪声点对手势切分识别的影响,有效提高准确率。
S1-3、对减少冗余手势数据量的训练样本数据S'进行离散化处理,将S'表示为
其中,S'j=(s1',j,s'2,j,...,s'n,j);
预设m个类别,随机初始化m个聚类中心,m个类别的聚类中心分别记为
CZ(Z=1,2,...,m),
通过计算S'j的类别,其中Gj表示S'j的类别;
然后对每一个类别,重新计算其聚类中心:
其中|CZ|表示第Z个类别中数据的个数,若其聚类中心CZ不变,则其收敛,离散化过程结束,并将S'j用其相应的类别Gj表示;
S1-4、针对每一个定义的手势,训练对应的动态时间规划(DTW)模板;选取距离测度作为动态时间规划的相似性测度,结合动态时间规划计算两个样本累计距离的矩阵,对于每一个定义的手势g,将其所有的样本数据减少冗余手势数据量并离散化后,选取一个与其他样本距离和最小的样本作为该手势的模板Vg,所有手势的模板组成动态时间规划(DTW)模板V;
S2、连续手势切分识别:
S2-1、数据采集:通过数据手套获取需要测试的连续手势数据作为测试数据;
S2-2、减少测试数据冗余手势数据量:按照步骤S1-2每输入连续M个时刻的数据,取平均值变成一个代表数据,代表这M个时刻的数据;
S2-3、离散化处理:根据步骤S1-3,将步骤S2-2中的代表数据归类到距离相应聚类中心CZ最近的类别,并用相应的类别号表示该代表数据;
S2-4、手势切分识别:对测试数据减少冗余手势数据量并离散化后,按照步骤S1-4计算初始时刻t=0与不同手势模板的距离记为Dt,选取距离最小的把当前时刻作为该手势的起始点,随着时刻增加若某一时刻Dt距离变化激增,则该时刻为手势终止点;切分方法属于实时切分,切分出有效手势后,直接把该手势做为识别结果输出,不用附加识别过程。判断出终止点后,下一时刻还原为初始时刻t=0,循环寻找下一个手势的起始点,并随着时刻增加寻找终止点切分下一个手势;
改进动态时间规划:手势切分的过程要判断距离Dt变化激增的的时刻,为了更容易的判断激增的时刻,在计算距离Dt的时候,附加上一个指数因子,附加指数因子的距离记为etDt;通过判断etDt的激增来判断手势终止点。由于指数函数具有随着t增加斜率增加的特性,并且每个手势都有一定的长度,附加指数因子可以有效减少前期距离变化的扰动和增加后期距离变化的斜率,通过判断etDt的激增来判断手势终止点更为容易且有效提高手势切分准确率。
步骤S1-1中,所述手部姿态数据包括手指弯曲数据、手掌的方位数据。
所述手指弯曲数据为通过弯曲传感器采集的弯曲度数据、通过惯性传感器采集的手指弯曲方向的旋转数据中的一种。
所述手掌的方位数据为通过惯性传感器采集的方位数据、通过光学定位获取的方位数据中的一种。
步骤S1-4中,所述动态时间规划的相似性测度包括距离测度、概率测度。
步骤S1-3或S2-3中,所述离散化处理是通过聚类算法完成的,所述聚类算法包括K-means聚类算法。也可以是其他聚类算法。
本发明与现有技术相比,具有如下优点和有益效果:
本发明可以有效减少整个手势切分识别流程需要处理的数据量,减少了算法的时间消耗,进一步提高了手势切分识别的实时性,符合人们正常手势交流的习惯,使手势交流更加自然流畅。本发明还可以有效避免噪声点对整个手势切分识别过程的影响,提高准确率。并且本发明通过改进动态时间规划算法中距离测度的计算方式,利用指数函数的性质,使得更容易从复杂的连续手势序列中找出有效手势的起始点与终止点,切分出有效手势,从而进一步提高手势切分识别的准确度,属于实时手势切分识别的方法,有效解决了在不同应用场景下,连续手势实时切分识别的问题。
附图说明
图1是本发明所述一种连续手势切分识别方法的流程图。
图2是基于普通动态时间规划累积距离手势切分示意图。
图3是基于改进动态时间规划累积距离手势切分示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
如图1所示,一种连续手势切分识别方法,包括一种减少冗余数据量的方法、以及一种基于改进动态时间规划(DTW)的连续手势切分识别方法;
S1)、训练动态时间规划(DTW)模板
S11)、通过数据手套获取需要定义的50个手势的手部姿态数据,其中,每个手势的手部姿态数据包括N个训练样本,每个训练样本包括t个时刻的手势数据,每个时刻的手势数据由n个数据组成代表手部的n维特征。每个训练样本的数据表示为S=(s1,1,s1,2,...s1,t;s2,1,s2,2,...,s2,t;...;sn,1,sn,2,...sn,t),其中,si,j表示该样本j时刻第i个特征的数据;i=1,2,...,n;j=1,2,...,t;
S12)、减少冗余手势数据量,由于事物的变化具有连续性的特点,手势的变化同样具有连续性,不考虑噪声点的情况下,连续两个时刻的手势数据不会发生突变。所以可以认为连续一段时间内手势的数据属于同一类数据。我们把每个训练样本连续M个时刻的数据用其平均值表示作为代表数据,整个手势样本数据的数据量减少了M倍,减少冗余手势数据量后的训练样本数据可以表示成其中,表示连续M个时刻的数据的平均值;si,k是S矩阵中对应第i行第k列的数据。而且取平均值可以有效地消除孤立噪声点的存在,避免了噪声点对手势切分识别的影响,有效提高准确率。
S13)、采用K-means聚类算法对减少冗余手势数据量的训练样本数据S'进行离散化处理,将S'表示为其中,S'j=(s1',j,s'2,j,...,s'n,j)。预设m个类别,随机初始化m个聚类中心,m个类别的聚类中心分别记为CZ(Z=1,2,...,m),通过计算S'j的类别,其中Gj表示S'j的类别。然后对每一个类别,重新计算其聚类中心其中中|CZ|表示第Z个类别中数据的个数,若其聚类中心CZ不变,则其收敛,离散化过程结束,并将S'j用其相应的类别Gj表示;
S14)、针对每一个定义的手势,训练对应的动态时间规划(DTW)模板。选取距离测度作为动态时间规划的相似性测度,结合动态时间规划计算两个样本累计距离的矩阵,对于每一个定义的手势g,将其所有的样本数据减少冗余手势数据量并离散化后,选取一个与其他样本距离和最小的样本作为该手势的模板Vg,所有手势的模板组成动态时间规划(DTW)模板V。
S2)、连续手势切分识别
S21)、数据采集,通过数据手套获取需要测试的连续手势数据作为测试数据;
S22)、减少测试数据冗余手势数据量,按照步骤S12)每输入连续M个时刻的数据,取平均值变成一个代表数据,代表这M个时刻的数据;
S23)、离散化处理,根据步骤S13),将步骤S22)中的代表数据归类到距离相应聚类中心CZ最近的类别,并用相应的类别号表示该代表数据;
S24)、手势切分识别,对测试数据减少冗余手势数据量并离散化后,按照步骤S14)计算初始时刻t=0与不同手势模板的距离记为Dt,选取距离最小的把当前时刻作为该手势的起始点,随着时刻增加若某一时刻Dt距离变化激增,则该时刻为手势终止点,切分方法属于实时切分,切分出有效手势后,直接把该手势做为识别结果输出,不用附加识别过程。判断出终止点后,下一时刻还原为初始时刻t=0,循环寻找下一个手势的起始点,并随着时刻增加寻找终止点切分下一个手势。改进动态时间规划,手势切分的过程要判断距离Dt变化激增的的时刻,为了更容易的判断激增的时刻,在计算距离Dt的时候,附加上一个指数因子,附加指数因子的距离记为etDt。由于指数函数具有随着t增加斜率增加的特性,并且每个手势都有一定的长度,附加指数因子可以有效减少前期距离变化的扰动和增加后期距离变化的斜率如图2和图3所示,通过判断etDt的激增来判断手势终止点更为容易且有效提高手势切分准确率;
所述的手部姿态数据包括手指弯曲数据、手掌的方位数据;
所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,也可以为通过惯性传感器采集的手指弯曲方向的旋转数据;
所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,也可以是通过光学定位获取的方位数据;
所述的动态时间规划的相似度包括距离测度、也可以是概率测度;
所述的离散化处理聚类算法可以是K-means聚类算法,也可以是其他聚类算法。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种连续手势切分识别方法,其特征在于,包含以下步骤:
S1、训练动态时间规划模板:
S1-1、通过数据手套获取需要定义的50个手势的手部姿态数据,其中,每个手势的手部姿态数据包括N个训练样本,每个训练样本包括t个时刻的手势数据,每个时刻的手势数据由n个数据组成代表手部的n维特征;每个训练样本的数据表示为
S=(s1,1,s1,2,...s1,t;s2,1,s2,2,...,s2,t;...;sn,1,sn,2,...sn,t),
其中,si,j表示该样本j时刻第i个特征的数据;i=1,2,...,n;j=1,2,...,t;
S1-2、将每个训练样本连续M个时刻的数据用其平均值表示作为代表数据,整个手势样本数据的数据量减少了M倍,减少冗余手势数据量后的训练样本数据可以表示成
其中,表示连续M个时刻的数据的平均值;si,k是S矩阵中对应第i行第k列的数据;
S1-3、对减少冗余手势数据量的训练样本数据S'进行离散化处理,将S'表示为
其中,S'j=(s'1,j,s'2,j,...,s'n,j);
预设m个类别,随机初始化m个聚类中心,m个类别的聚类中心分别记为
CZ(Z=1,2,...,m),
通过计算S'j的类别,其中Gj表示S'j的类别;
然后对每一个类别,重新计算其聚类中心:
其中|CZ|表示第Z个类别中数据的个数,若其聚类中心CZ不变,则其收敛,离散化过程结束,并将S'j用其相应的类别Gj表示;
S1-4、针对每一个定义的手势,训练对应的动态时间规划模板;选取距离测度作为动态时间规划的相似性测度,结合动态时间规划计算两个样本累计距离的矩阵,对于每一个定义的手势g,将其所有的样本数据减少冗余手势数据量并离散化后,选取一个与其他样本距离和最小的样本作为该手势的模板Vg,所有手势的模板组成动态时间规划模板V;
S2、连续手势切分识别:
S2-1、数据采集:通过数据手套获取需要测试的连续手势数据作为测试数据;
S2-2、减少测试数据冗余手势数据量:按照步骤S1-2每输入连续M个时刻的数据,取平均值变成一个代表数据,代表这M个时刻的数据;
S2-3、离散化处理:根据步骤S1-3,将步骤S2-2中的代表数据归类到距离相应聚类中心CZ最近的类别,并用相应的类别号表示该代表数据;
S2-4、手势切分识别:对测试数据减少冗余手势数据量并离散化后,按照步骤S1-4计算初始时刻t=0与不同手势模板的距离记为Dt,选取距离最小的把当前时刻作为该手势的起始点,随着时刻增加若某一时刻Dt距离变化激增,则该时刻为手势终止点;判断出终止点后,下一时刻还原为初始时刻t=0,循环寻找下一个手势的起始点,并随着时刻增加寻找终止点切分下一个手势;
改进动态时间规划:在计算距离Dt的时候,附加上一个指数因子,附加指数因子的距离记为etDt;通过判断etDt的激增来判断手势终止点。
2.根据权利要求1所述连续手势切分识别方法,其特征在于,步骤S1-1中,所述手部姿态数据包括手指弯曲数据、手掌的方位数据。
3.根据权利要求2所述连续手势切分识别方法,其特征在于,所述手指弯曲数据为通过弯曲传感器采集的弯曲度数据、通过惯性传感器采集的手指弯曲方向的旋转数据中的一种。
4.根据权利要求2所述连续手势切分识别方法,其特征在于,所述手掌的方位数据为通过惯性传感器采集的方位数据、通过光学定位获取的方位数据中的一种。
5.根据权利要求1所述连续手势切分识别方法,其特征在于,步骤S1-4中,所述动态时间规划的相似性测度包括距离测度、概率测度。
6.根据权利要求1所述连续手势切分识别方法,其特征在于,步骤S1-3或S2-3中,所述离散化处理是通过聚类算法完成的,所述聚类算法包括K-means聚类算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711166583.5A CN107909042B (zh) | 2017-11-21 | 2017-11-21 | 一种连续手势切分识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711166583.5A CN107909042B (zh) | 2017-11-21 | 2017-11-21 | 一种连续手势切分识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107909042A CN107909042A (zh) | 2018-04-13 |
CN107909042B true CN107909042B (zh) | 2019-12-10 |
Family
ID=61846698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711166583.5A Active CN107909042B (zh) | 2017-11-21 | 2017-11-21 | 一种连续手势切分识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107909042B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110875044B (zh) * | 2018-08-30 | 2022-05-03 | 中国科学院声学研究所 | 一种基于字相关得分计算的说话人识别方法 |
CN109492558A (zh) * | 2018-10-29 | 2019-03-19 | 华南理工大学 | 一种基于Leap Motion的动态手势识别方法 |
CN111860445B (zh) * | 2020-07-31 | 2024-02-02 | 大连海事大学 | 一种动态手势识别方法 |
CN112181148A (zh) * | 2020-09-29 | 2021-01-05 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于强化学习的多模态人机交互方法 |
CN112562657A (zh) * | 2021-02-23 | 2021-03-26 | 成都启英泰伦科技有限公司 | 一种基于深度神经网络的个性语言离线学习方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982315A (zh) * | 2012-11-05 | 2013-03-20 | 中国科学院计算技术研究所 | 一种自动检测非手势模式的手势分割识别方法及系统 |
CN105809144A (zh) * | 2016-03-24 | 2016-07-27 | 重庆邮电大学 | 一种采用动作切分的手势识别系统和方法 |
CN106354262A (zh) * | 2016-09-09 | 2017-01-25 | 哈尔滨理工大学 | 基于gl优化的神经网络手势识别人机交互方法 |
CN107346207A (zh) * | 2017-06-30 | 2017-11-14 | 广州幻境科技有限公司 | 一种基于隐马尔科夫模型的动态手势切分识别方法 |
-
2017
- 2017-11-21 CN CN201711166583.5A patent/CN107909042B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102982315A (zh) * | 2012-11-05 | 2013-03-20 | 中国科学院计算技术研究所 | 一种自动检测非手势模式的手势分割识别方法及系统 |
CN105809144A (zh) * | 2016-03-24 | 2016-07-27 | 重庆邮电大学 | 一种采用动作切分的手势识别系统和方法 |
CN105809144B (zh) * | 2016-03-24 | 2019-03-08 | 重庆邮电大学 | 一种采用动作切分的手势识别系统和方法 |
CN106354262A (zh) * | 2016-09-09 | 2017-01-25 | 哈尔滨理工大学 | 基于gl优化的神经网络手势识别人机交互方法 |
CN107346207A (zh) * | 2017-06-30 | 2017-11-14 | 广州幻境科技有限公司 | 一种基于隐马尔科夫模型的动态手势切分识别方法 |
Non-Patent Citations (1)
Title |
---|
《连续手势分割与识别方法的研究和应用》;荣涛;《中国优秀硕士学位论文全文数据库》;20170915;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107909042A (zh) | 2018-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107909042B (zh) | 一种连续手势切分识别方法 | |
CN107633227B (zh) | 一种基于csi的细粒度手势识别方法和系统 | |
CN110458059B (zh) | 一种基于计算机视觉的手势识别方法及识别装置 | |
CA2954516C (en) | Touch classification | |
US8880441B1 (en) | Click stream analysis for fraud detection | |
Naguri et al. | Recognition of dynamic hand gestures from 3D motion data using LSTM and CNN architectures | |
US9448651B2 (en) | Intelligent touchscreen keyboard with finger differentiation | |
Lee et al. | Kinect-based Taiwanese sign-language recognition system | |
CN107885327B (zh) | 一种基于Kinect深度信息的指尖检测方法 | |
CN116226691B (zh) | 用于手势姿态感知的智能戒指数据处理方法 | |
KR20120064922A (ko) | 근전도 센서와 자이로 센서를 이용한 지화 인식 방법 및 장치 | |
CN105844216A (zh) | 一种利用WiFi信号识别手写字母的检测与匹配机制 | |
CN111414837A (zh) | 手势识别方法、装置、计算机设备及存储介质 | |
CN103400109A (zh) | 一种手绘草图离线识别与整形方法 | |
CN111582185A (zh) | 用于识别图像的方法和装置 | |
Kalsh et al. | Sign language recognition system | |
CN107368820A (zh) | 一种精细化手势识别方法、装置及设备 | |
CN107346207B (zh) | 一种基于隐马尔科夫模型的动态手势切分识别方法 | |
CN104038799A (zh) | 一种面向立体电视的手势操控方法 | |
CN109190443A (zh) | 一种误识手势检测和纠错方法 | |
CN110717385A (zh) | 一种动态手势识别方法 | |
Jian et al. | LSTM‐based dynamic probability continuous hand gesture trajectory recognition | |
CN107909003B (zh) | 一种针对大词汇量的手势识别方法 | |
Liu et al. | Ultrasonic positioning and IMU data fusion for pen-based 3D hand gesture recognition | |
CN108898062A (zh) | 一种基于改进的信号片段提取算法的手部动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |