CN107909003A - 一种针对大词汇量的手势识别方法 - Google Patents
一种针对大词汇量的手势识别方法 Download PDFInfo
- Publication number
- CN107909003A CN107909003A CN201710970450.7A CN201710970450A CN107909003A CN 107909003 A CN107909003 A CN 107909003A CN 201710970450 A CN201710970450 A CN 201710970450A CN 107909003 A CN107909003 A CN 107909003A
- Authority
- CN
- China
- Prior art keywords
- gesture
- data
- feature
- sample data
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
- G06F18/295—Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种针对大词汇量的手势识别方法,包括训练隐马尔科夫模型和分流识别框架手势识别;本发明可以有效的对手势数据进行降维处理,减少算法处理数据的维度大小,从而减少算法运行的时间,进一步提高了手势识别的实时性,符合人们正常手势交流的习惯,使手势交流更加自然流畅,并且本发明结合手势分流识别框架,有效的对手势数据进行预分类,减少识别过程的时间,提高了整体手势识别的识别率,从而进一步提高手势识别精度和效率,并且能有效的解决实时场景下,连续大量的手势的训练识别问题。
Description
技术领域
本发明涉及人工智能及人机交互技术领域,特别涉及一种针对大词汇量的手势识别方法。
背景技术
手势是人类交流的重要方式之一,随着科技发展,人机交互、手势识别的重要性逐渐凸显,成为人工智能领域的热点。人们越来越追求流畅度高、交流体验好的手势识别效果,尤其对于一些特定情况应用领域,例如对于特殊人群聋哑人来说,正确有效并且实时度高的手势识别交流更加是不可或缺的方式。
对聋哑人交流来说,涉及到的手势识别技术主要涉及中国手语翻译。中国手语具有词汇量大且相近手势较多的特点。系统需要处理大量的手势数据,且手势数据维度高,不可避免的会有较长的时间延时,难以满足实际中对时间的要求。容易造成时间冗余,无法实时识别,并且由于动作相近手势较多的影响,同一种手势由于执行速度和动作幅度不同不可避免地带有时空差异性,导致手势识别率低的问题,机器无法正确识别手语者意图,影响交流过程。因此需要对现有的手势识别技术提出更好的方案。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种针对大词汇量的手势识别方法,通过对大词汇量手势数据进行处理的降维技术和基于隐马尔科夫模型(HMM)的手势分流识别方法,可以有效降低手势数据维数,提取手势数据中最有意义的特征;可以有效的减少手势识别过程消耗的时间,满足实际应用中对实时性的要求,具有更好的鲁棒性;可以识别的手势包括静态手势和动态手势,并且可以有效提高识别准确率。
本发明的目的通过以下的技术方案实现:一种针对大词汇量的手势识别方法,包括训练隐马尔科夫模型和手势分流识别;
S1、训练隐马尔科夫模型;
S11、根据中国手语手册,预定义N个聋哑人常用手势,通过数据手套获取预定义N个手势的手部姿态数据;每个手势采取M个训练样本数据,每个时刻获得n个数据为此时刻手势的n维特征,特征包括手指弯曲度、手掌的方向;每个训练样本数据定义为X={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xn,1,xn,2,...,xn,t},其中xi,j表示样本第j时刻第i维特征的数据,每一个训练样本数据X的大小是n*t的矩阵;
S12、对每个训练样本数据进行差分预处理,得到每个训练样本相邻两时刻间的差值di,j=xi,j+1-xi,j,得到差分预处理后的训练样本数据为D={d1,1,d1,2,...,d1,t-1;d2,1,d2,2,...,d2,t-1;...;dn,1,dn,2,...,dn,t-1};
S13、针对每个训练样本数据,计算其第i维特征的能量wi,wi通过公式计算得到;计算其总能量W,通过公式计算得到;计算每一维特征的能量百分比peri,通过公式计算得到;
S14、对训练样本数据进行降维处理:针对对每个手势的每个训练样本数据,计算能量阈值式中1.2为调节因子;若peri>θ,则这个样本的第i维特征为有效特征,反之,为无效特征;若有效特征的数量为0,则定义该手势为静态手势,反之,有效特征的数量大于0,手势为动态手势;
对于动态手势,对同一个手势,每个样本的有效特征基本相同;对于某个手势,共有M个样本,若第i维特征是超过一半样本的有效特征,则定义第i维特征是该手势的有效特征;对于每个手势,计算其有效特征,并将其训练样本数据由有效特征数据重新构建,完成降维的过程;降维后,样本数据表示为X'={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xm,1,xm,2,...,xm,t},其中m为该手势有效特征的数目;若有效特征数目为0,则定义为静态手势,不进行降维,保留全部数据;
S15、构建选择性特征手势库,将有效特征相同的预定义手势归属到同一个手势库中,静态手势都归属到有效特征数为0的手势库中,这些手势库定义为选择性特征手势库;
S16、针对每一个选择性特征手势库进行离散化处理,对其中包含的手势降维后的训练样本数据归一化处理后,采用k-means聚类算法,将降维后的训练样本数据X'表示为X'={x1',x'2,...,xt'},其中,x'j=(s1,j,s2,j,...sm,j)T表示降维后的训练样本数据j时刻的手部姿态数据,T表示矩阵的转置;
预设L个类别,随机初始化L个聚类中心,L个聚类中心分别记为Cz(z=1,2,...,L),通过(j=1,2,...,t;z=1,2,...,L)计算降维后每一时刻手部姿态数据的类别,其中Gj表示j时刻的手部姿态数据的类别,然后对每一个类别,重新计算其聚类中心若其聚类中心Cz不变收敛或达到自定义的最大的迭代次数,离散化过程结束,并将每个时刻的手部姿态数据用其相应的类别Gj表示;
S17、针对每一个选择性特征手势库,训练其对应的隐马尔科夫模型;对于选择性特征手势库的每一个手势,将其离散化的训练样本数据,结合隐马尔科夫模型的前向-后向算法训练得到每个手势的HMM参数λ,从而构成训练好的选择性特征手势库的隐马尔科夫模型;
S2、手势分流识别;
S21、数据采集,通过数据手套,获取需要测试的手势数据作为测试样本数据;每个测试样本数据可以表示成Y={y1,1,y1,2,...,y1,t;y2,1,y2,2,...,y2,t;...;yn,1,yn,2,...,yn,t},其中yi,j表示样本第j时刻第i维特征的数据;每一个测试样本数据X的大小是n*t的矩阵;
S22、对测试样本数据进行降维处理,按照步骤S12-S14对测试样本数据进行降维处理,并计算得到每个测试样本数据的有效特征,并将测试样本数据用其有效特征重新构建;
S23、对测试样本数据进行离散化处理,根据测试样本的有效特征,将测试样本输入到有效特征相同的选择性特征手势库,根据步骤S16中的聚类中心Cz,将测试样本数据每一时刻的数据归类到距离相应聚类中心Cz最近的类别,并用相应的类别号表示该时刻的数据;
S24、手势分流识别,根据测试样本的有效特征,将降维和离散化处理后的测试样本数据输入到有效特征相同的选择性特征手势库,计算该测试样本在其选择性特征手势库中不同手势对应的隐马尔科夫模型下的概率值,并将概率值最大的隐马尔科夫模型对应的手势作为识别结果。
优选的,所述的手部姿态数据包括手指弯曲数据、手掌的方位数据。
具体的,所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,可以为通过惯性传感器采集的手指弯曲方向的旋转数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的弯曲度数据。
具体的,所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,可以是通过光学定位获取的方位数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的方向数据。
本发明与现有技术相比,具有如下优点和有益效果:
针对具有大词汇量需要处理的手势识别过程,可以有效降低样本数据的维度,减少冗余数据,极大的减少了手势训练和识别过程中算法需要处理的数据量,提高了手势识别的实时性,符合人们正常手势交流的习惯,使手势交流更加自然流畅。在识别的过程中采取分流的思想,先进行简单的手势划分,再进行识别过程,减少了识别过程需要判断的次数,进一步减少了算法所需时间,提高了实时性,并且本发明根据分流预判断,可以有效提高手势识别的准确率,减少动作相近手势对识别准确率的影响。
附图说明
图1为实施例方法的流程图。
图2为实施例预定义手势含义的示意图1。
图3为实施例预定义手势含义的示意图2。
图4为实施例部分预定义手势动作的示意图。
图5为实施例计算有效特征的示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
如图1所示,一种针对大词汇量的手势识别方法,包括训练隐马尔科夫模型(HMM)和手势分流识别;
S1、训练隐马尔科夫模型
S11、根据中国手语手册,预定义800个聋哑人常用手势。通过数据手套获取预定义800个手势的手部姿态数据。每个时刻获得n个数据为此时刻手势的n维特征,特征包括手指弯曲度、手掌的方向。每个手势采取M个训练样本数据,800个手势,那就是800M个训练样本数据。每个训练样本选取t个时刻,每个时刻获得n个数据为此时刻手势的n维特征,每个训练样本数据定义为X={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xn,1,xn,2,...,xn,t},其中xi,j表示样本第j时刻第i维特征的数据。每一个训练样本数据X的大小是n*t的矩阵。
S12、对每个训练样本数据进行差分预处理,得到每个训练样本相邻两时刻间的差值di,j=xi,j+1-xi,j,得到差分预处理后的训练样本数据为D={d1,1,d1,2,...,d1,t-1;d2,1,d2,2,...,d2,t-1;...;dn,1,dn,2,...,dn,t-1}。
S13、针对每个训练样本数据,计算其第i维特征的能量wi,wi通过公式计算得到;计算其总能量W,通过公式计算得到;计算每一维特征的能量百分比peri,通过公式计算得到。
S14、对训练样本数据进行降维处理,针对对每个手势的每个训练样本数据,计算能量阈值式中1.2为调节因子。若peri>θ,则这个样本的第i维特征为有效特征,反之,为无效特征。若有效特征的数量为0,则定义该手势为静态手势,反之,有效特征的数量大于0,手势为动态手势。
对于动态手势,对同一个手势,每个样本的有效特征基本相同。对于某个手势,共有M个样本,若第i维特征是超过一半样本的有效特征,则定义第i维特征是该手势的有效特征。对于每个手势,计算其有效特征,并将其训练样本数据由有效特征数据重新构建(只保留有效特征那些维的数据),完成降维的过程。降维后,样本数据表示为X'={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xm,1,xm,2,...,xm,t},其中m为该手势有效特征的数目。若有效特征数目为0,则定义为静态手势,不进行降维,保留全部数据;
S15、构建选择性特征手势库,将有效特征相同的预定义手势归属到同一个手势库中,静态手势都归属到有效特征数为0的手势库中,这些手势库定义为选择性特征手势库。
S16、针对每一个选择性特征手势库进行离散化处理,对其中包含的手势降维后的训练样本数据归一化处理后,采用k-means聚类算法,将降维后的训练样本数据X'表示为X'={x1',x'2,...,xt'},其中,x'j=(s1,j,s2,j,...sm,j)T表示降维后的训练样本数据j时刻的手部姿态数据,T表示矩阵的转置。预设L个类别,随机初始化L个聚类中心,L个聚类中心分别记为Cz(z=1,2,...,L),通过(j=1,2,...,t;z=1,2,...,L)计算降维后每一时刻手部姿态数据的类别,其中Gj表示j时刻的手部姿态数据的类别,然后对每一个类别,重新计算其聚类中心若其聚类中心Cz不变收敛或达到自定义的最大的迭代次数,离散化过程结束,并将每个时刻的手部姿态数据用其相应的类别Gj表示。
S17、针对每一个选择性特征手势库,训练其对应的隐马尔科夫模型。对于选择性特征手势库的每一个手势,将其离散化的训练样本数据,结合隐马尔科夫(HMM)的前向-后向算法(Baum-Welch)训练得到每个手势的HMM参数λ,从而构成训练好的选择性特征手势库的隐马尔科夫(HMM)模型。
S2、手势分流识别
S21、数据采集,通过数据手套,获取需要测试的手势数据作为测试样本数据。每个测试样本数据可以表示成Y={y1,1,y1,2,...,y1,t;y2,1,y2,2,...,y2,t;...;yn,1,yn,2,...,yn,t},其中yi,j表示样本第j时刻第i维特征的数据。每一个测试样本数据X的大小是n*t的矩阵;
S22、对测试样本数据进行降维处理,按照步骤S12-S14对测试样本数据进行降维处理,并计算得到每个测试样本数据的有效特征,并将测试样本数据用其有效特征重新构建。
S23、对测试样本数据进行离散化处理,根据测试样本的有效特征,将测试样本输入到有效特征相同的选择性特征手势库,根据步骤S16中的聚类中心Cz,将测试样本数据每一时刻的数据归类到距离相应聚类中心Cz最近的类别,并用相应的类别号表示该时刻的数据。
S24、手势分流识别,根据测试样本的有效特征,将降维和离散化处理后的测试样本数据输入到有效特征相同的选择性特征手势库,计算该测试样本在其选择性特征手势库中不同手势对应的隐马尔科夫模型(HMM)下的概率值,并将概率值最大的隐马尔科夫模型(HMM)对应的手势作为识别结果。
所述的手部姿态数据包括手指弯曲数据、手掌的方位数据。
所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,可以为通过惯性传感器采集的手指弯曲方向的旋转数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的弯曲度数据。
所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,可以是通过光学定位获取的方位数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的方向数据。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种针对大词汇量的手势识别方法,其特征在于,包括训练隐马尔科夫模型和手势分流识别;
S1、训练隐马尔科夫模型;
S11、根据中国手语手册,预定义N个聋哑人常用手势,通过数据手套获取预定义N个手势的手部姿态数据;每个手势采取M个训练样本数据,每个时刻获得n个数据为此时刻手势的n维特征;每个训练样本数据定义为X={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xn,1,xn,2,...,xn,t},其中xi,j表示样本第j时刻第i维特征的数据,每一个训练样本数据X的大小是n*t的矩阵;
S12、对每个训练样本数据进行差分预处理,得到每个训练样本相邻两时刻间的差值di,j=xi,j+1-xi,j,得到差分预处理后的训练样本数据为D={d1,1,d1,2,...,d1,t-1;d2,1,d2,2,...,d2,t-1;...;dn,1,dn,2,...,dn,t-1};
S13、针对每个训练样本数据,计算其第i维特征的能量wi,wi通过公式计算得到;计算其总能量W,通过公式计算得到;计算每一维特征的能量百分比peri,通过公式计算得到;
S14、对训练样本数据进行降维处理:针对对每个手势的每个训练样本数据,计算能量阈值式中1.2为调节因子;若peri>θ,则这个样本的第i维特征为有效特征,反之,为无效特征;若有效特征的数量为0,则定义该手势为静态手势,反之,有效特征的数量大于0,手势为动态手势;
对于动态手势,对同一个手势,每个样本的有效特征基本相同;对于某个手势,共有M个样本,若第i维特征是超过一半样本的有效特征,则定义第i维特征是该手势的有效特征;对于每个手势,计算其有效特征,并将其训练样本数据由有效特征数据重新构建,完成降维的过程;降维后,样本数据表示为X'={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xm,1,xm,2,...,xm,t},其中m为该手势有效特征的数目;若有效特征数目为0,则定义为静态手势,不进行降维,保留全部数据;
S15、构建选择性特征手势库,将有效特征相同的预定义手势归属到同一个手势库中,静态手势都归属到有效特征数为0的手势库中,这些手势库定义为选择性特征手势库;
S16、针对每一个选择性特征手势库进行离散化处理,对其中包含的手势降维后的训练样本数据归一化处理后,采用k-means聚类算法,将降维后的训练样本数据X'表示为X'={x′1,x'2,...,x′t},其中,x'j=(s1,j,s2,j,...sm,j)T表示降维后的训练样本数据j时刻的手部姿态数据,T表示矩阵的转置;
预设L个类别,随机初始化L个聚类中心,L个聚类中心分别记为Cz(z=1,2,...,L),通过计算降维后每一时刻手部姿态数据的类别,其中Gj表示j时刻的手部姿态数据的类别,然后对每一个类别,重新计算其聚类中心若其聚类中心Cz不变收敛或达到自定义的最大的迭代次数,离散化过程结束,并将每个时刻的手部姿态数据用其相应的类别Gj表示;
S17、针对每一个选择性特征手势库,训练其对应的隐马尔科夫模型;对于选择性特征手势库的每一个手势,将其离散化的训练样本数据,结合隐马尔科夫模型的前向-后向算法训练得到每个手势的HMM参数λ,从而构成训练好的选择性特征手势库的隐马尔科夫模型;
S2、手势分流识别;
S21、数据采集,通过数据手套,获取需要测试的手势数据作为测试样本数据;每个测试样本数据可以表示成Y={y1,1,y1,2,...,y1,t;y2,1,y2,2,...,y2,t;...;yn,1,yn,2,...,yn,t},其中yi,j表示样本第j时刻第i维特征的数据;每一个测试样本数据X的大小是n*t的矩阵;
S22、对测试样本数据进行降维处理,按照步骤S12-S14对测试样本数据进行降维处理,并计算得到每个测试样本数据的有效特征,并将测试样本数据用其有效特征重新构建;
S23、对测试样本数据进行离散化处理,根据测试样本的有效特征,将测试样本输入到有效特征相同的选择性特征手势库,根据步骤S16中的聚类中心Cz,将测试样本数据每一时刻的数据归类到距离相应聚类中心Cz最近的类别,并用相应的类别号表示该时刻的数据;
S24、手势分流识别,根据测试样本的有效特征,将降维和离散化处理后的测试样本数据输入到有效特征相同的选择性特征手势库,计算该测试样本在其选择性特征手势库中不同手势对应的隐马尔科夫模型下的概率值,并将概率值最大的隐马尔科夫模型对应的手势作为识别结果。
2.根据权利要求1所述的针对大词汇量的手势识别方法,其特征在于,所述的手部姿态数据包括手指弯曲数据、手掌的方位数据。
3.根据权利要求2所述的针对大词汇量的手势识别方法,其特征在于,所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,或者为通过惯性传感器采集的手指弯曲方向的旋转数据,或者为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的弯曲度数据。
4.根据权利要求2所述的针对大词汇量的手势识别方法,其特征在于,所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,或者是通过光学定位获取的方位数据,或者为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的方向数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710970450.7A CN107909003B (zh) | 2017-10-16 | 2017-10-16 | 一种针对大词汇量的手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710970450.7A CN107909003B (zh) | 2017-10-16 | 2017-10-16 | 一种针对大词汇量的手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107909003A true CN107909003A (zh) | 2018-04-13 |
CN107909003B CN107909003B (zh) | 2019-12-10 |
Family
ID=61840577
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710970450.7A Active CN107909003B (zh) | 2017-10-16 | 2017-10-16 | 一种针对大词汇量的手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107909003B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492558A (zh) * | 2018-10-29 | 2019-03-19 | 华南理工大学 | 一种基于Leap Motion的动态手势识别方法 |
CN109522785A (zh) * | 2018-09-26 | 2019-03-26 | 西安电子科技大学工程技术研究院有限公司 | 一种基于大数据和无线信号模型的手势识别方法和装置 |
CN109886068A (zh) * | 2018-12-20 | 2019-06-14 | 上海至玄智能科技有限公司 | 基于运动数据的动作行为识别方法 |
CN113496165A (zh) * | 2020-04-01 | 2021-10-12 | 北京海益同展信息科技有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103902984A (zh) * | 2014-04-15 | 2014-07-02 | 福州大学 | 一种改进的动态手势识别的hmm模型训练算法 |
CN105205475A (zh) * | 2015-10-20 | 2015-12-30 | 北京工业大学 | 一种动态手势识别方法 |
CN105452997A (zh) * | 2013-07-19 | 2016-03-30 | 密克罗奇普技术公司 | 基于隐式马尔可夫模型的手势辨识的方法 |
CN106557173A (zh) * | 2016-11-29 | 2017-04-05 | 重庆重智机器人研究院有限公司 | 动态手势识别方法及装置 |
CN106682585A (zh) * | 2016-12-02 | 2017-05-17 | 南京理工大学 | 一种基于kinect2的动态手势识别方法 |
-
2017
- 2017-10-16 CN CN201710970450.7A patent/CN107909003B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105452997A (zh) * | 2013-07-19 | 2016-03-30 | 密克罗奇普技术公司 | 基于隐式马尔可夫模型的手势辨识的方法 |
CN103902984A (zh) * | 2014-04-15 | 2014-07-02 | 福州大学 | 一种改进的动态手势识别的hmm模型训练算法 |
CN105205475A (zh) * | 2015-10-20 | 2015-12-30 | 北京工业大学 | 一种动态手势识别方法 |
CN106557173A (zh) * | 2016-11-29 | 2017-04-05 | 重庆重智机器人研究院有限公司 | 动态手势识别方法及装置 |
CN106682585A (zh) * | 2016-12-02 | 2017-05-17 | 南京理工大学 | 一种基于kinect2的动态手势识别方法 |
Non-Patent Citations (1)
Title |
---|
吴彩芳,谢钧,俞璐,周开店: "《连续隐马尔可夫的静态手势识别法》", 《计算机系统应用》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522785A (zh) * | 2018-09-26 | 2019-03-26 | 西安电子科技大学工程技术研究院有限公司 | 一种基于大数据和无线信号模型的手势识别方法和装置 |
CN109492558A (zh) * | 2018-10-29 | 2019-03-19 | 华南理工大学 | 一种基于Leap Motion的动态手势识别方法 |
CN109886068A (zh) * | 2018-12-20 | 2019-06-14 | 上海至玄智能科技有限公司 | 基于运动数据的动作行为识别方法 |
CN109886068B (zh) * | 2018-12-20 | 2022-09-09 | 陆云波 | 基于运动数据的动作行为识别方法 |
CN113496165A (zh) * | 2020-04-01 | 2021-10-12 | 北京海益同展信息科技有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
CN113496165B (zh) * | 2020-04-01 | 2024-04-16 | 京东科技信息技术有限公司 | 用户手势识别方法、装置、手部智能穿戴设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107909003B (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109902546B (zh) | 人脸识别方法、装置及计算机可读介质 | |
CN107909003A (zh) | 一种针对大词汇量的手势识别方法 | |
Park et al. | A depth camera-based human activity recognition via deep learning recurrent neural network for health and social care services | |
CN106570456B (zh) | 基于全卷积递归网络的手写汉字文本识别方法 | |
CN106066996B (zh) | 人体动作的局部特征表示方法及其在行为识别的应用 | |
WO2021190296A1 (zh) | 一种动态手势识别方法及设备 | |
CN105005769B (zh) | 一种基于深度信息的手语识别方法 | |
CN107992486A (zh) | 一种信息处理方法及相关产品 | |
US11138416B2 (en) | Method and apparatus for recognizing an organism action, server, and storage medium | |
CN105868716A (zh) | 一种基于面部几何特征的人脸识别方法 | |
CN110210426B (zh) | 基于注意力机制从单幅彩色图像进行手部姿态估计的方法 | |
Yasir et al. | Bangla sign language recognition using convolutional neural network | |
CN107025678A (zh) | 一种3d虚拟模型的驱动方法及装置 | |
WO2023151237A1 (zh) | 人脸位姿估计方法、装置、电子设备及存储介质 | |
CN110009097A (zh) | 胶囊残差神经网络、胶囊残差神经网络的图像分类方法 | |
CN113034592B (zh) | 基于自然语言描述的三维场景目标检测建模及检测方法 | |
CN106502390A (zh) | 一种基于动态3d手写数字识别的虚拟人交互系统及方法 | |
CN110738650A (zh) | 一种传染病感染识别方法、终端设备及存储介质 | |
CN107346207B (zh) | 一种基于隐马尔科夫模型的动态手势切分识别方法 | |
CN111860484A (zh) | 一种区域标注方法、装置、设备及存储介质 | |
Liu et al. | Dual-recommendation disentanglement network for view fuzz in action recognition | |
CN114882305A (zh) | 图像关键点检测方法、计算设备和计算机可读存储介质 | |
CN113887501A (zh) | 行为识别方法、装置、存储介质及电子设备 | |
CN108520205B (zh) | 一种基于Citation-KNN的人体动作识别方法 | |
CN110472507A (zh) | 基于深度残差网络的人手深度图像位姿估计方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |