CN107909003B - 一种针对大词汇量的手势识别方法 - Google Patents

一种针对大词汇量的手势识别方法 Download PDF

Info

Publication number
CN107909003B
CN107909003B CN201710970450.7A CN201710970450A CN107909003B CN 107909003 B CN107909003 B CN 107909003B CN 201710970450 A CN201710970450 A CN 201710970450A CN 107909003 B CN107909003 B CN 107909003B
Authority
CN
China
Prior art keywords
gesture
data
sample data
characteristic
effective
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710970450.7A
Other languages
English (en)
Other versions
CN107909003A (zh
Inventor
周智恒
代雨锟
陈曦
杨溢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Science And Technology Co Ltd
South China University of Technology SCUT
Original Assignee
Guangzhou Science And Technology Co Ltd
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Science And Technology Co Ltd, South China University of Technology SCUT filed Critical Guangzhou Science And Technology Co Ltd
Priority to CN201710970450.7A priority Critical patent/CN107909003B/zh
Publication of CN107909003A publication Critical patent/CN107909003A/zh
Application granted granted Critical
Publication of CN107909003B publication Critical patent/CN107909003B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种针对大词汇量的手势识别方法,包括训练隐马尔科夫模型和分流识别框架手势识别;本发明可以有效的对手势数据进行降维处理,减少算法处理数据的维度大小,从而减少算法运行的时间,进一步提高了手势识别的实时性,符合人们正常手势交流的习惯,使手势交流更加自然流畅,并且本发明结合手势分流识别框架,有效的对手势数据进行预分类,减少识别过程的时间,提高了整体手势识别的识别率,从而进一步提高手势识别精度和效率,并且能有效的解决实时场景下,连续大量的手势的训练识别问题。

Description

一种针对大词汇量的手势识别方法
技术领域
本发明涉及人工智能及人机交互技术领域,特别涉及一种针对大词汇量的手势识别方法。
背景技术
手势是人类交流的重要方式之一,随着科技发展,人机交互、手势识别的重要性逐渐凸显,成为人工智能领域的热点。人们越来越追求流畅度高、交流体验好的手势识别效果,尤其对于一些特定情况应用领域,例如对于特殊人群聋哑人来说,正确有效并且实时度高的手势识别交流更加是不可或缺的方式。
对聋哑人交流来说,涉及到的手势识别技术主要涉及中国手语翻译。中国手语具有词汇量大且相近手势较多的特点。系统需要处理大量的手势数据,且手势数据维度高,不可避免的会有较长的时间延时,难以满足实际中对时间的要求。容易造成时间冗余,无法实时识别,并且由于动作相近手势较多的影响,同一种手势由于执行速度和动作幅度不同不可避免地带有时空差异性,导致手势识别率低的问题,机器无法正确识别手语者意图,影响交流过程。因此需要对现有的手势识别技术提出更好的方案。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种针对大词汇量的手势识别方法,通过对大词汇量手势数据进行处理的降维技术和基于隐马尔科夫模型(HMM)的手势分流识别方法,可以有效降低手势数据维数,提取手势数据中最有意义的特征;可以有效的减少手势识别过程消耗的时间,满足实际应用中对实时性的要求,具有更好的鲁棒性;可以识别的手势包括静态手势和动态手势,并且可以有效提高识别准确率。
本发明的目的通过以下的技术方案实现:一种针对大词汇量的手势识别方法,包括训练隐马尔科夫模型和手势分流识别;
S1、训练隐马尔科夫模型;
S11、根据中国手语手册,预定义N个聋哑人常用手势,通过数据手套获取预定义N个手势的手部姿态数据;每个手势采取M个训练样本数据,每个时刻获得n个数据为此时刻手势的n维特征,特征包括手指弯曲度、手掌的方向;每个训练样本数据定义为X={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xn,1,xn,2,...,xn,t},其中xi,j表示样本第j时刻第i维特征的数据,每一个训练样本数据X的大小是n*t的矩阵;
S12、对每个训练样本数据进行差分预处理,得到每个训练样本相邻两时刻间的差值di,j=xi,j+1-xi,j,得到差分预处理后的训练样本数据为D={d1,1,d1,2,...,d1,t-1;d2,1,d2,2,...,d2,t-1;...;dn,1,dn,2,...,dn,t-1};
S13、针对每个训练样本数据,计算其第i维特征的能量wi,wi通过公式计算得到;计算其总能量W,通过公式计算得到;计算每一维特征的能量百分比peri,通过公式计算得到;
S14、对训练样本数据进行降维处理:针对每个手势的每个训练样本数据,计算能量阈值式中1.2为调节因子;若peri>θ,则这个样本的第i维特征为有效特征,反之,为无效特征;若有效特征的数量为0,则定义该手势为静态手势,反之,有效特征的数量大于0,手势为动态手势;
对于动态手势,对同一个手势,每个样本的有效特征基本相同;对于某个手势,共有M个样本,若第i维特征是超过一半样本的有效特征,则定义第i维特征是该手势的有效特征;对于每个手势,计算其有效特征,并将其训练样本数据由有效特征数据重新构建,完成降维的过程;降维后,样本数据表示为X'={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xm,1,xm,2,...,xm,t},其中m为该手势有效特征的数目;若有效特征数目为0,则定义为静态手势,不进行降维,保留全部数据;
S15、构建选择性特征手势库,将有效特征相同的预定义手势归属到同一个手势库中,静态手势都归属到有效特征数为0的手势库中,这些手势库定义为选择性特征手势库;
S16、针对每一个选择性特征手势库进行离散化处理,对其中包含的手势降维后的训练样本数据归一化处理后,采用k-means聚类算法,将降维后的训练样本数据X'表示为X'={x′1,x'2,...,x′t},其中,x'j=(s1,j,s2,j,...sm,j)T表示降维后的训练样本数据j时刻的手部姿态数据,T表示矩阵的转置;
预设L个类别,随机初始化L个聚类中心,L个聚类中心分别记为Cz(z=1,2,...,L),通过计算降维后每一时刻手部姿态数据的类别,其中Gj表示j时刻的手部姿态数据的类别,然后对每一个类别,重新计算其聚类中心若其聚类中心Cz不变收敛或达到自定义的最大的迭代次数,离散化过程结束,并将每个时刻的手部姿态数据用其相应的类别Gj表示;
S17、针对每一个选择性特征手势库,训练其对应的隐马尔科夫模型;对于选择性特征手势库的每一个手势,将其离散化的训练样本数据,结合隐马尔科夫模型的前向-后向算法训练得到每个手势的HMM参数λ,从而构成训练好的选择性特征手势库的隐马尔科夫模型;
S2、手势分流识别;
S21、数据采集,通过数据手套,获取需要测试的手势数据作为测试样本数据;每个测试样本数据可以表示成Y={y1,1,y1,2,...,y1,t;y2,1,y2,2,...,y2,t;...;yn,1,yn,2,...,yn,t},其中yi,j表示样本第j时刻第i维特征的数据;每一个测试样本数据Y的大小是n*t的矩阵;
S22、对测试样本数据进行降维处理,按照步骤S12-S14对测试样本数据进行降维处理,并计算得到每个测试样本数据的有效特征,并将测试样本数据用其有效特征重新构建;
S23、对测试样本数据进行离散化处理,根据测试样本的有效特征,将测试样本输入到有效特征相同的选择性特征手势库,根据步骤S16中的聚类中心Cz,将测试样本数据每一时刻的数据归类到距离相应聚类中心Cz最近的类别,并用相应的类别号表示该时刻的数据;
S24、手势分流识别,根据测试样本的有效特征,将降维和离散化处理后的测试样本数据输入到有效特征相同的选择性特征手势库,计算该测试样本在其选择性特征手势库中不同手势对应的隐马尔科夫模型下的概率值,并将概率值最大的隐马尔科夫模型对应的手势作为识别结果。
优选的,所述的手部姿态数据包括手指弯曲数据、手掌的方位数据。
具体的,所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,可以为通过惯性传感器采集的手指弯曲方向的旋转数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的弯曲度数据。
具体的,所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,可以是通过光学定位获取的方位数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的方向数据。
本发明与现有技术相比,具有如下优点和有益效果:
针对具有大词汇量需要处理的手势识别过程,可以有效降低样本数据的维度,减少冗余数据,极大的减少了手势训练和识别过程中算法需要处理的数据量,提高了手势识别的实时性,符合人们正常手势交流的习惯,使手势交流更加自然流畅。在识别的过程中采取分流的思想,先进行简单的手势划分,再进行识别过程,减少了识别过程需要判断的次数,进一步减少了算法所需时间,提高了实时性,并且本发明根据分流预判断,可以有效提高手势识别的准确率,减少动作相近手势对识别准确率的影响。
附图说明
图1为实施例方法的流程图。
图2为实施例预定义手势含义的示意图1。
图3为实施例预定义手势含义的示意图2。
图4为实施例部分预定义手势动作的示意图。
图5为实施例计算有效特征的示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例1
如图1所示,一种针对大词汇量的手势识别方法,包括训练隐马尔科夫模型(HMM)和手势分流识别;
S1、训练隐马尔科夫模型
S11、根据中国手语手册,预定义800个聋哑人常用手势。通过数据手套获取预定义800个手势的手部姿态数据。每个时刻获得n个数据为此时刻手势的n维特征,特征包括手指弯曲度、手掌的方向。每个手势采取M个训练样本数据,800个手势,那就是800M个训练样本数据。每个训练样本选取t个时刻,每个时刻获得n个数据为此时刻手势的n维特征,每个训练样本数据定义为X={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xn,1,xn,2,...,xn,t},其中xi,j表示样本第j时刻第i维特征的数据。每一个训练样本数据X的大小是n*t的矩阵。
S12、对每个训练样本数据进行差分预处理,得到每个训练样本相邻两时刻间的差值di,j=xi,j+1-xi,j,得到差分预处理后的训练样本数据为D={d1,1,d1,2,...,d1,t-1;d2,1,d2,2,...,d2,t-1;...;dn,1,dn,2,...,dn,t-1}。
S13、针对每个训练样本数据,计算其第i维特征的能量wi,wi通过公式计算得到;计算其总能量W,通过公式计算得到;计算每一维特征的能量百分比peri,通过公式计算得到。
S14、对训练样本数据进行降维处理,针对每个手势的每个训练样本数据,计算能量阈值式中1.2为调节因子。若peri>θ,则这个样本的第i维特征为有效特征,反之,为无效特征。若有效特征的数量为0,则定义该手势为静态手势,反之,有效特征的数量大于0,手势为动态手势。
对于动态手势,对同一个手势,每个样本的有效特征基本相同。对于某个手势,共有M个样本,若第i维特征是超过一半样本的有效特征,则定义第i维特征是该手势的有效特征。对于每个手势,计算其有效特征,并将其训练样本数据由有效特征数据重新构建(只保留有效特征那些维的数据),完成降维的过程。降维后,样本数据表示为X'={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xm,1,xm,2,...,xm,t},其中m为该手势有效特征的数目。若有效特征数目为0,则定义为静态手势,不进行降维,保留全部数据;
S15、构建选择性特征手势库,将有效特征相同的预定义手势归属到同一个手势库中,静态手势都归属到有效特征数为0的手势库中,这些手势库定义为选择性特征手势库。
S16、针对每一个选择性特征手势库进行离散化处理,对其中包含的手势降维后的训练样本数据归一化处理后,采用k-means聚类算法,将降维后的训练样本数据X'表示为X'={x′1,x'2,...,x′t},其中,x'j=(s1,j,s2,j,...sm,j)T表示降维后的训练样本数据j时刻的手部姿态数据,T表示矩阵的转置。预设L个类别,随机初始化L个聚类中心,L个聚类中心分别记为Cz(z=1,2,...,L),通过计算降维后每一时刻手部姿态数据的类别,其中Gj表示j时刻的手部姿态数据的类别,然后对每一个类别,重新计算其聚类中心若其聚类中心Cz不变收敛或达到自定义的最大的迭代次数,离散化过程结束,并将每个时刻的手部姿态数据用其相应的类别Gj表示。
S17、针对每一个选择性特征手势库,训练其对应的隐马尔科夫模型。对于选择性特征手势库的每一个手势,将其离散化的训练样本数据,结合隐马尔科夫(HMM)的前向-后向算法(Baum-Welch)训练得到每个手势的HMM参数λ,从而构成训练好的选择性特征手势库的隐马尔科夫(HMM)模型。
S2、手势分流识别
S21、数据采集,通过数据手套,获取需要测试的手势数据作为测试样本数据。每个测试样本数据可以表示成Y={y1,1,y1,2,...,y1,t;y2,1,y2,2,...,y2,t;...;yn,1,yn,2,...,yn,t},其中yi,j表示样本第j时刻第i维特征的数据。每一个测试样本数据Y的大小是n*t的矩阵;
S22、对测试样本数据进行降维处理,按照步骤S12-S14对测试样本数据进行降维处理,并计算得到每个测试样本数据的有效特征,并将测试样本数据用其有效特征重新构建。
S23、对测试样本数据进行离散化处理,根据测试样本的有效特征,将测试样本输入到有效特征相同的选择性特征手势库,根据步骤S16中的聚类中心Cz,将测试样本数据每一时刻的数据归类到距离相应聚类中心Cz最近的类别,并用相应的类别号表示该时刻的数据。
S24、手势分流识别,根据测试样本的有效特征,将降维和离散化处理后的测试样本数据输入到有效特征相同的选择性特征手势库,计算该测试样本在其选择性特征手势库中不同手势对应的隐马尔科夫模型(HMM)下的概率值,并将概率值最大的隐马尔科夫模型(HMM)对应的手势作为识别结果。
所述的手部姿态数据包括手指弯曲数据、手掌的方位数据。
所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,可以为通过惯性传感器采集的手指弯曲方向的旋转数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的弯曲度数据。
所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,可以是通过光学定位获取的方位数据,也可以为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的方向数据。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (4)

1.一种针对大词汇量的手势识别方法,其特征在于,包括训练隐马尔科夫模型和手势分流识别;
S1、训练隐马尔科夫模型;
S11、根据中国手语手册,预定义N个聋哑人常用手势,通过数据手套获取预定义N个手势的手部姿态数据;每个手势采取M个训练样本数据,每个时刻获得n个数据为此时刻手势的n维特征;每个训练样本数据定义为X={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xn,1,xn,2,...,xn,t},其中xi,j表示样本第j时刻第i维特征的数据,每一个训练样本数据X的大小是n*t的矩阵;
S12、对每个训练样本数据进行差分预处理,得到每个训练样本相邻两时刻间的差值di,j=xi,j+1-xi,j,得到差分预处理后的训练样本数据为D={d1,1,d1,2,...,d1,t-1;d2,1,d2,2,...,d2,t-1;...;dn,1,dn,2,...,dn,t-1};
S13、针对每个训练样本数据,计算其第i维特征的能量wi,wi通过公式计算得到;计算其总能量W,通过公式计算得到;计算每一维特征的能量百分比peri,通过公式计算得到;
S14、对训练样本数据进行降维处理:针对每个手势的每个训练样本数据,计算能量阈值式中1.2为调节因子;若peri>θ,则这个样本的第i维特征为有效特征,反之,为无效特征;若有效特征的数量为0,则定义该手势为静态手势,反之,有效特征的数量大于0,手势为动态手势;
对于动态手势,对同一个手势,每个样本的有效特征基本相同;对于某个手势,共有M个样本,若第i维特征是超过一半样本的有效特征,则定义第i维特征是该手势的有效特征;对于每个手势,计算其有效特征,并将其训练样本数据由有效特征数据重新构建,完成降维的过程;降维后,样本数据表示为X'={x1,1,x1,2,...,x1,t;x2,1,x2,2,...,x2,t;...;xm,1,xm,2,...,xm,t},其中m为该手势有效特征的数目;若有效特征数目为0,则定义为静态手势,不进行降维,保留全部数据;
S15、构建选择性特征手势库,将有效特征相同的预定义手势归属到同一个手势库中,静态手势都归属到有效特征数为0的手势库中,这些手势库定义为选择性特征手势库;
S16、针对每一个选择性特征手势库进行离散化处理,对其中包含的手势降维后的训练样本数据归一化处理后,采用k-means聚类算法,将降维后的训练样本数据X'表示为X'={x'1,x'2,...,x't},其中,x'j=(s1,j,s2,j,...sm,j)T表示降维后的训练样本数据j时刻的手部姿态数据,T表示矩阵的转置;
预设L个类别,随机初始化L个聚类中心,L个聚类中心分别记为Cz(z=1,2,...,L),通过(j=1,2,...,t;z=1,2,...,L)计算降维后每一时刻手部姿态数据的类别,其中Gj表示j时刻的手部姿态数据的类别,然后对每一个类别,重新计算其聚类中心若其聚类中心Cz不变收敛或达到自定义的最大的迭代次数,离散化过程结束,并将每个时刻的手部姿态数据用其相应的类别Gj表示;
S17、针对每一个选择性特征手势库,训练其对应的隐马尔科夫模型;对于选择性特征手势库的每一个手势,将其离散化的训练样本数据,结合隐马尔科夫模型的前向-后向算法训练得到每个手势的HMM参数λ,从而构成训练好的选择性特征手势库的隐马尔科夫模型;
S2、手势分流识别;
S21、数据采集,通过数据手套,获取需要测试的手势数据作为测试样本数据;每个测试样本数据可以表示成Y={y1,1,y1,2,...,y1,t;y2,1,y2,2,...,y2,t;...;yn,1,yn,2,...,yn,t},其中yi,j表示样本第j时刻第i维特征的数据;每一个测试样本数据Y的大小是n*t的矩阵;
S22、对测试样本数据进行降维处理,按照步骤S12-S14对测试样本数据进行降维处理,并计算得到每个测试样本数据的有效特征,并将测试样本数据用其有效特征重新构建;
S23、对测试样本数据进行离散化处理,根据测试样本的有效特征,将测试样本输入到有效特征相同的选择性特征手势库,根据步骤S16中的聚类中心Cz,将测试样本数据每一时刻的数据归类到距离相应聚类中心Cz最近的类别,并用相应的类别号表示该时刻的数据;
S24、手势分流识别,根据测试样本的有效特征,将降维和离散化处理后的测试样本数据输入到有效特征相同的选择性特征手势库,计算该测试样本在其选择性特征手势库中不同手势对应的隐马尔科夫模型下的概率值,并将概率值最大的隐马尔科夫模型对应的手势作为识别结果。
2.根据权利要求1所述的针对大词汇量的手势识别方法,其特征在于,所述的手部姿态数据包括手指弯曲数据、手掌的方位数据。
3.根据权利要求2所述的针对大词汇量的手势识别方法,其特征在于,所述的手指弯曲数据可以为通过弯曲传感器采集的弯曲度数据,或者为通过惯性传感器采集的手指弯曲方向的旋转数据,或者为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的弯曲度数据。
4.根据权利要求2所述的针对大词汇量的手势识别方法,其特征在于,所述的手掌的方位数据可以是通过惯性传感器采集的方位数据,或者是通过光学定位获取的方位数据,或者为通过九轴传感器采集的加速度、角速度、四元数数据转化得到的方向数据。
CN201710970450.7A 2017-10-16 2017-10-16 一种针对大词汇量的手势识别方法 Active CN107909003B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710970450.7A CN107909003B (zh) 2017-10-16 2017-10-16 一种针对大词汇量的手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710970450.7A CN107909003B (zh) 2017-10-16 2017-10-16 一种针对大词汇量的手势识别方法

Publications (2)

Publication Number Publication Date
CN107909003A CN107909003A (zh) 2018-04-13
CN107909003B true CN107909003B (zh) 2019-12-10

Family

ID=61840577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710970450.7A Active CN107909003B (zh) 2017-10-16 2017-10-16 一种针对大词汇量的手势识别方法

Country Status (1)

Country Link
CN (1) CN107909003B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109522785A (zh) * 2018-09-26 2019-03-26 西安电子科技大学工程技术研究院有限公司 一种基于大数据和无线信号模型的手势识别方法和装置
CN109492558A (zh) * 2018-10-29 2019-03-19 华南理工大学 一种基于Leap Motion的动态手势识别方法
CN109886068B (zh) * 2018-12-20 2022-09-09 陆云波 基于运动数据的动作行为识别方法
CN113496165B (zh) * 2020-04-01 2024-04-16 京东科技信息技术有限公司 用户手势识别方法、装置、手部智能穿戴设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103902984A (zh) * 2014-04-15 2014-07-02 福州大学 一种改进的动态手势识别的hmm模型训练算法
CN105205475A (zh) * 2015-10-20 2015-12-30 北京工业大学 一种动态手势识别方法
CN105452997A (zh) * 2013-07-19 2016-03-30 密克罗奇普技术公司 基于隐式马尔可夫模型的手势辨识的方法
CN106557173A (zh) * 2016-11-29 2017-04-05 重庆重智机器人研究院有限公司 动态手势识别方法及装置
CN106682585A (zh) * 2016-12-02 2017-05-17 南京理工大学 一种基于kinect2的动态手势识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105452997A (zh) * 2013-07-19 2016-03-30 密克罗奇普技术公司 基于隐式马尔可夫模型的手势辨识的方法
CN103902984A (zh) * 2014-04-15 2014-07-02 福州大学 一种改进的动态手势识别的hmm模型训练算法
CN105205475A (zh) * 2015-10-20 2015-12-30 北京工业大学 一种动态手势识别方法
CN106557173A (zh) * 2016-11-29 2017-04-05 重庆重智机器人研究院有限公司 动态手势识别方法及装置
CN106682585A (zh) * 2016-12-02 2017-05-17 南京理工大学 一种基于kinect2的动态手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
《连续隐马尔可夫的静态手势识别法》;吴彩芳,谢钧,俞璐,周开店;《计算机系统应用》;20160815;第25卷(第8期);全文 *

Also Published As

Publication number Publication date
CN107909003A (zh) 2018-04-13

Similar Documents

Publication Publication Date Title
Kumar et al. A position and rotation invariant framework for sign language recognition (SLR) using Kinect
Li et al. Deep Fisher discriminant learning for mobile hand gesture recognition
US10109219B2 (en) System and method for automated sign language recognition
Mittal et al. A modified LSTM model for continuous sign language recognition using leap motion
CN107909003B (zh) 一种针对大词汇量的手势识别方法
Gao et al. Sign language recognition based on HMM/ANN/DP
Fang et al. Large-vocabulary continuous sign language recognition based on transition-movement models
Gao et al. A Chinese sign language recognition system based on SOFM/SRN/HMM
Amma et al. Airwriting: a wearable handwriting recognition system
Wang et al. An approach based on phonemes to large vocabulary Chinese sign language recognition
Amma et al. Airwriting: Hands-free mobile text input by spotting and continuous recognition of 3D-space handwriting with inertial sensors
Li et al. Recognition system for home-service-related sign language using entropy-based $ K $-means algorithm and ABC-based HMM
US20150325240A1 (en) Method and system for speech input
Hassan et al. Multiple proposals for continuous arabic sign language recognition
Yang et al. Robust sign language recognition by combining manual and non-manual features based on conditional random field and support vector machine
Ma et al. A continuous Chinese sign language recognition system
CN110704621A (zh) 文本处理方法、装置及存储介质和电子设备
JP2000502479A (ja) 時系列フレームから取出した集合体化観測を用いる特徴ベクトルに基づくオンライン手書き文字認識方法および装置
CN107346207B (zh) 一种基于隐马尔科夫模型的动态手势切分识别方法
Yin et al. Learning to recognize handwriting input with acoustic features
Xu et al. Air-writing characters modelling and recognition on modified CHMM
Koller et al. May the force be with you: Force-aligned signwriting for automatic subunit annotation of corpora
Fang et al. Signer-independent continuous sign language recognition based on SRN/HMM
Jian et al. LSTM‐based dynamic probability continuous hand gesture trajectory recognition
Lin et al. Curve matching from the view of manifold for sign language recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant