CN105930802A - 一种基于稀疏表示的手形识别装置及其方法 - Google Patents

一种基于稀疏表示的手形识别装置及其方法 Download PDF

Info

Publication number
CN105930802A
CN105930802A CN201610256224.8A CN201610256224A CN105930802A CN 105930802 A CN105930802 A CN 105930802A CN 201610256224 A CN201610256224 A CN 201610256224A CN 105930802 A CN105930802 A CN 105930802A
Authority
CN
China
Prior art keywords
hand shape
controller
vector
hand
minnowboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610256224.8A
Other languages
English (en)
Other versions
CN105930802B (zh
Inventor
侯跃恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiaying University
Original Assignee
Jiaying University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiaying University filed Critical Jiaying University
Priority to CN201610256224.8A priority Critical patent/CN105930802B/zh
Publication of CN105930802A publication Critical patent/CN105930802A/zh
Application granted granted Critical
Publication of CN105930802B publication Critical patent/CN105930802B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种手形识别装置,包括输入装置、控制器、输出装置、显示屏和电源模块,其中控制器分别耦接输入装置、输出装置、显示屏和电源模块,其特征在于:所述输入装置用于采集用户的手形特征并转化为标准信号输出给控制器,所述控制器具备内置数据库,其根据接收到的标准信号与内置数据库内的数据进行数据对比,并将对比结果通过输出装置和显示屏进行输出,所述电源模块向控制器提供直流电压。该手形识别装置易于产品化和小型化,并且其识别在操作时,具有较高的识别率和防伪度。

Description

一种基于稀疏表示的手形识别装置及其方法
技术领域
本发明涉及一种手形识别装置及其方法,尤其是一种基于稀疏表示的手形识别装置及其方法。
背景技术
目前存在多种个人身份识别技术得到了广泛应用,如指纹识别、虹膜识别、人脸识别和静脉识别技术等,CN205015896U就公开了一种生物体识别装置,其可以通过对生物体进行对比识别。CN105069337A公开了一种基于手掌生物信息的解锁屏方法及移动设备,其可以根据手掌的掌纹或静脉等生物信息对生物对象进行识别等等,但这些技术均存在一定的问题。指纹识别技术受到灰尘、油、水等环境因素的影响,断纹、无指纹以及脱皮和伤痕等问题影响图像采集质量,导致指纹识别困难。另外,当手与一些物体接触时,会在这些物体表面留下指纹,这样就容易被别人仿造。虹膜识别技术通过近红外光照射人眼获取虹膜图像,不易被人接受。另外,在虹膜图像采集过程中,需要眼部注意力集中在一个点上,通过适当的训练才能够获得更好的采集效果,这会很大程度地影响虹膜识别技术的推广。人脸会因为生长发育而发生变化,从而影响识别率,如长胖、变瘦、长出胡须等;另外,由于人具有丰富的表情,也降低了识别的准确性;而且,人脸还受周围环境,如遮挡、光照等影响。静脉识别技术对采集设备有特殊要求,设计相对复杂,制造成本高。同时,由于采集方式受自身特点的限制,产品难以推广。在此基础上,发明人通过反复对比与大量实验和思考,作出了本发明。
发明内容
为了解决现有技术中生物识别准确率不高,易受环境因素影响的技术问题,本发明一方面提供了一种手形识别装置,包括输入装置、控制器、输出装置、显示屏和电源模块,其特征在于,所述控制器分别耦接输入装置、输出装置、显示屏和电源模块,所述输入装置用于采集用户的手形特征并转化为标准信号输出给控制器,所述控制器具备内置数据库,其根据接收到的标准信号与内置数据库内的数据进行数据对比,并将对比结果通过输出装置和显示屏进行输出,所述电源模块向控制器提供直流电压。
进一步,所述控制器为Minnowboard,所述输入装置为Leap Motion,所述显示屏为AR1100模拟电阻式USB触摸屏,所述Minnowboard通过其USB1口连接Leap Motion,实现Minnowboard对Leap Motion的控制和信号采集,所述Minnowboard通过USB2口连接AR1100模拟电阻式USB触摸屏,实现与Minnowboard交互。
此外,本发明还提供了一种基于稀疏表示的手形识别方法,包括以下步骤:
此外,本发明还提供了一种基于稀疏表示的手形识别方法,包括以下步骤:
1)手形编码采集阶段:Leap Motion对手形信息进行采集,包括如下手形特征:五个手指的长度,五个手指中每个手指的平均宽度,五个手指末端的坐标和手掌中心的坐标,设采集得到的五个手指长度分别为l1,l2,l3,l4,l5,五个手指的每个手指平均宽度为w1,w2,w3,w4和w5,五个手指的末端坐标分别为(x1,y1,z1),(x2,y2,z2),...,(x5,y5,z5),手掌中心点的坐标为(x0,y0,z0),计算五个手指的末端到手掌中心点的距离d1,d2,d3,d4,d5,将上述五个手指长度、宽度以及手指末端到手掌中心的距离组合成手形特征模板向量T, ,T为一个归一化模板向量,采集注册用户100帧手形信息,获得100个模板向量并构成稀疏字典D=[T1,T2,...,T100]对该用户进行注册,D∈R15×100
2)手形编码识别阶段:Leap Motion采集20帧手形特征向量k1,k2,...,k20,手形特征向量格式与手形编码采集阶段存储的手形特征模板向量一致,对k1,k2,...,k20取平均值 用稀疏字典D进行稀疏重构:其中α∈R100×1为稀疏系数,λ为稀疏度与残差的调节系数,残差向量计算和std(e),其中,||·||2为2范数算子,std(·)为方差算子,若满足且std(e)<δ2,则认为匹配识别成功,否则认为识别失败。
进一步,本发明还提供了一种手形识别方法,包括以下步骤:
1)手形编码采集阶段:Leap Motion输入装置获取检测范围内的手形,计算并返回手掌中心点的三维坐标(x0,y0,z0),以及五个手指末端的三维坐标{(x1,y1,z1),(x2,y2,z2),(x3,y3,z3),(x4,y4,z4),(x5,y5,z5)},
并将这些三维坐标数据提交到Minnowboard控制器;Minnowboard控制器对三维坐标数据进行分析计算:计算每个手指末端到掌心的加权距离Di:其中Di为第i指最远端距离掌心的加权距离,ai为第i指的加权系数,其中i=1、2、…、5;将上述加权距离[D1,D2,D3,D4,D5]存储入数据库进行注册,作为识别该用户的手形特征向量;
2)手形编码识别阶段:Leap Motion输入装置获取待测用户的手形,通过Minnowboard控制器计算得到每个手指末端距离掌心的加权距离[X1,X2,X3,X4,X5],并计算该加权距离与数据库中已注册的每个用户手形加权距离的差向量Ei,Ei=[X1-Di1,X2-Di2,X3-Di3,X4-Di4,X5-Di5],其中[Di1,Di2,Di3,Di4,Di5]为第i个注册用户的手形特征向量;将所述差向量Ei与预设的阈值向量[ε,ε,ε,ε,ε]T进行比较,即同时符合条件|X1-Di1|<ε,|X2-Di2|<ε,…,|X5-Di5|<ε,则识别该手形对应于相应的注册用户i,否则说明该手形为未知用户。
进一步,a1=5.5、a2=6.5、a3=7.2、a4=6.5、a5=5.1、ε=0.084。
本发明通过结合现有Leap Motion和Minnowboard的特点,实现了一款小型化的生物识别装置,并通过尝试和实验,选取了手指长度、宽度及指尖至掌心的距离作为手形特征,并采用残差和标准方差两个标准判断标准待识别的手形和数据库中的某个手形是否匹配,提高了手形识别的准确率、鲁棒性和防伪度,本发明还进一步结合稀疏表示解决了手形张合度不统一的技术问题,提高了手形识别的效率。
附图说明
图1为本发明手形识别装置的结构示意图;
图2为本发明获取的手形特征示意图。
具体实施方式
为了对本发明的原理和特征进行描述,以下结合附图进行详细说明。所举实例只用于解释本发明,并非用于限定本发明的范围。
如图1所示,一种手形识别装置,包括输入装置、控制器、输出装置、显示屏和电源模块,其中控制器分别耦接输入装置、输出装置、显示屏和电源模块,所述输入装置用于采集用户的手形特征并转化为标准信号输出给控制器,所述控制器具备内置数据库,其根据接收到的标准信号与内置数据库内的数据进行数据对比,并将对比结果通过输出装置和显示屏进行输出,所述电源模块向控制器提供直流电压。
具体地,所述控制器优选美国因特尔公司开发的Minnowboard,该开发板可运行 Andriod、Windows和Linux等多个操作系统,具有体积小的特点(92×74mm)。输入装置优选 Leap Motion:Leap Motion是由美国Leap公司开发的一款体感控制器,Leap Motion外形很 小巧,尺寸为80毫米×30毫米×11毫米,重量为32克,它可追踪全部手指,精度高达1/100毫 米,远比现有的运动控制技术更为精确。且Leap Motion仅支持X86架构,选择Minnowboard 与之匹配,为产品的小型化提供了实现的基础。Leap Motion通过绑定视野范围能的手,手 指或者工具来提供实时数据,每一帧都包含了一系列的基本绑定数据,上述数据均可通过 Leap Motion提供的API获得,包括:Hands、Pointables、Fingers、Tools和Gestures,其中, Pointables即可获得本发明所使用的每个手指的特征信息。Leap Motion体感控制器目前 支持Windows Mac OS和Linux操作系统,需要在x86框架下的处理器上运行。显示屏优选 microchip公司的AR1100模拟电阻式USB触摸屏(控制器),它是一种高性能、USB即插即用器 件,具备先进的校准功能,充当USB鼠标或单输入数字化仪,其可以输出识别结果,同时可以 作为人机交互界面,对装置进行设置操作。
其中,Minnowboard通过其USB1口连接Leap Motion,实现Minnowboard对LeapMotion的控制和信号采集,Minnowboard通过运行Leap Motion的API函数可以判断是否有被识别体出现在识别区域内,并捕获相应的手形信息,使用该手形信息生成手形编码,将编码保存至手形编码库中并赋予唯一的识别号。在识别过程中,即可通过同样机制获得手形编码,将获得的手形编码与手形编码库中的编码进行比对识别。Minnowboard通过USB2口连接触摸屏控制器,触摸屏控制器可以实现与Minnowboard交互,包括对系统参数进行设置、显示相关信息等。
手形识别过程一般包括两个阶段,手形编码采集阶段和手形编码识别阶段。其中手形编码采集阶段算法伪代码如下:
提取每个手形的特征信息
对提取的手形特征信息进行编码关联用户,并存储到相应的数据库中。
手形编码识别阶段算法伪代码如下:
提取每个手形的特征信息
对提取的手形特征信息进行编码,并与数据库中存储的用户编码逐个进行匹配,根据被测对象的手形信息编码与数据库中编码的匹配结果识别用户。
具体地,本发明实施例一提供了一种方便快捷的手形识别方法,包括以下步骤:
1)手形编码采集阶段:Leap Motion输入装置获取检测范围内的手形,计算并返回手掌中心点的三维坐标(x0,y0,z0),所述掌中心点通过延伸不相邻的两个指得到的点指定为掌中心点,计算并返回五个指的最远处的三维坐标{(x1,y1,z1),(x2,y2,z2),(x3,y3,z3),(x4,y4,z4),(x5,y5,z5)},并将这些三维坐标数据提交到Minnowboard控制器;Minnowboard控制器对三维坐标数据进行分析计算:计算每个指的最远端到掌心的加权距离Di:其中Di为第i指最远端距离掌心的加权距离,ai为第i指的加权系数,其中i=1、2、…、5,;所述加权系数优选为a1=5.5、a2=6.5、a3=7.2、a4=6.5、a5=5.1;以上加权系数考虑到不同指头的长度,经过大量的数据分析后进行优选,对不同的指头给出了不同的误差放大,得到了最佳的普适性的加权系数;将上述加权距离[D1,D2,D3,D4,D5]存储入用户数据库进行注册,作为识别该用户的手形特征向量;
2)手形编码识别阶段:Leap Motion输入装置获取待测用户的手形,通过Minnowboard控制器计算得到每个手指末端距离掌心的加权距离[X1,X2,X3,X4,X5],并计算该加权距离与数据库中已注册的每个用户手形加权距离的差向量Ei,Ei=[X1-Di1,X2-Di2,X3-Di3,X4-Di4,X5-Di5],其中[Di1,Di2,Di3,Di4,Di5]为第i个注册用户的手形特征向量;将所述差向量Ei与预设的阈值向量进行比较,若同时符合条件|X1-Di1|<ε,|X2-Di2|<ε,…,|X5-Di5|<ε,则识别该手形对应于相应的注册用户i,否则说明该手形为未知用户。
然而在无接触式手形识别过程中,无法保证每次采集时都有相同的手指张合度,一定程度降低了手形识别的准确性和鲁棒性。为了提高识别率,本发明另一实施例提取的手形特征如图2所示,包括用户5个手指的长度L1、L2、…、L5,5个手指中每个手指的平均宽度W1、W2、…、W5,以及每个手指末端(xi,yi,zi)到掌心(x0,y0,z0)的距离,作为标志每个用户的手形特征信息进行编码。基于本发明的手形识别装置,还提供了一种基于稀疏表示的手形识别方法,有效地提高了识别的准确性和鲁棒性。具体步骤包括:
1)手形编码采集阶段:将用户的手掌置于Leap Motion操作范围内,当识别到手形时,要求用户的手掌进行张合运动,运动范围为五指紧闭到最大限度张开,张合运动的每个周期大约为1.5秒;Leap Motion以每秒20帧的速率对手形信息进行采集,采集时间为5秒,采样得到100帧的手形信息。在本实施例中可采用leap motion自带函数提取如下手形特征:(1)五个手指的长度,采用函数为float apparentlength=pointable.length();(2)五个手指中每个手指的平均宽度,使用函数为:float averageThickness=pointable.width();(3)五个手指末端的坐标和手掌中心的坐标,使用函数为:Leap::Vector currentPosition=pointable.tipPosition()和Leap::Vector handCenter=hand.palmPosition()。设采集五个手指长度分别为l1,l2,l3,l4,l5,五个手指的宽度为w1,w2,w3,w4和w5,五个手指的末端坐标分别为(x1,y1,z1),(x2,y2,z2),...,(x5,y5,z5),手掌中心点的坐标为(x0,y0,z0),计算五个手指的末端到手掌中心点的距离d1,d2,d3,d4,d5,如第i个(i=1,2,3,4,5)手指末端到手掌中心的距离为di,将上述五个手指长度、宽度以及手指末端到手掌中心的距离组合成手形特征模板向量T,,T为一个归一化模板向量。采集100帧的信息,获得100个模板向量并构成稀疏字典D=[T1,T2,...,T100]对该用户进行注册,D∈R15×100
2)手形编码识别阶段,将待识别对象手形置于Leap Motion操作范围内,手掌自然张开,在获得触摸屏提示后保持手掌张开状态1秒,Leap Motion采集20帧手形特征向量k1,k2,...,k20,手形特征向量格式与手形编码采集阶段存储的手形特征模板向量一致,对k1,k2,...,k20取平均值 可以用稀疏字典D进行稀疏重构:λ为稀疏度与残差的调节系数,残差向量计算和std(e),其中,||·||2为2范数算子,std(·)为方差算子,若满足且std(e)<δ2,则认为匹配识别成功,否则认为识别失败。在本实施例中λ取值为0.03,设置阈值δ1=0.002,δ2=0.0015。
其中,保证了5个手指的总误差在一定范围内,std(e)<δ2保证每个手指的误差相差不至于太大,采用残差和标准方差两个标准判断标准待识别的手形和数据库中的某个手形是否匹配,即降低了误判率,又对系统误差和噪声干扰不敏感,提高了系统匹配识别的准确率和有效性。
经测试,基于稀疏表示的手形识别方法在对104个手形的测试中,取得了99.04%的成功率,与其他手形识别方法相比,具有较高的识别率。在实测中,采集每个手形样本的时间为6到7秒,识别时间为2-3秒。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。

Claims (5)

1.一种手形识别装置,包括输入装置、控制器、输出装置、显示屏和电源模块,其特征在于,所述控制器分别耦接输入装置、输出装置、显示屏和电源模块,所述输入装置用于采集用户的手形特征并转化为标准信号输出给控制器,所述控制器具备内置数据库,其根据接收到的标准信号与内置数据库内的数据进行数据对比,并将对比结果通过输出装置和显示屏进行输出,所述电源模块向控制器提供直流电压。
2.根据权利要求1所述的手形识别装置,其特征在于:所述控制器为Minnowboard,所述输入装置为Leap Motion,所述显示屏为AR1100模拟电阻式USB触摸屏,所述Minnowboard通过其USB1口连接Leap Motion,实现Minnowboard对Leap Motion的控制和信号采集,所述Minnowboard通过USB2口连接AR1100模拟电阻式USB触摸屏,实现与Minnowboard交互。
3.一种使用权利要求2所述手形识别装置的手形识别方法,其特征在于包括以下步骤:
1)手形编码采集阶段:Leap Motion对手形信息进行采集,包括如下手形特征:五个手指的长度,五个手指中每个手指的平均宽度,五个手指末端的坐标和手掌中心的坐标,设采集得到的五个手指长度分别为l1,l2,l3,l4,l5,五个手指的每个手指平均宽度为w1,w2,w3,w4和w5,五个手指的末端坐标分别为(x1,y1,z1),(x2,y2,z2),...,(x5,y5,z5),手掌中心点的坐标为(x0,y0,z0),计算五个手指的末端到手掌中心点的距离d1,d2,d3,d4,d5,将上述五个手指长度、宽度以及手指末端到手掌中心的距离组合成手形特征模板向量T, ,T为一个归一化模板向量,采集注册用户100帧手形信息,获得100个模板向量并构成稀疏字典D=[T1,T2,...,T100]对该用户进行注册,D∈R15 ×100
2)手形编码识别阶段:Leap Motion采集20帧手形特征向量k1,k2,...,k20,手形特征向量格式与手形编码采集阶段存储的手形特征模板向量一致,对k1,k2,...,k20取平均值 用稀疏字典D进行稀疏重构:其中α∈R100×1为稀疏系数,λ为稀疏度与残差的调节系数,残差向量计算和std(e),其中,||·||2为2范数算子,std(·)为方差算子,若满足且std(e)<δ2,则认为匹配识别成功,否则认为识别失败。
4.一种使用权利要求3所述手形识别装置的手形识别方法,其特征在于包括以下步骤:
1)手形编码采集阶段:Leap Motion输入装置获取检测范围内的手形,计算并返回手掌中心点的三维坐标(x0,y0,z0),以及五个手指末端的三维坐标{(x1,y1,z1),(x2,y2,z2),(x3,y3,z3),(x4,y4,z4),(x5,y5,z5)},并将上述三维坐标数据发送至Minnowboard控制器;Minnowboard控制器对三维坐标数据进行分析计算:计算每个手指末端到掌心的加权距离Di:其中Di为第i指最远端距离掌心的加权距离,ai为第i指的加权系数,其中i=1、2、…、5;将上述加权距离[D1,D2,D3,D4,D5]存储入数据库进行注册,作为识别该用户的手形特征向量;
2)手形编码识别阶段:Leap Motion输入装置获取待测用户的手形,通过Minnowboard控制器计算得到每个手指末端距离掌心的加权距离[X1,X2,X3,X4,X5],并计算该加权距离与数据库中已注册的每个用户手形加权距离的差向量Ei,Ei=[X1-Di1,X2-Di2,X3-Di3,X4-Di4,X5-Di5],其中[Di1,Di2,Di3,Di4,Di5]为第i个注册用户的手形特征向量;将所述差向量Ei与预设的阈值向量进行比较,若所述差向量Ei在所设的阈值向量范围内,即同时符合条件|X1-Di1|<ε,|X2-Di2|<ε,…,|X5-Di5|<ε,则识别该手形对应于相应的注册用户i,否则说明该手形为未知用户。
5.根据权利要求4所述的手形识别方法,其特征在于:a1=5.5、a2=6.5、a3=7.2、a4=6.5、a5=5.1,ε=0.084。
CN201610256224.8A 2016-04-22 2016-04-22 一种基于稀疏表示的手形识别装置及其方法 Active CN105930802B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610256224.8A CN105930802B (zh) 2016-04-22 2016-04-22 一种基于稀疏表示的手形识别装置及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610256224.8A CN105930802B (zh) 2016-04-22 2016-04-22 一种基于稀疏表示的手形识别装置及其方法

Publications (2)

Publication Number Publication Date
CN105930802A true CN105930802A (zh) 2016-09-07
CN105930802B CN105930802B (zh) 2021-10-22

Family

ID=56838808

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610256224.8A Active CN105930802B (zh) 2016-04-22 2016-04-22 一种基于稀疏表示的手形识别装置及其方法

Country Status (1)

Country Link
CN (1) CN105930802B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780122A (zh) * 2021-08-30 2021-12-10 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101470800A (zh) * 2007-12-30 2009-07-01 沈阳工业大学 手形识别方法
US20100124377A1 (en) * 2008-11-19 2010-05-20 Nec Laboratories America, Inc. Linear spatial pyramid matching using sparse coding
CN102073843A (zh) * 2010-11-05 2011-05-25 沈阳工业大学 非接触式快速人手多模态信息融合识别方法
CN102855461A (zh) * 2011-07-01 2013-01-02 株式会社理光 在图像中检测手指的方法及设备
CN103198309A (zh) * 2013-04-26 2013-07-10 北京工业大学 基于稀疏表示的眉毛识别方法
CN103324944A (zh) * 2013-06-26 2013-09-25 电子科技大学 一种基于svm和稀疏表示的假指纹检测方法
US20130342671A1 (en) * 2012-06-25 2013-12-26 Imimtek, Inc Systems and methods for tracking human hands using parts based template matching within bounded regions

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101470800A (zh) * 2007-12-30 2009-07-01 沈阳工业大学 手形识别方法
US20100124377A1 (en) * 2008-11-19 2010-05-20 Nec Laboratories America, Inc. Linear spatial pyramid matching using sparse coding
CN102073843A (zh) * 2010-11-05 2011-05-25 沈阳工业大学 非接触式快速人手多模态信息融合识别方法
CN102855461A (zh) * 2011-07-01 2013-01-02 株式会社理光 在图像中检测手指的方法及设备
US20130342671A1 (en) * 2012-06-25 2013-12-26 Imimtek, Inc Systems and methods for tracking human hands using parts based template matching within bounded regions
CN103198309A (zh) * 2013-04-26 2013-07-10 北京工业大学 基于稀疏表示的眉毛识别方法
CN103324944A (zh) * 2013-06-26 2013-09-25 电子科技大学 一种基于svm和稀疏表示的假指纹检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
延陵明天: "Leap Motion开发文档翻译-追踪手、手指和工具", 《HTTP://BRIGHTGUO.COM/LEAP-MOTION-TRACKING-HANDS-FINGERS-AND-TOOLS/》 *
杜钊君: "基于体感传感器的手势识别及人机交互系统研究", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 *
苑玮琦 等: "基于手部尺寸特征的手形认证方法", 《光学学报》 *
陈学立: "基于ARM的掌形识别门禁系统研究与设计", 《中国优秀硕士学位论文全文数据库(信息科技辑)》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780122A (zh) * 2021-08-30 2021-12-10 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置
CN113780122B (zh) * 2021-08-30 2023-12-05 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置

Also Published As

Publication number Publication date
CN105930802B (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
Mapari et al. Real time human pose recognition using leap motion sensor
Chung et al. Real-time hand gesture recognition model using deep learning techniques and EMG signals
Ju et al. A unified fuzzy framework for human-hand motion recognition
Sun et al. Gesture recognition algorithm based on multi‐scale feature fusion in RGB‐D images
CN106408579B (zh) 一种基于视频的捏合指尖跟踪方法
Jeen-Shing et al. Online handwriting recognition using an accelerometer-based pen device
Almasre et al. A real-time letter recognition model for Arabic sign language using kinect and leap motion controller v2
Huang et al. Automatic asymmetric 3D-2D face recognition
Qaroush et al. Smart, comfortable wearable system for recognizing Arabic Sign Language in real-time using IMUs and features-based fusion
Zhao et al. Skeleton-based dynamic hand gesture recognition using 3d depth data
Wang et al. Leveraging tactile sensors for low latency embedded smart hands for prosthetic and robotic applications
Zhou et al. Classification of upper limb motion trajectories using shape features
CN105930802B (zh) 一种基于稀疏表示的手形识别装置及其方法
Cohen et al. Recognition of continuous sign language alphabet using leap motion controller
Chen et al. A fusion recognition method based on multifeature hidden markov model for dynamic hand gesture
CN205563617U (zh) 一种手形识别装置
Imoize et al. Development of an infrared-based sensor for finger movement detection
Agarwal et al. Gestglove: A wearable device with gesture based touchless interaction
Kefer et al. Evaluating the placement of arm-worn devices for recognizing variations of dynamic hand gestures
CN114756128A (zh) 可穿戴设备的交互控制系统及其工作方法
Sakuma et al. Turning the finger into a writing tool
Nguyen et al. Vietnamese sign language reader using Intel Creative Senz3D
Pradeep et al. Advancement of sign language recognition through technology using python and OpenCV
CN110390281A (zh) 一种基于感知设备的手语识别系统及其工作方法
Fukui et al. Hand Shape Classification with a Wrist Contour Sensor: (Comparison of Feature Types and Observation of Resemblance among Subjects)

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant