CN111142663B - 一种手势识别方法及手势识别系统 - Google Patents
一种手势识别方法及手势识别系统 Download PDFInfo
- Publication number
- CN111142663B CN111142663B CN201911376416.2A CN201911376416A CN111142663B CN 111142663 B CN111142663 B CN 111142663B CN 201911376416 A CN201911376416 A CN 201911376416A CN 111142663 B CN111142663 B CN 111142663B
- Authority
- CN
- China
- Prior art keywords
- gesture
- finger
- detection data
- user type
- judging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 57
- 210000002478 hand joint Anatomy 0.000 claims abstract description 47
- 210000000707 wrist Anatomy 0.000 claims description 10
- 238000005516 engineering process Methods 0.000 abstract description 4
- 210000004247 hand Anatomy 0.000 description 12
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种手势识别方法及手势识别系统,该方法包括如下步骤:获得手势检测数据;根据手势检测数据获得手指列表;根据手指的距离和方向信息,获得手部关节位置信息;将手部关节位置信息输入用户类型判断模型,获得用户类型;根据用户类型判断用户手势所执行的操作。本申请能够尽可能的提升用户在使用传感器设备时的操作体验,增加手势识别的可检测性与可识别性,提高整体技术的运动模式,在可识别范围内,解决误判与手相似的工具的模型操作问题。
Description
技术领域
本申请涉及计算机领域,特别的涉及一种手势识别方法及手势识别系统。
背景技术
近几年,智能手机和平板的普及使触屏类手势交互成为研究热点。手势追踪是手势交互不可缺少的关键技术,也是这种交互能否推广应用的瓶颈问题之一。近两年,也有人把Kinect体感技术用于动态手势识别中,但Kinect主要追踪的是中远距(0.5m-4m)的全身动作,对于手部的动作,细节信息不够。而Leap Motion的出现,弥补了Kinect的精度问题,它是一个检测手势运动的传感器,动作跟踪精确到0.01mm,精准度是Kincet的100倍。而且设备小,成本低,扩展性强,易于内置到笔记本等其他设备上。
在使用LeapMotion获得手势后,利用资源库匹配数据进行手势识别,在产品的应用中以达到用户在操作时的代入感,主要技术是利用资源库中的数据公式,通过手势映射的方式,识别合适的手势区间,在一体机中播放时,自动调节手势数值,并匹配资源库数据,更换所需的服务等级。
在手势映射的过程中,提供多个属性来绑定男人、女人、小孩的手的物理特性,属性的计算方式根据男人、女人、小孩的手的特点,使用传感器捕捉数据,并及时反馈给系统,系统读取后同步到资源库,寻找与属性相同的模型并映射给一体机,以此在一体机中可以通过计算公式的方式来匹配资源库数据,并及时的替换模型,在用户使用产品的同时,保证与自己的性别,年龄相匹配的模型体验。
LeapMotion虽然可以尽可能的为用户提供关于手的信息,不过程序的检测并不能达到可以确定每一帧的属性。在LeapMotion设备中,可识别区域范围内类似于手或者手指的形状工具都会被误判为手,物理特性的相似工具在识别范围内观察到的手势或者运动模式会影响用户的想法和操作体验,能够被LeapMotion设备所识别的手势和运动模式太少,不能达到用户体验的标准。
发明内容
本申请请求保护一种手势识别方法和手势识别系统,解决现有的传感器无法精确识别手势的技术问题。
本申请提供一种手势识别方法,包括如下步骤:获得手势检测数据;根据手势检测数据获得手指列表;根据手指的距离和方向信息,获得手部关节位置信息;将手部关节位置信息输入用户类型判断模型,获得用户类型;根据用户类型判断用户手势所执行的操作。
优选地,其中预先建立用户类型判断模型,包括如下步骤:输入手势检测数据;根据手势检测数据获得手指列表;根据手指的距离和方向信息,获得手部关节位置信息;根据手部关节位置信息对手势检测数据进行分类,获得多个类别,形成用户类型判断模型。
优选地,其中根据手部关节位置信息对手势检测数据进行分类,包括根据手部关节的位置、关节大小和关节间距离中的一个或多个分类参数进行分类。
优选地,其中预先建立用户类型判断模型还包括对用户类型判断模型进行调整的步骤:使用建立的用户类型判断模型进行用户类型判断;如果存在无法判断的手势检测数据,则对分类参数进行调整。
优选地,其中根据手部检测数据获得手指列表包括如下子步骤:根据手部检测数据获得手掌的方向和手指指尖的方向;根据手掌的方向和指尖的方向所存在的夹角和手掌的法向量与指尖方向的夹角,判断每个手指尖所表示的每个手指,将获得的每个手指的手指数据记录在手指列表中。
本申请还提供一种手势识别系统,包括如下部件:传感器,获得手势检测数据;处理器,执行如下操作:根据手势检测数据获得手指列表;根据手指的距离和方向信息,获得手部关节位置信息;将手部关节位置信息输入用户类型判断模型,获得用户类型;根据用户类型判断用户手势所执行的操作。
优选地,其中预先建立用户类型判断模型,包括如下步骤:输入手势检测数据;根据手势检测数据获得手指列表;根据手指的距离和方向信息,获得手部关节位置信息;根据手部关节位置信息对手势检测数据进行分类,获得多个类别,形成用户类型判断模型。
优选地,其中根据手部关节位置信息对手势检测数据进行分类,包括根据手部关节的位置、关节大小和关节间距离中的一个或多个分类参数进行分类。
优选地,其中预先建立用户类型判断模型还包括对用户类型判断模型进行调整的步骤:使用建立的用户类型判断模型进行用户类型判断;如果存在无法判断的手势检测数据,则对分类参数进行调整。
优选地,其中根据手部检测数据获得手指列表包括如下子步骤:根据手部检测数据获得手掌的方向和手指指尖的方向;根据手掌的方向和指尖的方向所存在的夹角和手掌的法向量与指尖方向的夹角,判断每个手指尖所表示的每个手指,将获得的每个手指的手指数据记录在手指列表中。
本申请能够尽可能的提升用户在使用传感器设备时的操作体验,增加手势识别的可检测性与可识别性,提高整体技术的运动模式,在可识别范围内,解决误判与手相似的工具的模型操作问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,还可以根据这些附图获得其他的附图。
图1是本申请手势识别方法的流程图;
图2是本申请建立用户类型判断模型的方法流程图;
图3是本申请手势识别系统的系统结构图。
具体实施方式
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
图1为本申请手势识别方法的流程图,包括:
步骤S110、获得手势检测数据;包括如下子步骤:
获得手部图像;
使用传感器获得手部图像。
将手部图像与背景图像分离,获得手部数据;
对手部数据执行去噪处理,获得手势检测数据。
步骤S120、根据手势检测数据获得手指列表;包括如下子步骤:
根据手部检测数据获得手掌的方向和手指指尖的方向;
根据手掌的方向和指尖的方向所存在的夹角和手掌的法向量与指尖方向的夹角,判断每个手指尖所表示的每个手指,将获得的每个手指的手指数据记录在手指列表中。
步骤S130、根据手指的距离和方向信息,获得手部关节位置信息;包括如下子步骤:
根据手指列表获得每个手指的手指数据;
从手指数据中提取手指指尖坐标;
从手部检测数据中获得手腕坐标以及手心坐标;
依据手指指尖坐标、手腕坐标和手心坐标,获得手部关节位置信息。
所述手部关节位置信息包括五个手指的指尖坐标及手腕坐标,或者五个手指的指尖坐标及手心坐标。
步骤S140、将手部关节位置信息输入用户类型判断模型,获得用户类型;
经手部关节位置信息输入预先建立的用户类型判断模型,根据手部关节位置信息获得用户类型。例如判断手部关节粗大,则判断为男性手部;判断手部关节相对细小,则判断为女性手部;判断手部关节相对细小,同时关节距离较近,则判断为小孩子的手部。可根据实际需要设置用户类型。
步骤S150、根据用户类型判断用户手势所执行的操作。
在判断出用户类型之后,根据每种用户类型的特点,判断用户手势所执行的操作。例如判断手势是男性作出的,则将手势信息与男性输入模型相匹配,判断所执行的操作;判断手势是女性作出的,则将手势信息与女性输入模型相匹配,判断所执行的操作;判断手势是小孩子作出的,则将手势信息与小孩子输入模型相匹配,判断所执行的操作。其中各个输入模型预先建立,可使用公知的方法建立输入模型。
实施例二
本申请还包括预先建立用户类型判断模型的步骤,如图2所示,包括如下步骤:
步骤S210、输入手势检测数据;包括如下子步骤:
获得手部图像;
使用传感器获得手部图像。
将手部图像与背景图像分离,获得手部数据;
对手部数据执行去噪处理,获得手势检测数据。
步骤S220、根据手势检测数据获得手指列表;包括如下子步骤:
根据手部检测数据获得手掌的方向和手指指尖的方向;
根据手掌的方向和指尖的方向所存在的夹角和手掌的法向量与指尖方向的夹角,判断每个手指尖所表示的每个手指,将获得的每个手指的手指数据记录在手指列表中。
步骤S230、根据手指的距离和方向信息,获得手部关节位置信息;包括如下子步骤:
根据手指列表获得每个手指的手指数据;
从手指数据中提取手指指尖坐标;
从手部检测数据中获得手腕坐标以及手心坐标;
依据手指指尖坐标、手腕坐标和手心坐标,获得手部关节位置信息。
所述手部关节位置信息包括五个手指的指尖坐标及手腕坐标,或者五个手指的指尖坐标及手心坐标。
步骤S240、根据手部关节位置信息对手势检测数据进行分类,获得多个类别,形成用户类型判断模型。
其中根据手部关节位置信息对手势检测数据进行分类,包括根据手部关节的位置、关节大小和关节间距离中的一个或多个分类参数进行分类。
例如男人的手关节粗大,手部关节大小大于预定阈值的判断为男人的手,从而形成男人分类。
女人的关节较小,手部关节大小小于预定阈值的判断为女人的手,从而形成女人分类。
小孩的手较小,关节距离较近,所以减少关节间的计算距离,从而形成小孩子分类。
进一步地,可根据实际需要设置用户类型。
其中预先建立用户类型判断模型还包括对用户类型判断模型进行调整的步骤:
步骤P110、使用建立的用户类型判断模型进行用户类型判断;
步骤P120、如果存在无法判断的手势检测数据,则对分类参数进行调整。
例如可调整关节间的计算距离,关节大小的阈值能。
实施例三
本申请提供一种手势识别系统,以实现上述实施例一和实施例二中的方法,该系统包括如下部件:
传感器310,获得手势检测数据;
处理器320,用以执行上述实施例一和实施例二中的方法。具体过程如上所示,再次不再赘述。
对应于图1中的方法,本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述安全控制的方法的步骤。
具体地,该存储介质能够为通用的存储介质,如移动磁盘、硬盘等,该存储介质上的计算机程序被运行时,能够执行上述在线签发eSIM证书的方法。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本申请的具体实施方式,用以说明本申请的技术方案,而非对其限制,本申请的保护范围并不局限于此,尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本申请实施例技术方案的精神和范围。都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (6)
1.一种手势识别方法,包括如下步骤:
获得手势检测数据;
根据手势检测数据获得手指列表;
根据手指的距离和方向信息,获得手部关节位置信息;
将手部关节位置信息输入用户类型判断模型,获得用户类型;
根据用户类型判断用户手势所执行的操作;
其中根据手部检测数据获得手指列表包括如下子步骤:
根据手部检测数据获得手掌的方向和手指指尖的方向;
根据手掌的方向和指尖的方向所存在的夹角和手掌的法向量与指尖方向的夹角,判断每个手指尖所表示的每个手指,将获得的每个手指的手指数据记录在手指列表中;
其中,用户类型判断模型根据手部关节位置信息对手势检测数据进行分类,包括根据手部关节的位置、关节大小和关节间距离中的一个或多个分类参数进行分类;
其中,根据用户类型判断用户手势所执行的操作包括:
判断手势是男性作出的,则将手势信息与男性输入模型相匹配,判断所执行的操作;判断手势是女性作出的,则将手势信息与女性输入模型相匹配,判断所执行的操作;判断手势是小孩子作出的,则将手势信息与小孩子输入模型相匹配,判断所执行的操作;
其中,根据手指的距离和方向信息,获得手部关节位置信息,包括如下子步骤:
根据手指列表获得每个手指的手指数据;
从手指数据中提取手指指尖坐标;
从手部检测数据中获得手腕坐标以及手心坐标;
依据手指指尖坐标、手腕坐标和手心坐标,获得手部关节位置信息。
2.如权利要求1所述的方法,其中预先建立用户类型判断模型,包括如下步骤:
输入手势检测数据;
根据手势检测数据获得手指列表;
根据手指的距离和方向信息,获得手部关节位置信息;
根据手部关节位置信息对手势检测数据进行分类,获得多个类别,形成用户类型判断模型。
3.如权利要求2所述的方法,其中预先建立用户类型判断模型还包括对用户类型判断模型进行调整的步骤:
使用建立的用户类型判断模型进行用户类型判断;
如果存在无法判断的手势检测数据,则对分类参数进行调整。
4.一种手势识别系统,包括如下部件:
传感器,获得手势检测数据;
处理器,执行如下操作:
根据手势检测数据获得手指列表;
根据手指的距离和方向信息,获得手部关节位置信息;
将手部关节位置信息输入用户类型判断模型,获得用户类型;
根据用户类型判断用户手势所执行的操作;
其中根据手部检测数据获得手指列表包括如下子步骤:
根据手部检测数据获得手掌的方向和手指指尖的方向;
根据手掌的方向和指尖的方向所存在的夹角和手掌的法向量与指尖方向的夹角,判断每个手指尖所表示的每个手指,将获得的每个手指的手指数据记录在手指列表中;
其中,用户类型判断模型根据手部关节位置信息对手势检测数据进行分类,包括根据手部关节的位置、关节大小和关节间距离中的一个或多个分类参数进行分类;
其中,根据用户类型判断用户手势所执行的操作包括:
判断手势是男性作出的,则将手势信息与男性输入模型相匹配,判断所执行的操作;判断手势是女性作出的,则将手势信息与女性输入模型相匹配,判断所执行的操作;判断手势是小孩子作出的,则将手势信息与小孩子输入模型相匹配,判断所执行的操作;
其中,根据手指的距离和方向信息,获得手部关节位置信息,包括如下子步骤:
根据手指列表获得每个手指的手指数据;
从手指数据中提取手指指尖坐标;
从手部检测数据中获得手腕坐标以及手心坐标;
依据手指指尖坐标、手腕坐标和手心坐标,获得手部关节位置信息。
5.如权利要求4所述的系统,其中预先建立用户类型判断模型,包括如下步骤:
输入手势检测数据;
根据手势检测数据获得手指列表;
根据手指的距离和方向信息,获得手部关节位置信息;
根据手部关节位置信息对手势检测数据进行分类,获得多个类别,形成用户类型判断模型。
6.如权利要求5所述的系统,其中预先建立用户类型判断模型还包括对用户类型判断模型进行调整的步骤:
使用建立的用户类型判断模型进行用户类型判断;
如果存在无法判断的手势检测数据,则对分类参数进行调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911376416.2A CN111142663B (zh) | 2019-12-27 | 2019-12-27 | 一种手势识别方法及手势识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911376416.2A CN111142663B (zh) | 2019-12-27 | 2019-12-27 | 一种手势识别方法及手势识别系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111142663A CN111142663A (zh) | 2020-05-12 |
CN111142663B true CN111142663B (zh) | 2024-02-02 |
Family
ID=70520947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911376416.2A Active CN111142663B (zh) | 2019-12-27 | 2019-12-27 | 一种手势识别方法及手势识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111142663B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069873A (zh) * | 2020-07-16 | 2020-12-11 | 上海大学 | 一种基于LeapMotion手势识别的屏幕控制系统及方法 |
CN112121280B (zh) * | 2020-08-31 | 2022-04-01 | 浙江大学 | 一种心音盒的控制方法及控制系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005091085A (ja) * | 2003-09-16 | 2005-04-07 | Gifu Univ | 非接触型関節角度計測システム |
JP2010072840A (ja) * | 2008-09-17 | 2010-04-02 | Denso Corp | 画像表示方法、画像表示装置及びそれを用いた操作装置 |
CN104750252A (zh) * | 2015-03-09 | 2015-07-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104899600A (zh) * | 2015-05-28 | 2015-09-09 | 北京工业大学 | 一种基于深度图的手部特征点检测方法 |
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106598227A (zh) * | 2016-11-15 | 2017-04-26 | 电子科技大学 | 基于Leap Motion和Kinect的手势识别方法 |
CN106909871A (zh) * | 2015-12-22 | 2017-06-30 | 江苏达科智能科技有限公司 | 手势指令识别方法 |
CN106970701A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种手势变化识别方法 |
CN108334899A (zh) * | 2018-01-28 | 2018-07-27 | 浙江大学 | 基于手骨x光片骨骼和关节量化信息集成的骨龄评估方法 |
CN108693958A (zh) * | 2017-04-12 | 2018-10-23 | 南方科技大学 | 一种手势识别方法、装置及系统 |
CN109117893A (zh) * | 2018-08-28 | 2019-01-01 | 华中师范大学 | 一种基于人体姿态的动作识别方法及装置 |
CN109597485A (zh) * | 2018-12-04 | 2019-04-09 | 山东大学 | 一种基于双指角域特征的手势交互系统及其工作方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6155786B2 (ja) * | 2013-04-15 | 2017-07-05 | オムロン株式会社 | ジェスチャ認識装置、ジェスチャ認識方法、電子機器、制御プログラムおよび記録媒体 |
-
2019
- 2019-12-27 CN CN201911376416.2A patent/CN111142663B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005091085A (ja) * | 2003-09-16 | 2005-04-07 | Gifu Univ | 非接触型関節角度計測システム |
JP2010072840A (ja) * | 2008-09-17 | 2010-04-02 | Denso Corp | 画像表示方法、画像表示装置及びそれを用いた操作装置 |
CN104750252A (zh) * | 2015-03-09 | 2015-07-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104899600A (zh) * | 2015-05-28 | 2015-09-09 | 北京工业大学 | 一种基于深度图的手部特征点检测方法 |
CN106909871A (zh) * | 2015-12-22 | 2017-06-30 | 江苏达科智能科技有限公司 | 手势指令识别方法 |
CN106970701A (zh) * | 2016-01-14 | 2017-07-21 | 芋头科技(杭州)有限公司 | 一种手势变化识别方法 |
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106598227A (zh) * | 2016-11-15 | 2017-04-26 | 电子科技大学 | 基于Leap Motion和Kinect的手势识别方法 |
CN108693958A (zh) * | 2017-04-12 | 2018-10-23 | 南方科技大学 | 一种手势识别方法、装置及系统 |
CN108334899A (zh) * | 2018-01-28 | 2018-07-27 | 浙江大学 | 基于手骨x光片骨骼和关节量化信息集成的骨龄评估方法 |
CN109117893A (zh) * | 2018-08-28 | 2019-01-01 | 华中师范大学 | 一种基于人体姿态的动作识别方法及装置 |
CN109597485A (zh) * | 2018-12-04 | 2019-04-09 | 山东大学 | 一种基于双指角域特征的手势交互系统及其工作方法 |
Non-Patent Citations (4)
Title |
---|
Design and Myoelectric Control of an Anthropomorphic Prosthetic Hand;Nianfeng Wang等;仿生工程学报(英文版);第14卷(第1期);全文 * |
基于Leap Motion指尖位置的手势提取和识别技术研究;周开店;谢钧;罗健欣;;微型机与应用(02);全文 * |
基于LeapMotion的数字手势识别;林书坦;尹长青;;电脑知识与技术(35);全文 * |
基于多维度特征融合的深度学习骨龄评估模型;刘鸣谦;兰钧;陈旭;于广军;杨秀军;;第二军医大学学报(08);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111142663A (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210271340A1 (en) | Gesture recognition devices and methods | |
CN108520058B (zh) | 一种商家信息推荐方法及移动终端 | |
CN107643828B (zh) | 车辆、控制车辆的方法 | |
US8847739B2 (en) | Fusing RFID and vision for surface object tracking | |
WO2019114696A1 (zh) | 一种增强现实的处理方法、对象识别的方法及相关设备 | |
US9430093B2 (en) | Monitoring interactions between two or more objects within an environment | |
KR102127932B1 (ko) | 전자 장치 및 그 제어 방법 | |
CN100392576C (zh) | 通过检查与笔的移动关联的参数检测停留动作的系统和方法 | |
US20150052431A1 (en) | Techniques for image-based search using touch controls | |
TWI512550B (zh) | A method and a module for identifying a user of a mobile device, and a computer program product | |
CN103493006A (zh) | 基于位置来阻止用户内容 | |
CN104966016B (zh) | 移动终端儿童用户协作式判断及限制操作权限的方法 | |
US9696815B2 (en) | Method, device, system and non-transitory computer-readable recording medium for providing user interface | |
CN111142663B (zh) | 一种手势识别方法及手势识别系统 | |
KR101978265B1 (ko) | 손 모양 및 동작 인식장치 및 방법 | |
CN109543014B (zh) | 人机对话方法、装置、终端及服务器 | |
KR20180027502A (ko) | 터치 압력을 검출하기 위한 커패시턴스의 사용 방법 | |
WO2019000817A1 (zh) | 手势识别控制方法和电子设备 | |
CN108932102A (zh) | 数据处理方法、装置以及移动终端 | |
KR101899590B1 (ko) | 손 모양 및 동작 인식장치 및 방법 | |
US20160357301A1 (en) | Method and system for performing an action based on number of hover events | |
CN103870812A (zh) | 一种获取掌纹图像的方法及系统 | |
KR20190128536A (ko) | 전자 장치 및 그 제어 방법 | |
Jia et al. | Real‐time hand gestures system based on leap motion | |
US20150309681A1 (en) | Depth-based mode switching for touchless gestural interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |