CN109202886A - 基于固定背景下的手势识别方法及系统 - Google Patents

基于固定背景下的手势识别方法及系统 Download PDF

Info

Publication number
CN109202886A
CN109202886A CN201710520561.8A CN201710520561A CN109202886A CN 109202886 A CN109202886 A CN 109202886A CN 201710520561 A CN201710520561 A CN 201710520561A CN 109202886 A CN109202886 A CN 109202886A
Authority
CN
China
Prior art keywords
manpower
condition
background
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710520561.8A
Other languages
English (en)
Inventor
邹风山
徐方
姜楠
宋健
李邦宇
潘鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Siasun Robot and Automation Co Ltd
Original Assignee
Shenyang Siasun Robot and Automation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Siasun Robot and Automation Co Ltd filed Critical Shenyang Siasun Robot and Automation Co Ltd
Priority to CN201710520561.8A priority Critical patent/CN109202886A/zh
Publication of CN109202886A publication Critical patent/CN109202886A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及计算机视觉技术领域,具体公开一种基于固定背景下的手势识别方法,包括以下步骤:S1、将手势识别背景固定为黑色背景,进行黑色背景建模;S2、获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像;S3、对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态;S4、利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度;S5、根据当前人手的闭合程度控制机器人的手掌闭合。本发明具有系统计算量小、对硬件配置要求低,有效解决对人手进行细微的识别与姿态估计的问题、识别人手的闭合程度的有益效果。

Description

基于固定背景下的手势识别方法及系统
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种基于固定背景下的手势识别方法及系统。
背景技术
手势识别技术是最为重要的人机交互技术之一,通过对人手势的识别来让机器人更好的理解人的意图与命令。当今常用的手势识别技术是采用3D相机来实现,利用3D相机独有的深度信息来简化手势识别与跟踪的处理。常用的3D相机有微软的Kinect、英特尔的RealSense传感器等,这两家的SDK中都有各自的手势识别技术供使用。但是为了能使用两种传感器,需要硬件板卡具有很高的配置,这在提升机器人成本的同时也增加了集成的困难。同时对于一些特定的任务或场景,手势识别的背景或环境可以人为限制,不需要使用3D传感器来完成相应的任务。本发明提出了一种新的基于固定背景下的手势识别方法,该方法仅需要较少的计算资源,且可以实现对人手张闭合程度的判断与估计,从而可以更好的作为机器人的输入控制命令。
发明内容
本发明旨在克服现有手势识别系统计算量大、对硬件配置要求高的技术缺陷,提供一种基于固定背景下的手势识别方法及系统。
为实现上述目的,本发明采用以下技术方案:
本发明提供一种基于固定背景下的手势识别方法,包括以下步骤:
S1、将手势识别背景固定为黑色背景,进行所述黑色背景建模;
S2、获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像;
S3、对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态;
S4、利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度;
S5、根据当前人手的闭合程度控制机器人的手掌闭合。
一些实施例中,步骤S2具体为:摄像头连续采集若干张没有人手的图像,计算出图像中像素的均值与方差;取每个像素的均值作为背景模板、方差作为误差范围;当有人手伸入其中时,图像中的像素发生变化,利用背景减除获得人手的前景图像。
一些实施例中,采用Graham扫描法来求解凸包的顶点。
一些实施例中,步骤S4中利用图像细化算法获取人手骨架的具体过程为:遍历待细化的区域,设定条件来判断当前点是否要被删除,余下的点即为细化出的骨架。
一些实施例中,步骤S4中,对于点P1,遍历其周围的8邻域,所述8邻域分别为P2、P3、P4、P5、P6、P7、P8、P9
进行第一阶段删除,当满足以下条件时,则删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P8×P6=0
条件4:P4×P8×P6=0
其中,Z0(P1)是以P2-P9为序时,这些点的值从0到1变化的次数,N(P1)是P1的非零临近点的个数;
进行第二阶段删除,当满足的条件如下时,删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P4×P6=0
条件4:P2×P4×P8=0。
对应的,本发明还公开一种基于固定背景下的手势识别系统,包括以下模块:用于手势识别固定背景的黑色背景模块、黑色背景建模模块、人手前景图像获取模块、凸包与凸缺陷检测模块、图像细化模块、机器人手掌控制模块;
黑色背景建模模块进行黑色背景建模,人手前景图像获取模块获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像,凸包与凸缺陷检测模块对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态,图像细化模块利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度,机器人手掌控制模块根据当前人手的闭合程度控制机器人的手掌闭合。
一些实施例中,人手前景图像获取模块连续采集若干张没有人手的图像,计算出图像中像素的均值与方差;取每个像素的均值作为背景模板、方差作为误差范围;当有人手伸入其中时,图像中的像素发生变化,利用背景减除获得人手的前景图像。
一些实施例中,凸包与凸缺陷检测模块采用Graham扫描法来求解凸包的顶点。
一些实施例中,图像细化模块遍历待细化的区域,设定条件来判断当前点是否要被删除,将余下的点作为细化出的骨架。
一些实施例中,图像细化模块删除点的过程为:对于点P1,遍历其周围的8邻域,所述8邻域分别为P2、P3、P4、P5、P6、P7、P8、P9
进行第一阶段删除,当满足以下条件时,则删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P8×P6=0
条件4:P4×P8×P6=0
其中,Z0(P1)是以P2-P9为序时,这些点的值从0到1变化的次数,N(P1)是P1的非零临近点的个数;
进行第二阶段删除,当满足的条件如下时,删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P4×P6=0
条件4:P2×P4×P8=0。
本发明的有益效果在于:本发明提供的基于固定背景下的手势识别方法手势识别具有系统计算量小、对硬件配置要求低,有效解决了对人手进行细微的识别与姿态估计的问题,可以有效的识别人手的闭合程度,并且对于非剧烈的光线变化具有较好的鲁棒性;可得到较大的人手区域,因此可获得较好的人手闭合的分辨力。
附图说明
图1是本发明基于固定背景下的手势识别方法的流程图;
图2是本发明待删除点周围8邻域图;
图3是本发明的人手张合图;
图4是本发明基于固定背景下的手势识别系统的模块图;
图5是本发明基于固定背景下的手势识别方法的实验效果图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本发明主要提出一种可以在板卡配置较低、背景固定的环境下使用的手势识别系统,并可以对人手的掌握程度进行判断与量化估计,进而来控制机器人的手掌闭合,形成主从动系统。
请参阅图1,为本发明的基于固定背景下的手势识别方法。具体流程如下:执行步骤S1,将手势识别背景固定为黑色背景,在人手未伸入时对黑色背景进行建模。手势识别背景为固定的黑色背景。
执行步骤S2,获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像。首先让摄像头连续采集若干张没有人手的图像,然后计算出图像中像素的均值与方差。然后取每个像素的均值作为背景模板,方差作为误差范围。当有人手伸入其中时,图像中的像素发生较大的变化,从而利用背景减除直接可获得前景的人手。
执行步骤S3,对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态。为实现凸包检测,本发明采用Graham扫描法来求解凸包的顶点。其求解方法为设置一个堆栈,将点集合中全部的点压入其中,然后依次进行判断,若当前点不是凸包上的顶点,则将其弹出。最后堆栈中剩余的点即为凸包上的顶点。
执行步骤S4,利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度。在经过人手区域的凸分析后,可以得到一定的人手姿态信息,但并不完全,也无法估算出人手的闭合程度。因此使用图像细化技术对人手的联通区域进一步的分析,以提取出人手的骨架信息,从而有利于估算人手的闭合程度。图像细化算法就是将一个二值图像区域去掉一些点,但仍然保持原有的形状,得到其区域的骨架。细化算法需满足以下几点特性:
1.算法要具有收敛性;
2.保证细化后细线的连通性;
3.保持原图的基本形状;
4.减少相交处的畸变;
5.细化迭代次数要少,速度要快。
细化算法的执行是遍历待细化的区域,根据一定的条件来判断当前点是否要被删除,最后余下的点即为细化出的骨架。请参阅图2,为遍历到点P1时其周围的8邻域,其8邻域分别为P2、P3、P4、P5、P6、P7、P8、P9,对其8邻域按照下面的两个过程进行分析,以判断当前的点是否要被删除。
若以下四个条件均得到满足,则删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P8×P6=0
条件4:P4×P8×P6=0
其中,Z0(P1)是以P2-P9为序时,这些点的值从0到1变化的次数,N(P1)是P1的非零临近点的个数。若判定需要删除的点暂不删除,则进行记录,等所有边界点都被判断完成后,再一起将所有标记的点删除。
下面进入第二阶段的删除,第二阶段要删除的点的条件如下:
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P4×P6=0
条件4:P2×P4×P8=0。
执行步骤S5,根据当前人手的闭合程度控制机器人的手掌闭合。请参阅图3,使用者在进行初次使用时,需将手掌全部张开并伸入手势识别环境中。系统将此时人手的张伸量作为最大的情况。记录下此时人手的AC和BC的像素距离作为此人手张开的最大量。当人手完全闭合成为拳头时,AC和BC的数值为0。在其间任意其他姿态时,则可利用AC和BC的数值,分别得到四指和拇指的闭合量化数值。
在已知人手姿态时,根据上图所示即可获得AC和BC的像素距离,根据以下公式即可获得此时机器人手掌四指(拇指同理)应运动的姿态。
其中,Hmax是机器人手掌张开最大时对应的电机控制数值,ACmax即系统计算的人手张开最大时对应的AC的像素距离,ACnow即为当前图像中AC的像素距离,Hcontrol即为当前要求解的发给手掌驱动器的控制命令数值。这样就可根据人手运动的姿态,来让机器人手掌产生从动的状态。
本发明的方法在背景固定的场景下,可以有效的识别人手的闭合程度,并且对于非剧烈的光线变化具有较好的鲁棒性。由于本专利提出的环境中相机距离人手较近,因此可以得到较大的人手区域,因此可获得较好的人手闭合的分辨力。该方法应用于服务机器人上,通过人手的张闭来控制机器人手跟随的张闭,可用于机器人的远程操控等。
请参阅图4,为基于固定背景下的手势识别系统的模块图。基于固定背景下的手势识别系统包括以下模块:
用于手势识别固定背景的黑色背景模块、黑色背景建模模块、人手前景图像获取模块、凸包与凸缺陷检测模块、图像细化模块、机器人手掌控制模块;
黑色背景建模模块进行黑色背景建模,人手前景图像获取模块获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像,凸包与凸缺陷检测模块对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态,图像细化模块利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度,机器人手掌控制模块根据当前人手的闭合程度控制机器人的手掌闭合。
人手前景图像获取模块连续采集若干张没有人手的图像,计算出图像中像素的均值与方差;取每个像素的均值作为背景模板、方差作为误差范围;当有人手伸入其中时,图像中的像素发生变化,利用背景减除获得人手的前景图像。
凸包与凸缺陷检测模块采用Graham扫描法来求解凸包的顶点。
图像细化模块遍历待细化的区域,设定条件来判断当前点是否要被删除,将余下的点作为细化出的骨架。图像细化模块删除点的过程为:对于点P1,遍历其周围的8邻域,所述8邻域分别为P2、P3、P4、P5、P6、P7、P8、P9
进行第一阶段删除,当满足以下条件时,则删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P8×P6=0
条件4:P4×P8×P6=0
其中,Z0(P1)是以P2-P9为序时,这些点的值从0到1变化的次数,N(P1)是P1的非零临近点的个数。
进行第二阶段删除,当满足的条件如下时,删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P4×P6=0
条件4:P2×P4×P8=0。
请参阅图5,为本发明实验的效果图。其中左上角第一幅为原始图像;右上角的图给出了当前最大的凸缺陷及其顶点;左下角的图给出了进行背景分割后的分割前景;最后一幅图给出了图像细化后得到的人手骨架。
本发明提出的方法可用于对人手进行细微的识别与姿态估计,可用于人工的机器人示教作业。或像本发明所提出的使用方法,构建一个主从动系统,以对人手的识别与姿态估计作为主控,机器人的手的张闭作为从动装置,进而可以实现机器人的远程操作来进行相对精细的操作。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
以上对本发明所提供的基于固定背景下的手势识别方法及系统进行了详细介绍,对于本领域的一般技术人员,依据本发明实施例的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于固定背景下的手势识别方法,其特征在于,包括以下步骤:
S1、将手势识别背景固定为黑色背景,进行所述黑色背景建模;
S2、获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像;
S3、对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态;
S4、利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度;
S5、根据当前人手的闭合程度控制机器人的手掌闭合。
2.如权利要求1所述的基于固定背景下的手势识别方法,其特征在于,步骤S2具体为:
摄像头连续采集若干张没有人手的图像,计算出图像中像素的均值与方差;
取每个像素的均值作为背景模板、方差作为误差范围;
当有人手伸入其中时,图像中的像素发生变化,利用背景减除获得人手的前景图像。
3.如权利要求1所述的基于固定背景下的手势识别方法,其特征在于,步骤S3中,采用Graham扫描法来求解凸包的顶点。
4.如权利要求1所述的基于固定背景下的手势识别方法,其特征在于,步骤S4中利用图像细化算法获取人手骨架的具体过程为:
遍历待细化的区域,设定条件来判断当前点是否要被删除,余下的点即为细化出的骨架。
5.如权利要求4所述的基于固定背景下的手势识别方法,其特征在于,步骤S4中,对于点P1,遍历其周围的8邻域,所述8邻域分别为P2、P3、P4、P5、P6、P7、P8、P9
进行第一阶段删除,当满足以下条件时,则删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P8×P6=0
条件4:P4×P8×P6=0
其中,Z0(P1)是以P2-P9为序时,这些点的值从0到1变化的次数,N(P1)是P1的非零临近点的个数;
进行第二阶段删除,当满足的条件如下时,删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P4×P6=0
条件4:P2×P4×P8=0。
6.一种基于固定背景下的手势识别系统,其特征在于,包括以下模块:
用于手势识别固定背景的黑色背景模块、黑色背景建模模块、人手前景图像获取模块、凸包与凸缺陷检测模块、图像细化模块、机器人手掌控制模块;
黑色背景建模模块进行黑色背景建模,人手前景图像获取模块获取人手伸入时的图像,基于建立好的背景建模,使用背景减除来获得人手的前景图像,凸包与凸缺陷检测模块对所述前景图像中的人手进行凸包与凸缺陷检测,获得当前人手的大体姿态,图像细化模块利用图像细化算法获取人手的骨架,获得人手的基本结构,从而估算出当前人手的闭合程度,机器人手掌控制模块根据当前人手的闭合程度控制机器人的手掌闭合。
7.如权利要求6所述的基于固定背景下的手势识别系统,其特征在于,人手前景图像获取模块连续采集若干张没有人手的图像,计算出图像中像素的均值与方差;取每个像素的均值作为背景模板、方差作为误差范围;当有人手伸入其中时,图像中的像素发生变化,利用背景减除获得人手的前景图像。
8.如权利要求6所述的基于固定背景下的手势识别系统,其特征在于,凸包与凸缺陷检测模块采用Graham扫描法来求解凸包的顶点。
9.如权利要求6所述的基于固定背景下的手势识别系统,其特征在于,图像细化模块遍历待细化的区域,设定条件来判断当前点是否要被删除,将余下的点作为细化出的骨架。
10.如权利要求6所述的基于固定背景下的手势识别系统,其特征在于,图像细化模块删除点的过程为:
对于点P1,遍历其周围的8邻域,所述8邻域分别为P2、P3、P4、P5、P6、P7、P8、P9
进行第一阶段删除,当满足以下条件时,则删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P8×P6=0
条件4:P4×P8×P6=0
其中,Z0(P1)是以P2-P9为序时,这些点的值从0到1变化的次数,N(P1)是P1的非零临近点的个数;
进行第二阶段删除,当满足的条件如下时,删除点P1
条件1:2≤N(P1)≤6
条件2:Z0(P1)=1
条件3:P2×P4×P6=0
条件4:P2×P4×P8=0。
CN201710520561.8A 2017-06-30 2017-06-30 基于固定背景下的手势识别方法及系统 Pending CN109202886A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710520561.8A CN109202886A (zh) 2017-06-30 2017-06-30 基于固定背景下的手势识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710520561.8A CN109202886A (zh) 2017-06-30 2017-06-30 基于固定背景下的手势识别方法及系统

Publications (1)

Publication Number Publication Date
CN109202886A true CN109202886A (zh) 2019-01-15

Family

ID=64976974

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710520561.8A Pending CN109202886A (zh) 2017-06-30 2017-06-30 基于固定背景下的手势识别方法及系统

Country Status (1)

Country Link
CN (1) CN109202886A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111568197A (zh) * 2020-02-28 2020-08-25 佛山市云米电器科技有限公司 智能检测方法、系统及存储介质
CN112917470A (zh) * 2019-12-06 2021-06-08 鲁班嫡系机器人(深圳)有限公司 一种机械手的示教方法、装置、系统、存储介质及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402680A (zh) * 2010-09-13 2012-04-04 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
CN102930277A (zh) * 2012-09-19 2013-02-13 上海珍岛信息技术有限公司 一种基于识别反馈的字符图像验证码识别方法
US20140161310A1 (en) * 2012-12-07 2014-06-12 Pixart Imaging Inc. Device and Method for Determining Gesture and Operation Method of Gesture Determining Device
CN103926999A (zh) * 2013-01-16 2014-07-16 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备
CN104766038A (zh) * 2014-01-02 2015-07-08 株式会社理光 手掌开合动作识别方法和装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102402680A (zh) * 2010-09-13 2012-04-04 株式会社理光 人机交互系统中手部、指示点定位方法和手势确定方法
CN102930277A (zh) * 2012-09-19 2013-02-13 上海珍岛信息技术有限公司 一种基于识别反馈的字符图像验证码识别方法
US20140161310A1 (en) * 2012-12-07 2014-06-12 Pixart Imaging Inc. Device and Method for Determining Gesture and Operation Method of Gesture Determining Device
CN103926999A (zh) * 2013-01-16 2014-07-16 株式会社理光 手掌开合手势识别方法和装置、人机交互方法和设备
CN104766038A (zh) * 2014-01-02 2015-07-08 株式会社理光 手掌开合动作识别方法和装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
杨帆等: "《精通图像处理经典算法MATLAB版》", 30 April 2014, 北京航空航天大学出版社 *
潘金贵等: "《现代计算机常用数据结构和算法》", 31 March 1994, 南京大学出版社 *
郑继刚: "《基于MATLAB的数字图像处理研究》", 31 December 2010, 云南大学出版社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112917470A (zh) * 2019-12-06 2021-06-08 鲁班嫡系机器人(深圳)有限公司 一种机械手的示教方法、装置、系统、存储介质及设备
CN111568197A (zh) * 2020-02-28 2020-08-25 佛山市云米电器科技有限公司 智能检测方法、系统及存储介质

Similar Documents

Publication Publication Date Title
CN107066935B (zh) 基于深度学习的手部姿态估计方法及装置
CN108197547A (zh) 人脸姿态估计方法、装置、终端及存储介质
CN104156693B (zh) 一种基于多模态序列融合的动作识别方法
Lei et al. Cadex: Learning canonical deformation coordinate space for dynamic surface representation via neural homeomorphism
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN109145766A (zh) 模型训练方法、装置、识别方法、电子设备及存储介质
CN108399383A (zh) 表情迁移方法、装置存储介质及程序
CN109190559A (zh) 一种手势识别方法、手势识别装置及电子设备
CN106446862A (zh) 一种人脸检测方法及系统
CN104583925B (zh) 图像处理设备、方法及程序
CN108073851B (zh) 一种抓取手势识别的方法、装置及电子设备
JP7282216B2 (ja) 単眼スチルカメラのビデオにおけるレイヤードモーションの表現と抽出
CN110796018A (zh) 一种基于深度图像和彩色图像的手部运动识别方法
Stephan et al. Gesture Recognition for Human-Computer Interaction (HCI).
CN109241810A (zh) 虚拟角色图像的构建方法及装置、存储介质
CN110751097A (zh) 一种半监督的三维点云手势关键点检测方法
Cao et al. Real-time gesture recognition based on feature recalibration network with multi-scale information
CN107272899A (zh) 一种基于动态手势的vr交互方法、装置及电子设备
CN115761905A (zh) 一种基于骨骼关节点的潜水员动作识别方法
CN115816460A (zh) 一种基于深度学习目标检测与图像分割的机械手抓取方法
CN109815854A (zh) 一种用于在用户设备上呈现图标的关联信息的方法与设备
CN109325493A (zh) 一种基于人形机器人的文字识别方法及人形机器人
CN109202886A (zh) 基于固定背景下的手势识别方法及系统
Hasan et al. Gesture recognition using modified HSV segmentation
CN106778579B (zh) 一种基于累计属性的头部姿态估计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190115

RJ01 Rejection of invention patent application after publication