CN105677031A - 基于手势轨迹识别的控制方法和装置 - Google Patents

基于手势轨迹识别的控制方法和装置 Download PDF

Info

Publication number
CN105677031A
CN105677031A CN201610008456.1A CN201610008456A CN105677031A CN 105677031 A CN105677031 A CN 105677031A CN 201610008456 A CN201610008456 A CN 201610008456A CN 105677031 A CN105677031 A CN 105677031A
Authority
CN
China
Prior art keywords
gesture
target trajectory
data
user
point set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610008456.1A
Other languages
English (en)
Other versions
CN105677031B (zh
Inventor
邹超洋
徐文杰
刘伟高
邓孜俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Hua Xin Electronic Science And Technology Co Ltd
Original Assignee
Guangzhou Hua Xin Electronic Science And Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Hua Xin Electronic Science And Technology Co Ltd filed Critical Guangzhou Hua Xin Electronic Science And Technology Co Ltd
Priority to CN201610008456.1A priority Critical patent/CN105677031B/zh
Publication of CN105677031A publication Critical patent/CN105677031A/zh
Application granted granted Critical
Publication of CN105677031B publication Critical patent/CN105677031B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种基于手势轨迹识别的控制方法及装置,该方法包括:获取通过各深度传感器采集的用户手势;判断采集的用户手势与预设操控权限手势是否相匹配;若相匹配,获取与预设操控权限手势相匹配的用户手势的第一关节点数据;获取通过各所述深度传感器采集的各用户的第二关节点数据;将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。本发明实施例方案可以满足多人操控需求,尤其是满足多人操控时的操控权限分配的需求,从而扩大手势识别的交互控制范围,且简单、实时,易于工程应用。

Description

基于手势轨迹识别的控制方法和装置
技术领域
本发明涉及交互控制领域,特别是涉及一种基于手势轨迹识别的控制方法及一种基于手势轨迹识别的控制装置。
背景技术
随着技术的发展,通过识别手势轨迹,并基于识别的手势轨迹实现与主机的交互已经成为人机交互的一个重要发展方向。目前的利用手势轨迹识别实现与主机交互的方式主要有三种:一种是使用者佩戴特殊道具,例如特殊手套,用以辅助识别或提升识别手势区域效果,但这种方式使用不便;第二种是使用普通彩色摄像头,通过对拍摄得到的图像进行肤色、运动、纹理等信息分割并跟踪人手区域,实现动态手势的识别,但这种方式受环境影响较为严重,很难达到商用要求;第三种则是根据深度传感器抓取深度图像,根据深度图像分割出手势区域,实现手势区域的跟踪识别。第三种方式是目前手势识别方案中最稳定的一种方案,因此应用的较为广泛。目前典型的这种深度传感器设备包括有微软kinect、苹果收购的primesense、intel的RealSense等。
然而,目前的基于深度传感器的人机交互,通常是实现与人体的同步动作,或者是简单的交互控制,在这种交互控制中,一般是涉及单个用户的交互控制,难以满足多人的操控需求。
发明内容
基于此,本发明实施例的目的在于提供一种基于手势轨迹识别的控制方法及一种基于手势轨迹识别的控制装置,其可以满足多人操控需求,从而扩大手势识别的交互控制范围,且简单、实时,易于工程应用。
为达到上述目的,本发明实施例采用以下技术方案:
一种基于手势轨迹识别的控制方法,包括步骤:
获取通过各深度传感器采集的用户手势;
判断采集的用户手势与预设操控权限手势是否相匹配;
若相匹配,获取与预设操控权限手势相匹配的用户手势的第一关节点数据;
获取通过各所述深度传感器采集的各用户的第二关节点数据;
将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;
将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
一种基于手势轨迹识别的控制装置,包括:
手势获取模块,用于获取通过各深度传感器采集的用户手势;
手势匹配模块,用于判断采集的用户手势与预设操控权限手势是否相匹配;
手势数据获取模块,用于在所述手势匹配模块的判定结果为匹配时,获取与预设操控权限手势相匹配的用户手势的第一关节点数据;
用户数据获取模块,用于获取通过各所述深度传感器采集的各用户的第二关节点数据;
用户匹配模块,用于将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;
控制权限确定模块,用于将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
根据如上所述的本发明实施例的方案,其是在通过深度传感器采集的用户手势出现预设操控权限手势时,通过获取采集的用户手势的第一关节点收据,并将该第一关节点数据与深度传感器采集的各用户的第二关节点数据进行匹配,并将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限,从而在出现预设操控权限手势时,同时满足关节点数据匹配条件的情况下设置控制权限,其可以满足多人操控需求,尤其是满足多人操控时的操控权限分配的需求,从而扩大手势识别的交互控制范围,且简单、实时,易于工程应用。
附图说明
图1是一个实施例中本发明方案的应用环境的示意图;
图2是一个实施例中本发明的基于手势轨迹识别的控制方法的流程示意图;
图3是一个实施例中本发明的基于手势轨迹识别的控制装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步的详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不限定本发明的保护范围。
图1中示出了一个实施例中本发明方案的应用环境的示意图。如图1所示,本发明方案涉及基于深度传感器的操作。各用户300分别在各深度传感器200的有效操控范围内做出相关的手势动作,各深度传感器200可以抓取其有效操控范围内的深度图像,并从抓取的深度图像中确定出手势区域,实现手势区域的跟踪识别,相关的智能交互设备100可以基于深度传感器识别的手势识别结果,做出相关的交互控制。本发明实施例方案,涉及的是有多个深度传感器200、以及多个用户300的情况下,各用户300在各深度传感器200的有效操控范围内做出相关的手势动作后,智能交互设备100通过对各深度传感器200采集的用户手势进行分析,在出现了预设操控权限手势之后、并将与出现的该手势的第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限,以满足多人操控需求,尤其是满足多人操控时的操控权限分配的需求。
图2中示出了一个实施例中本发明的基于手势轨迹识别的控制方法的流程示意图。如图2所示,本实施例中的方法包括步骤:
步骤S201:获取通过各深度传感器采集的用户手势,其中,基于目前的深度传感器,通过对采集的深度图像进行分析来确定出对应的用户手势,因此,这里的获取各深度传感器采集的用户手势的过程可以是采用目前已有的各种可能的方式进行;
步骤S202:判断采集的用户手势与预设操控权限手势是否相匹配,具体的,可以是预先设定有一个预设操控权限手势,在采集的用户手势出现了预设操控权限手势时,则认为是相匹配,若相匹配,即判断采集到了预设操控权限手势,则进入步骤S203;
步骤S203:获取与预设操控权限手势相匹配的用户手势的第一关节点数据;
步骤S204:获取通过各所述深度传感器采集的各用户的第二关节点数据;
步骤S205:将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;
步骤S206:将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
根据如上所述的本发明实施例的方案,其是在通过深度传感器采集的用户手势出现预设操控权限手势时,通过获取采集的用户手势的第一关节点收据,并将该第一关节点数据与深度传感器采集的各用户的第二关节点数据进行匹配,并将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限,从而在出现预设操控权限手势时,同时满足关节点数据匹配条件的情况下设置控制权限,其可以满足多人操控需求,尤其是满足多人操控时的操控权限分配的需求,从而扩大手势识别的交互控制范围,且简单、实时,易于工程应用。
其中,在上述步骤S206中将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限之后,还可以进一步将除了所述用户标识之外的其他用户标识的权限设置为无控制权限(图2中的步骤S207),从而确保同一时刻只有一个用户ID处于具有控制权限的状态,实现单用户控制,使得多个设备并联的控制权能够统一处理。
在一个具体示例中,上述步骤S205中将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据的方式具体可以是:
计算所述第一关节点数据与各用户的第二关节点数据的欧氏距离;
将欧氏距离最小的第二关节点数据判定为与所述第一关节点数据相匹配的第二关节点数据。
也就是说,在出现了预设操控权限手势的情况下,与出现的预设操控权限手势欧氏距离最近的用户才具有控制权限。即,针对需要获得控制权限的用户,在用户做出了预设操控权限手势的情况下,只有在同时满足欧式距离最小的情况下,才会具有控制权限。
在将用户标识的权限设定为具有控制权限之后,可以是设定为只针对该用户标识对应的手势运动轨迹进行识别和相关指令的触发处理。据此,在一个具体示例中,如图2所示,本实施例中的方法还可以包括步骤:
步骤S208:获取通过各深度传感器采集的与所述用户标识对应的手部运动轨迹,基于所述手部运动轨迹确定当前的目标轨迹点集,所述目标轨迹点集包括当前轨迹点以及所述当前轨迹点的相邻轨迹点;
步骤S209:对所述目标轨迹点集进行分析,确定所述目标轨迹点集的目标轨迹特征,将所述目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析,判断是否与对应的指令触发条件相匹配,若匹配,则进入步骤S210;
步骤S210:发出匹配的指令触发条件对应的控制指令。
在此情况下,是针对具有控制权限的用户标识对应的手部运动轨迹,确定当前的目标轨迹点集,并对目标轨迹点集的目标轨迹特征进行分析,再将分析得到的目标轨迹特征与各指令触发条件的轨迹特征信息进行匹配分析,就可以匹配出是否满足对应的指令触发条件,并在匹配时发出对应的控制指令。即,只对具有控制权限的用户标识对应的手势动作来触发相应的控制指令。
其中,在一个具体示例中,在上述步骤S209中判定不匹配任何指令触发条件的情况下,还可以是在更新所述目标轨迹点集后,重新对更新后的目标轨迹点集进行分析。其中,更新目标轨迹点集的方式具体可以是:删除所述目标轨迹点集中时间最早的轨迹点、将采集的新的当前轨迹点加入所述目标轨迹点集。
其中,上述目标轨迹点集,可以是通过队列的方式来实现,例如通过先入先出的方式按照各轨迹点加入该队列。在需要对目标轨迹点集进行更新时,将目标轨迹点集队首最早的一帧轨迹点的数据清除后,再将最新得到的新的当前轨迹点的数据插入到队尾,构造出新的目标轨迹点集的队列,从而实现对目标轨迹点集的更新。
其中,上述步骤S209中将目标轨迹点集的目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析的过程,可以采用任何可能的方式进行。
此外,在一个具体示例中,在上述步骤S210发出与匹配的指令触发条件对应的控制指令之后,还可以对清除上述目标轨迹点集,并在间隔预定间隔时间段后,返回上述获取目标轨迹点集的步骤,重新构建目标轨迹点集。从而实现交互控制的连续性,且通过预定间隔时间段的设置,可以避免连续的发出控制指令,保证交互控制的性能。
基于如上所述的本发明实施例的方法,以下结合其中一个具体应用示例进行详细举例说明。
在本发明实施例方案执行之前,需先定义预设操控权限手势,这里的预设操控权限手势可以是任何一种可能的手势,例如向上、向下、向左、向右、先向前后向后等等。
随后,在实际运行过程中,首先获取通过各深度传感器采集的用户手势。获取各深度传感器采集的用户手势的过程可以是采用目前已有的各种可能的方式进行,基于目前的深度传感器,通过对采集的深度图像进行分析来确定出对应的用户手势,在本发明实施例方案中,可以直接从各深度传感器获得手势识别结果。
判断获取的用户手势是否与预设操控权限手势是否相匹配。以预设操控权限手势为向右为例,则具体可以是判断获取的用户手势中是否出现了向右的手势,如果出现,则认为是与预设操控权限手势相匹配,即采集到了预设操控权限手势。
获取与预设操控权限手势相匹配的用户手势的第一关节点数据,这里的第一关节点数据,是指用以匹配出与预设操控权限手势相匹配的相关关节点数据,与该关节点数据是是对应于哪个用户无关,具体可以是对应的身体关节点数据或者手部关节点数据,基于深度传感器,可以很容易就获得该第一关节点数据。
随后,获取各深度传感器采集的各用户的第二关节点数据。这里的第二关节点数据,是指通过深度传感器采集的不同用户的关节点数据,该关节点数据与是否出现了上述预设操控权限手势无关,不同的用户对应着不同的第二关节点数据,具体可以是各用户对应的身体关节点数据或者手部关节点数据,基于深度传感器,可以很容易就获得该第二关节点数据。
然后计算用户手势的第一关节点数据与各用户的第二关节点数据的欧式距离,并经欧式距离最小的第二关节点数据判定为与所述第一关节点数据相匹配的第二关节点数据。
以将第一关节点数据记为A为例,假设各用户1、2、3……N的第二关节点数据分别记为B1、B2、B3、……BN,则具体可以是计算A与B1、B2、B3、……BN之间的欧氏距离E1、E2、E3……EN。从计算得到的所有欧氏距离中找到最小是min{E1、E2、E3……EN},假设最小的欧氏距离为Ei,则将Ei对应的第二关节点数据作为与所述第一关节点数据相匹配的第二关节点数据。
然后,将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
在确定了控制权限之后,即可以实现对用户标识对应的手势运动轨迹进行识别和相关指令的触发处理。具体可以是如下所述。
获取通过各深度传感器采集的与所述用户标识对应的手部运动轨迹,基于所述手部运动轨迹确定当前的目标轨迹点集,所述目标轨迹点集包括当前轨迹点以及所述当前轨迹点的相邻轨迹点。
对所述目标轨迹点集进行分析,确定所述目标轨迹点集的目标轨迹特征,将所述目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析,判断是否与对应的指令触发条件相匹配。基于实际需要的不同,该目标轨迹特征可以包括不同的内容,在一个具体示例中,该目标轨迹特征包括运动方向、轨迹长度、运动速度以及运动角度中的任意一项或者任意组合。相对应地,该轨迹特征信息可以包括运动方向范围、轨迹长度范围、运动速度范围以及运动角度范围中的任意一种或任意组合。将目标轨迹点集的目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析的过程,可以采用任何可能的方式进行。
若匹配,则发出该匹配的指令触发条件对应的控制指令,例如左方向键、右方向建、向上键、向下键,实现图片浏览、PPT文档翻页以及游戏方向控制等。本领域技术人员可以理解,在设定的指令触发条件是对应其他指令的情况下,发出的则是所设定的相关指令。在发出匹配的指令触发条件对应的控制指令之后,清除上述目标轨迹点集,并在间隔预定间隔时间段后,返回上述获取目标轨迹点集的步骤,重新构建目标轨迹点集。从而实现交互控制的连续性,且通过预定间隔时间段的设置,可以避免连续的发出控制指令,保证交互控制的性能。
若不匹配,则接收下一帧新的轨迹点数据,并将目标轨迹点集队列的头部最早的数据帧的轨迹点数据清除,并将最新读取的一帧轨迹点数据加入目标轨迹点集队列的尾部,构建最新轨迹点集,从而形成新的目标轨迹点集队列,进行下一轮的轨迹点集特征匹配的过程。
基于与上述本发明实施例的基于手势轨迹识别的控制方法相同的思想,本发明实施例还提供一种基于手势轨迹识别的控制装置。图3中示出了一个实施例中本发明的装置的结构示意图。
如图3所示,本实施例中的基于手势轨迹识别的控制装置包括:
手势获取模块301,用于获取通过各深度传感器采集的用户手势;
手势匹配模块302,用于判断采集的用户手势与预设操控权限手势是否相匹配;
手势数据获取模块303,用于在所述手势匹配模块302的判定结果为匹配时,获取与预设操控权限手势相匹配的用户手势的第一关节点数据;
用户数据获取模块304,用于获取通过各所述深度传感器采集的各用户的第二关节点数据;
用户匹配模块305,用于将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;
控制权限确定模块306,用于将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
根据如上所述的本发明实施例的方案,其是在通过深度传感器采集的用户手势出现预设操控权限手势时,通过获取采集的用户手势的第一关节点收据,并将该第一关节点数据与深度传感器采集的各用户的第二关节点数据进行匹配,并将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限,从而在出现预设操控权限手势时,同时满足关节点数据匹配条件的情况下设置控制权限,其可以满足多人操控需求,尤其是满足多人操控时的操控权限分配的需求,从而扩大手势识别的交互控制范围,且简单、实时,易于工程应用。
其中,上述控制权限设定模块306,在将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限之后,还可以进一步将除了所述用户标识之外的其他用户标识的权限设置为无控制权限。从而确保同一时刻只有一个用户ID处于具有控制权限的状态,实现单用户控制,使得多个设备并联的控制权能够统一处理。
在一个具体示例中,如图3所示,本实施例中的用户匹配模块305可以包括:
距离计算模块3051,用于计算所述第一关节点数据与各用户的第二关节点数据的欧氏距离;
匹配结果确定模块3052,用于将欧氏距离最小的第二关节点数据判定为与所述第一关节点数据相匹配的第二关节点数据。
也就是说,在出现了预设操控权限手势的情况下,与出现的预设操控权限手势欧氏距离最近的用户才具有控制权限。即,针对需要获得控制权限的用户,在用户做出了预设操控权限手势的情况下,只有在同时满足欧式距离最小的情况下,才会具有控制权限。
在将用户标识的权限设定为具有控制权限之后,可以是设定为只针对该用户标识对应的手势运动轨迹进行识别和相关指令的触发处理。据此,在一个具体示例中,如图3所示,本实施例中的装置还可以包括:
目标点集确定模块307,用于获取通过各深度传感器采集的与所述用户标识对应的手部运动轨迹,基于所述手部运动轨迹确定当前的目标轨迹点集,所述目标轨迹点集包括当前轨迹点以及所述当前轨迹点的相邻轨迹点;
匹配分析模块308,用于对所述目标轨迹点集进行分析,确定所述目标轨迹点集的目标轨迹特征,将所述目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析,判断是否与对应的指令触发条件相匹配;
指令控制模块309,用于在所述匹配分析模块308的判定结果为匹配时,发出匹配的指令触发条件对应的控制指令。
在此情况下,是针对具有控制权限的用户标识对应的手部运动轨迹,确定当前的目标轨迹点集,并对目标轨迹点集的目标轨迹特征进行分析,再将分析得到的目标轨迹特征与各指令触发条件的轨迹特征信息进行匹配分析,就可以匹配出是否满足对应的指令触发条件,并在匹配时发出对应的控制指令。即,只对具有控制权限的用户标识对应的手势动作来触发相应的控制指令。
其中,在一个具体示例中,目标点集确定模块307,还用于在所述匹配分析模块308的判定结果为不匹配时,更新所述目标轨迹点集,以重新对更新后的目标轨迹点集进行分析。更新所述目标轨迹点集的方式包括:删除所述目标轨迹点集中时间最早的轨迹点、将采集的新的当前轨迹点加入所述目标轨迹点集。
其中,上述目标轨迹点集,可以是通过队列的方式来实现,例如通过先入先出的方式按照各轨迹点加入该队列。在需要对目标轨迹点集进行更新时,将目标轨迹点集队首最早的一帧轨迹点的数据清除后,再将最新得到的新的当前轨迹点的数据插入到队尾,构造出新的目标轨迹点集的队列,从而实现对目标轨迹点集的更新。
其中,匹配分析模块308将目标轨迹点集的目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析的过程,可以采用任何可能的方式进行。
此外,在一个具体示例中,目标点集确定模块307,还用于在所述指令控制模块309发出控制指令之后,清除所述目标轨迹点集。另一方面,该目标点集确定模块307还可以在清除所述目标轨迹点集预定间隔时间段后,重新基于所述手部运动轨迹确定当前的目标轨迹点集。从而实现交互控制的连续性,且通过预定间隔时间段的设置,可以避免连续的发出控制指令,保证交互控制的性能。
本发明实施例装置中的其他技术特征,与上述方法实施例中的相同,在此不再详加赘述。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于手势轨迹识别的控制方法,其特征在于,包括步骤:
获取通过各深度传感器采集的用户手势;
判断采集的用户手势与预设操控权限手势是否相匹配;
若相匹配,获取与预设操控权限手势相匹配的用户手势的第一关节点数据;
获取通过各所述深度传感器采集的各用户的第二关节点数据;
将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;
将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
2.根据权利要求1所述的基于手势轨迹识别的控制方法,其特征在于,将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析的方式包括:
计算所述第一关节点数据与各用户的第二关节点数据的欧氏距离;
将欧氏距离最小的第二关节点数据判定为与所述第一关节点数据相匹配的第二关节点数据。
3.根据权利要求1或2所述的基于手势轨迹识别的控制方法,其特征在于,还包括步骤:将除了所述用户标识之外的其他用户标识的权限设置为无控制权限。
4.根据权利要求1或2所述的基于手势轨迹识别的控制方法,其特征在于,在将第二关节点数据对应的用户标识的权限设定为具有控制权限之后,还包括步骤:
获取通过各深度传感器采集的与所述用户标识对应的手部运动轨迹,基于所述手部运动轨迹确定当前的目标轨迹点集,所述目标轨迹点集包括当前轨迹点以及所述当前轨迹点的相邻轨迹点;
对所述目标轨迹点集进行分析,确定所述目标轨迹点集的目标轨迹特征,将所述目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析,判断是否与对应的指令触发条件相匹配;
若匹配,发出匹配的指令触发条件对应的控制指令。
5.根据权利要求4所述的基于手势轨迹识别的控制方法,其特征在于,包括下述各项中的任意一项或者任意组合:
在发出匹配的指令触发条件对应的控制指令之后,清除所述目标轨迹点集;
在发出匹配的指令触发条件对应的控制指令之后,清除所述目标轨迹点集,并在距离预定时间段后,返回基于所述手部运动轨迹确定当前的目标轨迹点集的步骤;
在所述比对分析的结果为与对应的指令触发条件不匹配时,还包括步骤:更新所述目标轨迹点集,返回对所述目标轨迹点集进行分析,更新所述目标轨迹点集的方式包括:删除所述目标轨迹点集中时间最早的轨迹点、将采集的新的当前轨迹点加入所述目标轨迹点集;
所述目标轨迹特征包括运动方向、轨迹长度、运动速度以及运动角度中的任意一项或者任意组合,所述预设各指令触发条件的轨迹特征信息中包括运动方向范围、轨迹长度范围、运动速度范围以及运动角度范围中的任意一种或任意组合。
6.一种基于手势轨迹识别的控制装置,其特征在于,包括:
手势获取模块,用于获取通过各深度传感器采集的用户手势;
手势匹配模块,用于判断采集的用户手势与预设操控权限手势是否相匹配;
手势数据获取模块,用于在所述手势匹配模块的判定结果为匹配时,获取与预设操控权限手势相匹配的用户手势的第一关节点数据;
用户数据获取模块,用于获取通过各所述深度传感器采集的各用户的第二关节点数据;
用户匹配模块,用于将所述用户手势的第一关节点数据与各用户的第二关节点数据进行匹配分析,确定与所述第一关节点数据相匹配的第二关节点数据;
控制权限确定模块,用于将与所述第一关节点数据相匹配的第二关节点数据对应的用户标识的权限设定为具有控制权限。
7.根据权利要求6所述的基于手势轨迹识别的控制装置,其特征在于,所述用户匹配模块包括:
距离计算模块,用于计算所述第一关节点数据与各用户的第二关节点数据的欧氏距离;
匹配结果确定模块,用于将欧氏距离最小的第二关节点数据判定为与所述第一关节点数据相匹配的第二关节点数据。
8.根据权利要求6或7所述的基于手势轨迹识别的控制装置,其特征在于:
所述控制权限设定模块,还用于将除了所述用户标识之外的其他用户标识的权限设置为无控制权限。
9.根据权利要求6或7所述的基于手势轨迹识别的控制装置,其特征在于,还包括:
目标点集确定模块,用于获取通过各深度传感器采集的与所述用户标识对应的手部运动轨迹,基于所述手部运动轨迹确定当前的目标轨迹点集,所述目标轨迹点集包括当前轨迹点以及所述当前轨迹点的相邻轨迹点;
匹配分析模块,用于对所述目标轨迹点集进行分析,确定所述目标轨迹点集的目标轨迹特征,将所述目标轨迹特征与预设的各指令触发条件的轨迹特征信息进行比对分析,判断是否与对应的指令触发条件相匹配;
指令控制模块,用于在所述匹配分析模块的判定结果为匹配时,发出匹配的指令触发条件对应的控制指令。
10.根据权利要求9所述的基于手势轨迹识别的控制装置,其特征在于,包括下述各项中的任意一项或者任意组合:
所述目标点集确定模块,还用于在所述指令控制模块发出匹配的指令触发条件对应的控制指令之后,清除所述目标轨迹点集;
所述目标点集确定模块,还用于在所述指令控制模块发出匹配的指令触发条件对应的控制指令之后,清除所述目标轨迹点集,并在清除所述目标轨迹点集预定时间段后,重新基于所述手部运动轨迹确定当前的目标轨迹点集;
所述目标点集确定模块,还用于在所述匹配分析模块的判定结果为不匹配时,更新所述目标轨迹点集,更新所述目标轨迹点集的方式包括:删除所述目标轨迹点集中时间最早的轨迹点、将采集的新的当前轨迹点加入所述目标轨迹点集;
所述目标轨迹特征包括运动方向、轨迹长度、运动速度以及运动角度中的任意一项或者任意组合,所述预设各指令触发条件的轨迹特征信息中包括运动方向范围、轨迹长度范围、运动速度范围以及运动角度范围中的任意一种或任意组合。
CN201610008456.1A 2016-01-04 2016-01-04 基于手势轨迹识别的控制方法和装置 Active CN105677031B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610008456.1A CN105677031B (zh) 2016-01-04 2016-01-04 基于手势轨迹识别的控制方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610008456.1A CN105677031B (zh) 2016-01-04 2016-01-04 基于手势轨迹识别的控制方法和装置

Publications (2)

Publication Number Publication Date
CN105677031A true CN105677031A (zh) 2016-06-15
CN105677031B CN105677031B (zh) 2018-12-11

Family

ID=56299290

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610008456.1A Active CN105677031B (zh) 2016-01-04 2016-01-04 基于手势轨迹识别的控制方法和装置

Country Status (1)

Country Link
CN (1) CN105677031B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106873779A (zh) * 2017-02-24 2017-06-20 苏州佳世达电通有限公司 一种手势识别装置及手势识别方法
CN106933346A (zh) * 2017-01-20 2017-07-07 深圳奥比中光科技有限公司 车内操控空间的区划方法和设备
CN107292295A (zh) * 2017-08-03 2017-10-24 华中师范大学 手势分割方法及装置
CN107340861A (zh) * 2017-06-26 2017-11-10 联想(北京)有限公司 手势识别方法及其设备
CN108121446A (zh) * 2017-12-25 2018-06-05 邱亮南 交互方法和系统
CN108268181A (zh) * 2017-01-04 2018-07-10 奥克斯空调股份有限公司 一种非接触式手势识别的控制方法及装置
CN108274448A (zh) * 2018-01-31 2018-07-13 佛山智能装备技术研究院 一种人体交互的机器人示教方法及示教系统
CN109240494A (zh) * 2018-08-23 2019-01-18 京东方科技集团股份有限公司 电子显示板的控制方法、计算机可读存储介质和控制系统
CN110611788A (zh) * 2019-09-26 2019-12-24 上海赛连信息科技有限公司 手势控制视频会议终端的方法和装置
CN113377211A (zh) * 2021-08-16 2021-09-10 北京亮亮视野科技有限公司 一种手势识别方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102375681A (zh) * 2010-08-17 2012-03-14 Lg电子株式会社 显示设备及其控制方法
CN104474710A (zh) * 2014-12-09 2015-04-01 山东大学 基于Kinect网络的大规模场景群体用户跟踪系统与方法
US20150098625A1 (en) * 2013-10-04 2015-04-09 Industrial Technology Research Institute System and method of multi-user coaching inside a tunable motion-sensing range

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102375681A (zh) * 2010-08-17 2012-03-14 Lg电子株式会社 显示设备及其控制方法
US20150098625A1 (en) * 2013-10-04 2015-04-09 Industrial Technology Research Institute System and method of multi-user coaching inside a tunable motion-sensing range
CN104474710A (zh) * 2014-12-09 2015-04-01 山东大学 基于Kinect网络的大规模场景群体用户跟踪系统与方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108268181A (zh) * 2017-01-04 2018-07-10 奥克斯空调股份有限公司 一种非接触式手势识别的控制方法及装置
CN106933346B (zh) * 2017-01-20 2019-07-26 深圳奥比中光科技有限公司 车内操控空间的区划方法和设备
CN106933346A (zh) * 2017-01-20 2017-07-07 深圳奥比中光科技有限公司 车内操控空间的区划方法和设备
CN106873779A (zh) * 2017-02-24 2017-06-20 苏州佳世达电通有限公司 一种手势识别装置及手势识别方法
CN106873779B (zh) * 2017-02-24 2020-05-08 苏州佳世达电通有限公司 一种手势识别装置及手势识别方法
CN107340861A (zh) * 2017-06-26 2017-11-10 联想(北京)有限公司 手势识别方法及其设备
CN107340861B (zh) * 2017-06-26 2020-11-20 联想(北京)有限公司 手势识别方法及其设备
CN107292295A (zh) * 2017-08-03 2017-10-24 华中师范大学 手势分割方法及装置
CN107292295B (zh) * 2017-08-03 2019-12-24 华中师范大学 手势分割方法及装置
CN108121446A (zh) * 2017-12-25 2018-06-05 邱亮南 交互方法和系统
CN108121446B (zh) * 2017-12-25 2018-11-30 邱亮南 交互方法和系统
CN108274448A (zh) * 2018-01-31 2018-07-13 佛山智能装备技术研究院 一种人体交互的机器人示教方法及示教系统
CN109240494A (zh) * 2018-08-23 2019-01-18 京东方科技集团股份有限公司 电子显示板的控制方法、计算机可读存储介质和控制系统
CN109240494B (zh) * 2018-08-23 2023-09-12 京东方科技集团股份有限公司 电子显示板的控制方法、计算机可读存储介质和控制系统
CN110611788A (zh) * 2019-09-26 2019-12-24 上海赛连信息科技有限公司 手势控制视频会议终端的方法和装置
CN113377211A (zh) * 2021-08-16 2021-09-10 北京亮亮视野科技有限公司 一种手势识别方法、装置、设备和介质

Also Published As

Publication number Publication date
CN105677031B (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
CN105677031A (zh) 基于手势轨迹识别的控制方法和装置
CN110434853B (zh) 一种机器人控制方法、装置及存储介质
CN103970264B (zh) 手势辨识与控制方法及其装置
CN111798487B (zh) 目标跟踪方法、装置和计算机可读存储介质
US8417026B2 (en) Gesture recognition methods and systems
CN102854983A (zh) 一种基于手势识别的人机交互方法
CN112887480B (zh) 音频信号处理方法、装置、电子设备和可读存储介质
CN104933734A (zh) 一种基于多kinect的人体姿态数据融合方法
CN111787223A (zh) 视频拍摄方法、装置和电子设备
CN104966011A (zh) 移动终端儿童用户非协作式判断及限制操作权限的方法
CN107357414B (zh) 一种点击动作的识别方法及点击动作识别装置
CN103500010A (zh) 一种视频人手指尖定位方法
CN111656313A (zh) 屏幕显示切换方法、显示设备、可移动平台
CN104732212A (zh) 方向控制方法、方向控制系统和终端
CN109189219A (zh) 基于手势识别的非接触式虚拟鼠标的实现方法
CN105677032A (zh) 基于深度传感设备的控制方法及装置
RU2552192C2 (ru) Способ и система для взаимодействия человек-машина, основанного на жестах, и машиночитаемый носитель для этого
CN109725722B (zh) 有屏设备的手势控制方法和装置
CN115421591B (zh) 手势控制装置和摄像设备
KR101289883B1 (ko) 영역 별로 임계치를 다르게 적용한 마스크 이미지 생성 장치 및 그 방법
Ghodichor et al. Virtual mouse using hand gesture and color detection
Shaker et al. Real-time finger tracking for interaction
CN114610156A (zh) 基于ar/vr眼镜的交互方法、装置及ar/vr眼镜
KR20170136655A (ko) 사용자의 손톱이나 발톱에 관한 시각적인 정보에 기초하여 사용자 입력을 결정하는 방법 및 장치
CN104035560A (zh) 一种基于摄像头的人机实时交互方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant