CN205080500U - 一种具有3d摄像组件的电子设备 - Google Patents

一种具有3d摄像组件的电子设备 Download PDF

Info

Publication number
CN205080500U
CN205080500U CN201520687547.3U CN201520687547U CN205080500U CN 205080500 U CN205080500 U CN 205080500U CN 201520687547 U CN201520687547 U CN 201520687547U CN 205080500 U CN205080500 U CN 205080500U
Authority
CN
China
Prior art keywords
hand
unit
gesture
sequence
characteristic point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201520687547.3U
Other languages
English (en)
Inventor
李建英
朱磊
韩琦
杨晓光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Yishe Technology Co Ltd
Original Assignee
Harbin Yishe Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Yishe Technology Co Ltd filed Critical Harbin Yishe Technology Co Ltd
Priority to CN201520687547.3U priority Critical patent/CN205080500U/zh
Application granted granted Critical
Publication of CN205080500U publication Critical patent/CN205080500U/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本实用新型提供了一种具有3D摄像组件的电子设备,该设备包括:3D摄像单元、轮廓检测单元、特征点序列确定单元、动作识别单元、手势识别单元、指令确定单元和执行单元,3D摄像单元连接轮廓检测单元,轮廓检测单元连接特征点序列确定单元,特征点序列确定单元连接动作识别单元,动作识别单元连接手势识别单元,手势识别单元连接指令确定单元,指令确定单元连接执行单元。本实用新型的上述技术能够在人机交互过程中准确识别使用者的手势,识别精度较高,识别速度快。

Description

一种具有3D摄像组件的电子设备
技术领域
本实用新型涉及计算机技术,尤其涉及一种具有3D摄像组件的电子设备。
背景技术
随着移动计算设备从笔记本电脑到手机、平板电脑的演化,移动计算设备的操控方式也经历了从键盘、鼠标到手机按键、手写板,再到触摸屏、虚拟键盘的进化,可以看到,移动设备的操控方式是朝着越来越直观、简便,并且符合人的自然习惯的方向进化的。
目前在移动计算设备上广泛使用的基于触摸屏的操控方式,技术上是将一块透明的触摸感应屏和显示屏贴合在一起,触摸感应屏实质上是一个定位装置,能够捕捉到屏幕上的触摸动作并获取其位置,同时结合时间轴信息,将动作识别其为点触、长触、滑动等动作之一。进而将位置和动作信息作为指令传递给移动计算设备,移动计算设备基于该指令做出相应的操作反应。由于触摸感应屏与显示屏是叠加在一起的,因此带给使用者“所点即所想”的使用感受,相比鼠标、触控板等定位设备需要通过光标反馈位置的输入方式,屏幕触控方式带来更好的使用体验。
屏幕触控方式相比键盘加鼠标的方式,更加符合人的直观反应、更容易学习,但是屏幕触控方式毕竟只捕捉到了人体手指的动作,在一些需要更多使用者本体信息输入的场合,比如运动游戏、模拟训练、复杂操控、远距离操控等,屏幕触控方式就显示出其捕获人体信息过于单一的局限性了。从人机交互的角度,更多的使用者信息的获取,将能够传达更丰富、更精准的使用者操作意图,因此必然能够带来更便利的操控方法和更好的使用体验。然而,目前的人机交互技术中的手势识别处理所采用的算法较为复杂、耗费时间且识别精度低的问题。
实用新型内容
在下文中给出了关于本实用新型的简要概述,以便提供关于本实用新型的某些方面的基本理解。应当理解,这个概述并不是关于本实用新型的穷举性概述。它并不是意图确定本实用新型的关键或重要部分,也不是意图限定本实用新型的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于此,本实用新型提供了一种具有3D摄像组件的电子设备,以至少解决现有的人机交互技术中的手势识别处理所采用的算法较为复杂、耗费时间且识别精度低的问题。
根据本实用新型的一个方面,提供了一种具有3D摄像组件的电子设备,该电子设备包括:3D摄像单元、轮廓检测单元、特征点序列确定单元、动作识别单元、手势识别单元、指令确定单元和执行单元,所述3D摄像单元连接所述轮廓检测单元,所述轮廓检测单元连接所述特征点序列确定单元,所述特征点序列确定单元连接所述动作识别单元,所述动作识别单元连接所述手势识别单元,所述手势识别单元连接所述指令确定单元,所述指令确定单元连接所述执行单元;其中,所述3D摄像单元捕获含有深度信息的使用者手部的待测图像序列;所述轮廓检测单元根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;所述特征点序列确定单元针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;所述动作识别单元针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;所述手势识别单元在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;所述指令确定单元根据预设操作指令表,确定与所述已识别手势对应的操作指令;所述执行单元对与确定的操作指令相关的设备进行与该操作指令对应的操作。
进一步地,特征点序列确定单元包括:模板存储子单元,用于存储预设的手部结构模板;模板匹配子单元,用于针对使用者的每只手,利用预设的手部结构模板,在待测图像序列的每帧图像的手部轮廓中确定该只手的预定数目个特征点;序列生成子单元,用于针对使用者的每只手,利用该只手在待测图像序列的各帧图像中对应的预定数目个特征点,获得该只手的待测特征点序列。
进一步地,3D摄像单元包括两个3D摄像头。
进一步地,模板匹配子单元包括:定位基点确定模块,其用于针对待测图像序列的每帧图像,根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点,以将指尖点作为定位基点;缩放基准确定模块,其用于针对定位基点确定模块处理后的每帧图像,基于该帧图像中已找到的定位基点,匹配每个单指的指根关节点,得到各单指的长度来作为尺度缩放的基准;缩放及形变模块,其用于针对缩放基准确定模块处理后的每帧图像,基于已找到的指尖点和指根关节点的位置以及各单指的长度来对相应的手部结构模板进行缩放和形变,通过匹配得到每只手的各指关节特征点和手腕中点特征点;其中,模板存储子单元存储的手部结构模板包括左手结构模板和右手结构模板,左手结构模板和右手结构模板各自包括:各手指的指尖特征点、各指关节特征点、各指根关节特征点、手腕中点特征点以及各特征点之间的拓扑关系。
进一步地,动作识别单元包括:分割子单元,用于针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置;匹配序列确定子单元,用于针对每只手对应的每个子序列,将该子序列与多个预设特征点序列中的每一个分别进行匹配,在多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值、并且最大的预设特征点序列,作为该子序列的匹配序列;关联子单元,用于将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联;动作名称确定子单元,用于针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称作为该只手的多个动作名称。
进一步地,手势识别单元包括:手势表存储子单元,用于存储如下映射列表来作为预设手势表:该映射列表中的每个映射的左端是一组动作名称对及每个动作名称对的位置;该映射列表中的每个映射的右端是一个手势;手势表匹配子单元,用于将预设手势表中的每个映射的左端与使用者双手的动作名称和位置进行匹配,其中,动作名称的匹配执行严格匹配,而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的。
进一步地,具有3D摄像组件的电子设备还包括:实时显示单元,用于基于使用者每只手的位置在设备的屏幕上显示使用者手部的模拟图形。
进一步地,电子设备为以下之一:手机、多媒体播放设备、台式机、笔记本电脑以及平板电脑。
上述根据本实用新型实施例的具有3D摄像组件的电子设备,先识别单手动作、再通过双手动作识别手势,进而根据已识别手势来执行对应操作,在人机交互过程中能够准确识别使用者的手势,识别精度较高,而且识别速度较快。
此外,由于本实用新型实施例采用深度摄像头获取使用者的人体动作作为操作移动计算设备的输入操控指令,因此能够令使用者使用更加直观、便利的自然动作实现对移动计算设备的非接触式操控,为移动计算设备在诸如运动游戏、模拟训练、复杂操控、远距离操控等领域中的应用提供更加便捷精准的输入、控制。
本实用新型的上述具有3D摄像组件的电子设备采用层次化设计算法,算法复杂度低,便于实现。
此外,应用本实用新型的上述具有3D摄像组件的电子设备,当需要改变(例如修改、增加或减少等)对动作和/或手势的定义时,可以仅通过调整模板(即,通过修改预设特征点序列对应的动作名称来改变动作的定义,通过增加或减少预设特征点序列及其对应动作名称来增、减动作)以及预设手势表(即,通过修改预设手势表中手势对应的多个动作来改变手势的定义,通过增加或减少预设手势表中的手势及其对应动作来增、减手势),而不需改变算法或者重新训练分类器,大大提高了算法的适应性。
此外,本实用新型的上述具有3D摄像组件的电子设备的实时性强,能够适合即时交互需求的场合。
通过以下结合附图对本实用新型的最佳实施例的详细说明,本实用新型的这些以及其他优点将更加明显。
附图说明
本实用新型可以通过参考下文中结合附图所给出的描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分,而且用来进一步举例说明本实用新型的优选实施例和解释本实用新型的原理和优点。在附图中:
图1是示出本实用新型的具有3D摄像组件的电子设备的一个示例的结构示意图;
图2是示出图1中的特征点序列确定单元130的一个示例的结构示意图;
图3是示出图2中的模板匹配子单元220的一个示例的结构示意图;
图4是示出图1中的动作识别单元140的一个示例的结构示意图;
图5是示出图1中的手势确定单元150的一个示例的结构示意图;
图6是示出本实用新型的具有3D摄像组件的电子设备的另一个示例的结构示意图。
本领域技术人员应当理解,附图中的元件仅仅是为了简单和清楚起见而示出的,而且不一定是按比例绘制的。例如,附图中某些元件的尺寸可能相对于其他元件放大了,以便有助于提高对本实用新型实施例的理解。
具体实施方式
在下文中将结合附图对本实用新型的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本实用新型,在附图中仅仅示出了与根据本实用新型的方案密切相关的装置结构和/或处理步骤,而省略了与本实用新型关系不大的其他细节。
本实用新型的实施例提供了一种具有3D摄像组件的电子设备,该电子设备包括:3D摄像单元、轮廓检测单元、特征点序列确定单元、动作识别单元、手势识别单元、指令确定单元和执行单元,所述3D摄像单元连接所述轮廓检测单元,所述轮廓检测单元连接所述特征点序列确定单元,所述特征点序列确定单元连接所述动作识别单元,所述动作识别单元连接所述手势识别单元,所述手势识别单元连接所述指令确定单元,所述指令确定单元连接所述执行单元;其中,所述3D摄像单元捕获含有深度信息的使用者手部的待测图像序列;所述轮廓检测单元根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;所述特征点序列确定单元针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;所述动作识别单元针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;所述手势识别单元在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;所述指令确定单元根据预设操作指令表,确定与所述已识别手势对应的操作指令;所述执行单元对与确定的操作指令相关的设备进行与该操作指令对应的操作。上述具有3D摄像组件的电子设备例如可以是以下设备中的任一种:手机、多媒体播放设备、台式机、笔记本电脑以及平板电脑。
图1示出了本实用新型的具有3D摄像组件的电子设备的一个示例的结构示意图。如图1所示,具有3D摄像组件的电子设备100包括3D摄像单元110、轮廓检测单元120、特征点序列确定单元130、动作识别单元140、手势识别单元150、指令确定单元160以及执行单元170。
3D摄像单元110用于获取含有深度信息的使用者手部的待测图像序列。其中,3D摄像单元110例如可以包括两个3D摄像头。3D摄像头为包括可见光图像传感器和红外图像传感器的深度摄像头,可见光图像传感器用于获得可见光图像序列而红外图像传感器的深度摄像头则用于获得红外图像序列
轮廓检测单元120用于根据图像深度信息和图像颜色信息,在待测图像序列的每帧图像中检测出使用者的手部轮廓。其中,检测出的手部轮廓可能是双手轮廓,也可能是单手轮廓。
特征点序列确定单元130用于针对使用者的每只手,利用预设的手部结构模板,在待测图像序列的每帧图像中确定该只手的待测特征点序列
动作识别单元140用于针对使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据匹配序列确定该只手的动作名称和位置。
手势确定单元150用于在预设手势表中选择与使用者双手的动作名称和位置相匹配的手势,作为已识别手势。
指令确定单元160用于根据预设操作指令表,确定与已识别手势对应的操作指令。
执行单元170用于对与确定的操作指令相关的设备进行与该操作指令对应的操作。由此,将确定的操作指令发送到相关设备,能够实现对诸如移动计算设备的相关设备的拟人化、自然化、非接触的操作与控制。
根据一种实现方式,3D摄像单元110可以用于:通过捕获预定成像区域内的使用者手部的图像,(例如可以利用深度摄像头上的可见光图像传感器和红外图像传感器)获得可见光图像序列和红外图像序列为可见光图像序列第i帧图像坐标(x,y)处的像素值,而为红外图像序列第i帧图像坐标(x,y)处的像素值,根据如下公式可以得到抽取使用者双手信息的图像序列:
I T i ( x , y ) = &alpha;I I i ( x , y ) + &beta;I C i ( x , y ) 2 I I i ( x , y ) &GreaterEqual; &lambda; 0 I I i ( x , y ) < &lambda;
其中,α、β、λ为预设参数阈值,这些预设参数阈值可以根据经验值来设定,也可以通过试验的方法来确定(例如通过实际使用特定型号的深度摄像头采集到的样本图像训练得到),这里不再赘述。为获取的含有深度信息的使用者双手的图像序列,作为上述待测图像序列。此外,i=1,2,…,M,M为待测图像序列中所包括的图像帧数。
需要说明的是,根据使用者手势所使用的手数量的不同(单只或双只),在预定成像区域内所捕获的图像可能是包含使用者双手的图像,也可能是仅包含使用者单只手的图像。另外,获取的待测图像序列可以是在一个时间段内获得的,该时间段可以预先根据经验值设置,例如可为10秒。
根据一种实现方式,轮廓检测单元120可以用于:针对待测图像序列中的每帧图像结合颜色信息删除该帧图像中的噪声点及非肤色区域,利用边缘检测算子E(·)对删除噪声点和非肤色区域后所得到的图像进行边缘检测,从而得到边缘图像
I T f i ( x , y ) = E ( I T e i ( x , y ) )
边缘图像即为仅包含使用者手部轮廓的图像。
其中,在“结合颜色信息删除该帧图像中的噪声点及非肤色区域”的处理过程中,可以利用现有的去噪方法来删除图像中的噪声点,并可以通过计算图像的均值来得到肤色区域,则肤色区域之外的区域即为非肤色区域,即可实现对非肤色区域的删除。例如,得到图像的均值之后,在该均值上下浮动一个范围,得到包含该均值的一个颜色范围,当图像中某点的颜色值落在这个颜色范围之内,则将该点确定是肤色点,否则认为不是肤色点;所有肤色点构成肤色区域,其余为非肤色区域。
由此,通过轮廓检测单元120的处理,能够快速检测出使用者的手部轮廓,提高了整个处理的速度和效率。
根据一种实现方式,特征点序列确定单元130可以包括如图2所示的模板存储子单元210、模板匹配子单元220和序列生成子单元230。
其中,模板存储子单元210可以用于存储预设的手部结构模板。
根据一种实现方式,手部结构模板可以包括左手结构模板和右手结构模板,左手结构模板和右手结构模板各自包括预定数目个特征点以及各特征点之间的拓扑关系。
在一个例子中,左手结构模板和右手结构模板可以各自包括如下20(作为预定数目的示例,但预定数目并不限于20,也可为19、21等数值)个特征点:各手指的指尖特征点(5个)、各指关节特征点(9个)、各指根关节特征点(5个)、手腕中点特征点(1个)。
如图2所示,模板匹配子单元220可以针对使用者的每只手,利用上述预设的手部结构模板,分别将待测图像序列的每帧图像中的手部轮廓与手部结构模板(左右结构模板和右手结构模板)进行匹配、对齐,得到该帧图像手部轮廓中的预定数目个(例如20个)特征点。
然后,序列生成子单元230可以针对使用者的每只手,利用该只手在待测图像序列的各帧图像中对应的预定数目个特征点(即特征点集),获得该只手的待测特征点序列。
这样,通过手部结构模板与之前获得的每个手部轮廓(即待测图像序列的每帧图像中的手部轮廓)进行匹配等处理,能够快速、准确地获得每个手部轮廓中的预定数目个特征点。由此,能够使得后续处理利用这些轮廓中的所述预定数目个特征点来进一步实现手势识别,相比于现有技术,提高了整个人机交互处理的速度和准确度。
在现有技术中,当根据不同应用场景需要改变(例如修改、增加或减少等)对动作的定义时,需要修改算法以及重新训练分类器;在本实用新型中,可以仅通过调整动作模板(即预设特征点序列)来实现对动作定义的改变,大大提高了手势识别技术的适应性。
在一个例子中,模板匹配子单元220可以包括如图3所示的定位基点确定模块310、缩放基准确定模块320和缩放及形变模块330。
根据人类双手的生理结构特征,可以通过定位基点确定模块310、缩放基准确定模块320和缩放及形变模块330对每只手提取20(作为预定数目的示例)个特征点。
针对待测图像序列的每帧图像执行以下处理:首先,通过定位基点确定模块310根据该图像中的轮廓线的曲率找到该轮廓线中的指尖点和指根关节点;接着,缩放基准确定模块320基于定位基点确定模块310已找到的该帧图像的轮廓线中的定位基点,匹配每个单指的指根关节点,得到各单指的长度作为尺度缩放的基准;最后,缩放及形变模块330基于已找到的指尖点和指根关节点的位置以及得到的各单指的长度两方面的参数对相应的手部结构模板进行缩放和形变,通过匹配得到每只手其余的10个特征点,即每只手的各指关节特征点和手腕中点特征点。
例如,在找轮廓线中的指尖点和指根关节点的过程中,可以将其中曲率最大的凸点作为指尖点,将曲率最大的凹点作为指缝最低点,并将每个指尖点到该指尖点相邻的指缝最低点之间的距离定义为该指尖点对应的单位长度。对每两个相邻的指缝最低点,将此二点的中点再往手掌方向延伸三分之一单位长度(此时的单位长度为此二点之间的指尖点对应的单位长度)的点,定义为该指尖点对应的指根关节点,由此可以得到每只手的中间3个指根关节点。除此之外,对于每只手来说,可以通过在后续缩放和形变的过程中获得该只手的首尾两个指根关节点;或者,也可以将该只手的两个(例如任意选两个)相邻的指缝最低点之间的距离作为手指参考宽度,然后将该只手的首尾两个指缝最低点各沿切线方向、向外延伸半个手指参考宽度,得到的点分别作为该只手的首尾两个指根关节点。
需要说明的是,如果对于单只手所找到的凸点多于5个,可以在将其与手部结构模板进行匹配对齐的过程中将多余的凸点去除。
由此,通过定位基点确定模块310、缩放基准确定模块320和缩放及形变模块330,可以匹配得到每一帧图像对应的左手的20个特征点pl={pl1,pl2,…,pl20}和右手的20个特征点pr={pr1,pr2,…,pr20}。需要说明的是,若使用者手势仅包含单只手,则通过以上匹配所得到的是该单只手在每帧图像中的20个特征点(称为特征点集),即pl={pl1,pl2,…,pl20}或pr={pr1,pr2,…,pr20}。其中,pl1,pl2,…,pl20分别为左手20个特征点的位置,而pr1,pr2,…,pr20分别为右手20个特征点的位置。
若使用者手势包含双手,则通过以上处理可以得到左手的待测特征点序列{Pli,i=1,2,...,M}和右手的待测特征点序列{Pri,i=1,2,...,M}。其中,Pli为使用者左手在待测图像序列的第i帧图像中对应的20(作为预定数目的示例)个特征点,而Pri为使用者右手在待测图像序列的第i帧图像中对应的20(作为预定数目的示例)个特征点。
若使用者手势仅包含单只手,则捕获的待测图像序列中的每帧图像均是仅包含该单只手的图像,从而通过以上处理之后能够得到该单只手的待测特征点序列,即{Pli,i=1,2,...,M}或{Pri,i=1,2,...,M}。
根据一种实现方式,动作识别单元140可以包括如图4所示的分割子单元410、匹配序列确定子单元420、关联子单元430和动作名称确定子单元440。
如图4所示,分割子单元410可以针对每只手的待测特征点序列,根据预定时间窗将该待测特征点序列分割为多个子序列,并获得每个子序列对应的平均位置。其中,每个子序列对应的平均位置可以选取指定特征点(如手腕中点,或者也可为其他特征点)在该子序列中的平均位置。其中,预定时间窗约为一个单手基本动作(即单手的握、抓等)从开始到结束的时间,可根据经验值来设定,或可以通过试验的方法来确定,例如可以为2.5秒。
在一个例子中,假设待测特征点序列是在10秒内采集的,分割子单元410利用2.5秒的时间窗可以将左手的待测特征点序列以及右手的待测特征点序列分别分割成4个子序列。以左手的待测特征点序列{Pli,i=1,2,...,M}为例(右手的待测特征点序列{Pri,i=1,2,...,M}与其类似,这里不再详述),假设每秒采集10帧图像,则待测特征点序列对应的是100帧图像,即M=100,也就是说,{Pli,i=1,2,...,M}包括100组特征点集Pl1、Pl2、…、Pl100。这样,通过上述2.5秒的时间窗,可以将{Pli,i=1,2,...,M}分割为{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100}4个子序列,且每个子序列各对应25帧图像,也即,每个子序列各包括25组特征点集。指定特征点选取手腕中点,以子序列{Pli,i=1,2,...,25}为例(其余三个子序列与其处理相似,这里不再详述),手腕中点在{Pli,i=1,2,...,25}对应的25组特征点集中的位置分别为位置p1、p2、…、p25,于是手腕中点在子序列{Pli,i=1,2,...,25}中的平均位置为(p1+p2+…+p25)/25,作为子序列{Pli,i=1,2,...,25}对应的平均位置。
然后,匹配序列确定子单元420可以针对每只手对应的每个子序列,将该子序列与多个预设特征点序列中的每一个分别进行匹配,在多个预设特征点序列中选择与该子序列的匹配程度高于预设的匹配阈值(该匹配阈值可以根据经验值来设定,或者也可以通过试验的方法来确定)、并且最大的那个预设特征点序列,作为该子序列的匹配序列。其中,匹配序列确定子单元420可以计算子序列与预设特征点序列之间的相似度,来作为二者之间的匹配程度。
其中,多个预设特征点序列可以预先设置在一个手部动作名列表中,该手部动作名列表包括基本的手部动作,例如:挥、推、拉、张、合、转等,每个动作都有唯一的名称标识以及用归一化的用手部特征点序列(即预设特征点序列)表示的模板。需要说明的是,对于使用者的双手来说,每只手都具有一个上述的手部动作名列表。也就是说,对于左手来说,左手的手部动作名列表(简称左手动作名列表)中包括的每个动作除了分别具有各自的名称之外,还具有一个左手模板(即左手的一个预设特征点序列);对于右手来说,右手的手部动作名列表(简称右手动作名列表)中包括的每个动作除了分别具有各自的名称之外,还具有一个右手模板(即右手的一个预设特征点序列)。
例如,单只手的多个预设特征点序列分别记为序列A1、序列A2、…、序列AH,其中,H为该单只手的上述多个预设特征点序列所包含的序列数,则在该单只手的手部动作名列表中:动作1的名称标识为“挥”且对应的模板(即预设特征点序列)为序列A1;动作2的名称标识为“推”且对应的模板为序列A1;…;动作H的名称标识为“转”且对应的模板为序列A1
需要说明的是,对于每个子序列,并非一定能够在多个预设特征点序列中找到该子序列对应的匹配序列。当对于单只手的某个子序列并未找到其匹配序列时,则将该子序列的匹配序列记为“空”,但该子序列的平均位置可以不为“空”。根据一种实现方式,若子序列的匹配序列为“空”,则将该子序列的平均位置设为“空”;根据另一种实现方式,若子序列的匹配序列为“空”,该子序列的平均位置为该子序列中指定特征点的实际平均位置;根据其他一种实现方式,若子序列的匹配序列为“空”,将该子序列的平均位置设为“+∞”。
此外,根据一种实现方式,若子序列中不存在指定特征点(也即不存在该指定特征点的实际平均位置),可以将该子序列的平均位置设为“+∞”。
然后,如图4所示,关联子单元430可以将每个子序列对应的平均位置与该子序列的匹配序列对应的动作名称相关联。
这样,动作名称确定子单元440可以针对每只手,将该只手对应的各子序列的匹配序列作为该只手对应的多个匹配序列,并将该多个匹配序列各自对应的动作名称(按时间顺序排序后)作为该只手的多个动作名称。
例如,假设对于左手的待测特征点序列的多个子序列为{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100},分别在左手的多个预设特征点序列中找到{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}的匹配序列依次为Pl1'、Pl2'、Pl3',而未找到{Pli,i=76,77,...,100}的匹配序列。假设Pl1'、Pl2'、Pl3'在左手动作名列表中对应的动作名称依次分别为“挥”、“推”、“拉”,{Pli,i=1,2,...,25}、{Pli,i=25,26,...,50}、{Pli,i=51,52,...,75}和{Pli,i=76,77,...,100}各自的平均位置分别为pm1、pm2、pm3和pm4,则由此得到的左手的动作名称和位置包括:“挥”(位置pm1);“推”(位置pm2);“拉”(位置pm3);“空”(位置“pm4”)。需要注意到是,在不同实施例中,pm4可能是真实位置值,也可能是“空”或“+∞”等。
由此,通过分割子单元410、匹配序列确定子单元420、关联子单元430和动作名称确定子单元440的处理,能够得到使用者每只手对应的多个动作名称(作为该只手的动作名称,也就是说,该只手的动作名称),且每个动作名称分别关联有一个平均位置(作为该只手的位置,“该只手的位置”中包括一个或多个平均位置,数量与动作名称的数量相同)。相比于单单识别单个动作作为手势的识别技术来说,采用如图4所示的组成的处理所识别的双手各自的多个动作和位置,提供了更灵活的组合方式,一方面使得手势的识别精度更高,另一方面使得能够识别的手势更多样、丰富。
此外,根据一种实现方式,可以通过如图5所示的结构来实现手势确定单元150的处理。如图5所示,手势确定单元150可以包括手势表存储子单元510和手势表匹配子单元520。
如图5所示,手势确定单元150可以将预定义的一个从两只手动作和位置两个要素到手势的映射列表存储为预设手势表:每个映射的左端是一组动作名称对及每个动作名称对的位置;每个映射的右端是一个手势HandSignal。
其中,“一组动作名称对”包括多个动作名称对,每个动作名称对包括左手动作名称ActNameleft和右手动作名称ActNameright,每个动作名称对的位置包括两只手的相对位置。
例如,在预设手势表中,映射一为{(“拉”,“空”)、(“拉”,“拉”)、(“空”,“合”)、(“空”,“空”)}(作为要素一)、{(x1,y1),(x2,y2),(x3,y3),(x4,y4)}(相对位置,作为要素二)到手势“开关”的映射;映射二为{(“拉”,“拉”)、(“张”,“张”)、(“空”,“空”)、(“空”,“空”)}、{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}到手势“爆炸”的映射;等等。其中,每个动作对(如(“拉”,“空”))中左边的动作名称对应于左手动作,而右边的动作名称对应于右手动作。
以映射一为例,(x1,y1)表示的是左手第一个动作“拉”与右手第一个动作“空”之间的相对位置(即动作对(“拉”,“空”)中左手动作和右手动作对应的两只手的相对位置);(x2,y2)表示的是左手第二个动作“拉”与右手第二个动作“拉”之间的相对位置;(x3,y3)表示的是左手第三个动作“空”与右手第三个动作“合”之间的相对位置;而(x4,y4)表示的是左手第四个动作“空”与右手第四个动作“空”之间的相对位置。其他映射中的表述意义与此类似,不再赘述。
这样,手势表匹配子单元520可以将预设手势表中的每个映射的左端与使用者双手的动作名称和位置进行匹配,以将与使用者双手动作名称和位置匹配的手势作为已识别手势。
其中,动作名称的匹配执行严格匹配,也即,在两个动作名称之间一字不差的情况下判定这两个动作名称是匹配的;而位置则是通过使用者双手各自的平均位置计算得到相对位置信息,进而计算该相对位置信息与映射左端的位置之间的相似度来实现的(如可以设定一个相似度阈值,当计算的相似度大于或等于该相似度阈值时判定位置是匹配的)。
例如,假设通过动作识别单元140得到使用者双手各自的动作名称为{(“拉”,“拉”)、(“张”,“张”)、(“空”,“空”)、(“空”,“空”)},位置为{(x11,y12)、(x21,y22)、(x31,y32)、(x41,y42)(对应左手);(x’11,y’12)、(x’21,y’22)、(x’31,y’32)、(x’41,y’42)(对应左手)}。
这样,手势表匹配子单元520将使用者双手的动作名称与预设手势表中的每个映射的左端进行匹配。
当与映射一进行匹配时,可以得出,使用者双手的动作名称与映射一的左端的动作名称不匹配,因此忽略映射一,继续匹配映射二。
当与映射二进行匹配时,可以得出,使用者双手的动作名称与映射二的左端的动作名称完全匹配,然后再将使用者双手的位置与映射二的左端的相对位置进行匹配。
在将使用者双手的位置与映射二的左端的相对位置进行匹配的过程中,首先计算使用者双手的相对位置如下:{(x’11-x11,y’12-y12)、(x’21-x21,y’22-y22)、(x’31-x31,y’32-y32)、(x’41-x41,y’42-y42)(对应左手)}。然后,将计算得到的使用者双手的上述相对位置与映射二左端的相对位置{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}进行匹配,也即,计算{(x’11-x11,y’12-y12)、(x’21-x21,y’22-y22)、(x’31-x31,y’32-y32)、(x’41-x41,y’42-y42)(对应左手)}与{(x5,y5),(x6,y6),(x7,y7),(x8,y8)}之间的相似度,假设计算得到的相似度为95%。在该例子中,设相似度阈值为80%,于是判定计算得到的使用者双手的相对位置与映射二左端的相对位置是匹配的。由此,在该例子中,人机交互的结果为“爆炸”。
由此,利用手势表匹配子单元520,通过双手各自的多个动作和位置与预定手势表之间的匹配来确定使用者的手势,使得识别的精度较高;当根据不同应用场景需要改变(例如修改、增加或减少等)对手势的定义时,不需要修改算法或重新训练分类器,可以仅通过调整预定手势表中的手势名称或者手势对应的动作名称等方式来实现对手势定义的改变,大大提高了算法的适应性。
根据一种实现方式,指令确定单元160可以建立一个手势名称和操作指令之间的一个映射关系表,作为上述预设操作指令表。该预设操作指令表包括多个映射,每个映射的左边为一个预设手势的名称,而右边为与该预设手势对应的操作指令(比如用于移动计算设备图形界面操作的基本操作指令,例如焦点移动、点击、双击、点击拖动、放大、缩小、旋转、长触等)。由此,通过查表操作即可获得与已识别手势HandSignal对应的那个操作指令OptCom。
此外,如图6所示,在根据本实用新型实施例的具有3D摄像组件的电子设备的另一个示例中,具有3D摄像组件的电子设备600除了可以包括3D摄像单元610、轮廓检测单元620、特征点序列确定单元630、动作识别单元640、手势识别单元650、指令确定单元660以及执行单元670之外,还可以包括实时显示单元680。其中,图6所示的3D摄像单元610、轮廓检测单元620、特征点序列确定单元630、动作识别单元640、手势识别单元650、指令确定单元660以及执行单元670可以分别具有与图1所示的具有3D摄像组件的电子设备100中对应单元相同的结构和功能,并能够达到相类似的效果,这里不再赘述。
根据一种实现方式,实时显示单元680可以基于使用者每只手的位置在电子设备的屏幕上显示使用者手部的模拟图形。
例如,实时显示单元680可用于:根据使用者每只手在待测图像序列的每帧图像中对应的待测特征点序列(例如每帧图像中每只手的20个特征点),通过连接骨骼后外延得到该只手的外轮廓图形,作为该只手的模拟图形;通过对使用者双手的相对位置进行平移校准和比例缩放,确定使用者的每只手在所述屏幕中的显示位置;基于使用者每只手的模拟图形和显示位置来在屏幕中显示使用者手部的模拟图形。
由此,可以通过在移动计算设备的屏幕上显示半透明的手部图形来给用户提供视觉反馈,并帮助用户调整手部位置和操作。需要说明的是,在执行“通过对使用者双手的相对位置进行平移校准和比例缩放”的处理时,如果已识别手势中只包含使用者的单只手,则不存在相对位置(或者相对位置被记为无穷大),此时,可以在一个指定的初始位置显示对应的单只手。此外,在执行“基于使用者每只手的模拟图形和显示位置来在屏幕中显示使用者手部的模拟图形”的处理时,若已识别手势中包括双手,则显示双手的模拟图形;若已识别手势仅包含单只手,则仅显示该只手的模拟图形。
例如,在实际应用中,可以将将本实用新型的上述技术应用于平板电脑或笔记本电脑,实现非接触式的手势操作。在该应用场景中,深度摄像头安装于平板电脑或笔记本电脑屏幕上方,正对使用者,使用者抬起双手置于屏幕前,做出相关手势操作,即可:1、替代实体鼠标实现鼠标光标的移动及点击操作;2、在游戏或相关软件操作中通过手势实现场景导航,以及对象的缩放、旋转、平移等操作。
上述根据本实用新型实施例的具有3D摄像组件的电子设备,先识别单手动作、再通过双手动作识别手势,进而根据已识别手势来执行对应操作,在人机交互过程中能够准确识别使用者的手势,识别精度较高,而且识别速度较快。
此外,由于本实用新型实施例采用深度摄像头获取使用者的人体动作作为操作移动计算设备的输入操控指令,因此能够令使用者使用更加直观、便利的自然动作实现对移动计算设备的非接触式操控,为移动计算设备在诸如运动游戏、模拟训练、复杂操控、远距离操控等领域中的应用提供更加便捷精准的输入、控制。
尽管根据有限数量的实施例描述了本实用新型,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本实用新型的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本实用新型的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本实用新型的范围,对本实用新型所做的公开是说明性的,而非限制性的,本实用新型的范围由所附权利要求书限定。

Claims (3)

1.一种具有3D摄像组件的电子设备,其特征在于,所述具有3D摄像组件的电子设备包括3D摄像单元、轮廓检测单元、特征点序列确定单元、动作识别单元、手势识别单元、指令确定单元和执行单元,所述3D摄像单元连接所述轮廓检测单元,所述轮廓检测单元连接所述特征点序列确定单元,所述特征点序列确定单元连接所述动作识别单元,所述动作识别单元连接所述手势识别单元,所述手势识别单元连接所述指令确定单元,所述指令确定单元连接所述执行单元;
其中,所述3D摄像单元捕获含有深度信息的使用者手部的待测图像序列;所述轮廓检测单元根据图像深度信息和图像颜色信息,在所述待测图像序列的每帧图像中检测出所述使用者的手部轮廓;所述特征点序列确定单元针对所述使用者的每只手,利用预设的手部结构模板,在所述待测图像序列的每帧图像中确定该只手的待测特征点序列;所述动作识别单元针对所述使用者的每只手,在多个预设特征点序列中确定该只手的待测特征点序列的匹配序列,以根据所述匹配序列确定该只手的动作名称和位置;所述手势识别单元在预设手势表中选择与所述使用者双手的动作名称和位置相匹配的手势,作为已识别手势;所述指令确定单元根据预设操作指令表,确定与所述已识别手势对应的操作指令;所述执行单元对与确定的操作指令相关的设备进行与该操作指令对应的操作。
2.根据权利要求1所述的具有3D摄像组件的电子设备,其特征在于,所述3D摄像单元包括两个3D摄像头。
3.根据权利要求1所述的具有3D摄像组件的电子设备,其特征在于,所述电子设备为以下之一:手机、多媒体播放设备、台式机、笔记本电脑以及平板电脑。
CN201520687547.3U 2015-09-07 2015-09-07 一种具有3d摄像组件的电子设备 Active CN205080500U (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201520687547.3U CN205080500U (zh) 2015-09-07 2015-09-07 一种具有3d摄像组件的电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201520687547.3U CN205080500U (zh) 2015-09-07 2015-09-07 一种具有3d摄像组件的电子设备

Publications (1)

Publication Number Publication Date
CN205080500U true CN205080500U (zh) 2016-03-09

Family

ID=55432894

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201520687547.3U Active CN205080500U (zh) 2015-09-07 2015-09-07 一种具有3d摄像组件的电子设备

Country Status (1)

Country Link
CN (1) CN205080500U (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326713A (zh) * 2020-02-28 2021-08-31 青岛海尔工业智能研究院有限公司 一种动作识别方法、装置、设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113326713A (zh) * 2020-02-28 2021-08-31 青岛海尔工业智能研究院有限公司 一种动作识别方法、装置、设备及介质
CN113326713B (zh) * 2020-02-28 2023-06-09 卡奥斯工业智能研究院(青岛)有限公司 一种动作识别方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN105045399A (zh) 一种具有3d摄像组件的电子设备
CN105045398A (zh) 一种基于手势识别的虚拟现实交互设备
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
CN105068662A (zh) 一种用于人机交互的电子设备
CN105160323A (zh) 一种手势识别方法
CN205080499U (zh) 一种基于手势识别的虚拟现实交互设备
CN105302294A (zh) 一种交互式虚拟现实演示装置
CN105302295A (zh) 一种具有3d摄像组件的虚拟现实交互设备
CN105046249A (zh) 一种人机交互方法
CN105069444A (zh) 一种手势识别装置
Yin et al. Toward natural interaction in the real world: Real-time gesture recognition
Störring et al. Computer vision-based gesture recognition for an augmented reality interface
CN205080498U (zh) 一种具有3d摄像组件的虚拟现实交互设备
Adhikari et al. A Novel Machine Learning-Based Hand Gesture Recognition Using HCI on IoT Assisted Cloud Platform.
CN205080500U (zh) 一种具有3d摄像组件的电子设备
CN205080497U (zh) 一种交互式虚拟现实演示装置
CN113961067B (zh) 基于深度学习的非接触式涂鸦绘制方法与识别交互系统
Soroni et al. Hand Gesture Based Virtual Blackboard Using Webcam
Annachhatre et al. Virtual Mouse Using Hand Gesture Recognition-A Systematic Literature Review
Rautaray et al. Adaptive hand gesture recognition system for multiple applications
Tang et al. CUBOD: a customized body gesture design tool for end users
Srinivas et al. Virtual Mouse Control Using Hand Gesture Recognition
Kavitha et al. Simulated Mouse Mechanism using Hand Movement Signals
Li et al. Kinect-based gesture recognition and its application in moocs recording system
Annabel et al. Design and Development of Multimodal Virtual Mouse

Legal Events

Date Code Title Description
C14 Grant of patent or utility model
GR01 Patent grant