CN106648063B - 手势识别方法及装置 - Google Patents

手势识别方法及装置 Download PDF

Info

Publication number
CN106648063B
CN106648063B CN201610913061.6A CN201610913061A CN106648063B CN 106648063 B CN106648063 B CN 106648063B CN 201610913061 A CN201610913061 A CN 201610913061A CN 106648063 B CN106648063 B CN 106648063B
Authority
CN
China
Prior art keywords
depth
processed
image
target
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610913061.6A
Other languages
English (en)
Other versions
CN106648063A (zh
Inventor
林形省
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201610913061.6A priority Critical patent/CN106648063B/zh
Publication of CN106648063A publication Critical patent/CN106648063A/zh
Priority to US15/784,662 priority patent/US10248855B2/en
Priority to EP17196962.9A priority patent/EP3312702B1/en
Application granted granted Critical
Publication of CN106648063B publication Critical patent/CN106648063B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Library & Information Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开是关于一种手势识别方法及装置。所述方法包括:根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;根据所述深度信息确定所述每一个待处理图像的待处理图像区域;根据所述待处理图像区域的图像信息,确定目标用户的手势。本公开技术方案可以有效解决相关技术中对整个待处理图像进行处理所导致的图像处理运算量大的问题,而且解决了相关技术中如果图像中出现一个以上用户的手所导致的不能实现有效信息输入的问题,提高了用户在VR中输入信息的体验。

Description

手势识别方法及装置
技术领域
本公开涉及虚拟现实(Virtual Reality,VR)技术领域,尤其涉及一种手势识别方法及装置。
背景技术
随着基于移动设备的虚拟现实技术的快速发展,用户可以使用虚拟现实头盔结合移动设备在虚拟现实的环境下实现各种应用功能,例如使用虚拟现实头盔玩移动设备中的网络游戏等。当用户使用虚拟现实头盔的过程中,常涉及人机交互操作。
相关技术中,可以使用手势识别来确定用户输入的信息,根据相关技术的手势识别流程,移动设备需要对摄像装置采集的图像进行分析和处理以确定目标用户的手部位置进而根据用户的手确定用户手势,该技术方案图像处理的运算量大,而且如果图像中出现一个以上用户的手,则可能导致移动设备无法识别出目标用户的手进而导致不能实现有效信息的输入。
发明内容
为克服相关技术中存在的问题,本公开实施例提供一种手势识别方法及装置,用以实现目标用户的手势识别进而实现有效信息的输入。
根据本公开实施例的第一方面,提供一种手势识别方法,应用在具有两个以上摄像装置的移动设备上,可包括:
根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;
根据所述深度信息确定所述每一个待处理图像的待处理图像区域;
根据所述待处理图像区域的图像信息,确定目标用户的手势。
在一实施例中,所述根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,可包括:
确定所述两个以上摄像装置的摄像参数;
根据所述两个以上摄像装置的摄像参数计算所述每一个待处理图像中每一个像素点的深度信息。
在一实施例中,所述根据所述深度信息确定所述每一个待处理图像的待处理图像区域,可包括:
将所述每一个像素点的深度信息与目标深度进行比较,所述目标深度用于表示所述目标用户的手部与所述移动设备之间的最大距离;
将所述深度信息小于所述目标深度的像素点确定为所述每一个待处理图像的待处理像素点;
将所述待处理像素点组成的区域确定为所述待处理图像区域。
在一实施例中,方法还可包括:
通过查询第一特征数据库确定所述目标用户对应的第一身体特征,其中,所述第一特征数据库用于记录用户标识信息以及所述所述用户标识信息对应的第一身体特征;
根据所述第一身体特征,计算所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,方法还可包括:
通过查询第二特征数据库确定所述目标用户对应的第二身体特征,其中,所述第二特征数据库用于记录用户标识信息以及所述所述用户标识信息对应的第二身体特征;
根据所述第二身体特征,确定所述用户的第一身体特征;
根据所述第一身体特征,计算所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,方法还可包括:
根据所述两个以上摄像装置各自采集的历史图像数据,确定所述目标用户的手部与所述移动设备之间的多个参考距离;
对所述多个参考距离计算极大值;
将所述极大值确定为所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
根据本公开的第二方面,提供一种手势识别装置,应用在具有两个以上摄像装置的移动设备上,可包括:
深度确定模块,被配置为根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;
区域确定模块,被配置为根据所述深度确定模块确定的所述深度信息确定所述每一个待处理图像的待处理图像区域;
手势识别模块,被配置为根据所述区域确定模块确定的所述待处理图像区域的图像信息,确定目标用户的手势。
在一实施例中,深度确定模块可包括:
参数确定子模块,被配置为确定所述两个以上摄像装置的摄像参数;
深度确定子模块,被配置为根据所述参数确定子模块确定的所述两个以上摄像装置的摄像参数计算所述每一个待处理图像中每一个像素点的深度信息。
在一实施例中,区域确定模块可包括:
比较子模块,被配置为将所述深度确定模块确定的所述每一个像素点的深度信息与目标深度进行比较,所述目标深度用于表示所述目标用户的手部与所述移动设备之间的最大距离;
点确定子模块,被配置为将所述比较子模块确定的所述深度信息小于所述目标深度的像素点确定为所述每一个待处理图像的待处理像素点;
区域确定子模块,被配置为将所述点确定子模块确定的所述待处理像素点组成的区域确定为所述待处理图像区域。
在一实施例中,装置还可包括:
第一查询模块,被配置为通过查询第一特征数据库确定所述目标用户对应的第一身体特征,其中,所述第一特征数据库用于记录用户标识信息以及所述所述用户标识信息对应的第一身体特征;
第一计算模块,被配置为根据所述第一查询模块确定的所述第一身体特征,计算所述目标深度,所述比较子模块基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,装置还可包括:
第二查询模块,被配置为通过查询第二特征数据库确定所述目标用户对应的第二身体特征,其中,所述第二特征数据库用于记录用户标识信息以及所述所述用户标识信息对应的第二身体特征;
特征确定模块,被配置为根据所述第二查询模块确定的所述第二身体特征,确定所述用户的第一身体特征;
第二计算模块,被配置为根据所述特征确定模块确定的所述第一身体特征,计算所述目标深度,所述比较子模块基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,装置还可包括:
参考模块,被配置为根据所述两个以上摄像装置各自采集的历史图像数据,确定所述目标用户的手部与所述移动设备之间的多个参考距离;
极大值模块,被配置为对所述参考模块得到的所述多个参考距离计算极大值;
目标深度确定模块,被配置为将所述极大值模块得到的所述极大值确定为所述目标深度,所述比较子模块基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
根据本公开实施例的第三方面,提供一种手势识别装置,应用在具有两个以上摄像装置的移动设备上,可包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;
根据所述深度信息确定所述每一个待处理图像的待处理图像区域;
根据所述待处理图像区域的图像信息,确定目标用户的手势。
本公开的实施例提供的技术方案可以包括以下有益效果:具有两个以上摄像装置的移动设备可确定所采集的待处理图像中的每一个像素点的深度信息,进而根据每一个像素点的深度信息确定出包括目标用户的手部图像的待处理图像区域,对待处理图像区域进行处理实现目标用户的手势识别,有效解决了相关技术中对整个待处理图像进行处理所导致的图像处理运算量大的问题,而且解决了相关技术中如果图像中出现一个以上用户的手所导致的不能实现有效信息输入的问题,提高了用户在VR中输入信息的体验。
并且,通过将每一个像素的深度信息与目标深度作比较,可以确定出有效的待处理像素点,进而确定出待处理图像区域,由于目标深度用于表示目标用户的手部与移动设备之间可能的最大距离,因此根据目标深度确定出的待处理图像区域表示包含目标用户的手部的区域,而待处理图像区域之外的区域为不可能包含目标用户的手部的区域,通过只对待处理图像区域的图像进行分析和识别减小了图像处理运算量,而且也避免了将待处理图像区域之外的区域出现的手部动作识别为目标用户的手势的问题,进而实现有效信息的输入。
在确定目标深度时,可以通过查询第一特征数据库获取目标用户的第一身体特征,例如胳膊长度,进而计算出目标深度;还可以通过查询第二特征数据库获取目标用户的第二身体特征,例如身高,根据第二身体特征计算出第一身体特征,进而计算出目标深度;还可以根据历史图像数据,分析目标用户的手部与移动设备之间的参考距离,进而计算出目标深度;由此本公开可以实现灵活地确定目标深度,进而灵活地确定待处理图像区域,提高了用户通过手势识别实现信息输入的体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1A是根据一示例性实施例示出的手势识别方法的流程图。
图1B是根据一示例性实施例示出的通过两个摄像头确定每一个像素点的深度信息的示意图。
图2是根据一示例性实施例一示出的根据深度信息确定待处理图像区域的流程图。
图3是根据一示例性实施例二示出的通过查询特征数据库确定目标深度的流程图。
图4是根据一示例性实施例三示出的通过历史图像数据确定目标深度的流程图。
图5是根据一示例性实施例示出的一种手势识别装置的框图。
图6是根据一示例性实施例示出的另一种手势识别装置的框图。
图7是根据一示例性实施例示出的再一种手势识别装置的框图。
图8是根据一示例性实施例示出的一种适用于手势识别装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1A是根据一示例性实施例示出的手势识别方法的流程图,图1B是根据一示例性实施例示出的通过两个摄像头确定每一个像素点的深度信息的示意图;该手势识别方法可以应用在具有两个以上摄像装置的移动设备(例如:智能手机、平板电脑)上,如图1A所示,该手势识别方法包括以下步骤:
在步骤101中,根据两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息。
在一实施例中,深度信息用于表示每一个像素点对应的实际物体点与移动设备之间的距离。
在一实施例中,参见图1B,移动设备110上的第一摄像装置O1和第二摄像装置O2分别对实际物体点A成像在成像平面120和成像平面130上,根据第一摄像装置和焦距和第二摄像装置的焦距以及图1B中的三角关系可以计算出实际物体点到移动设备110的距离BC。
在步骤102中,根据深度信息确定每一个待处理图像的待处理图像区域。
在一实施例中,根据深度信息确定待处理图像区域的方法可参见图2实施例,这里先不详述。
在一实施例中,待处理图像区域用于表示用来识别手势的区域,摄像装置在实际采集目标用户的手部动作时,可能会采集到很多无效的背景信息,例如目标用户的手部后面的背景,例如墙体等,通过图像中每一个像素点的深度信息可以将这些无效的背景信息标记为非待处理图像区域,进而减小图像处理的运算量。
在步骤103中,根据待处理图像区域的图像信息,确定目标用户的手势。
本实施例中,具有两个以上摄像装置的移动设备可确定所采集的待处理图像中的每一个像素点的深度信息,进而根据每一个像素点的深度信息确定出包括目标用户的手部图像的待处理图像区域,对待处理图像区域进行处理实现目标用户的手势识别,有效解决了相关技术中对整个待处理图像进行处理所导致的图像处理运算量大的问题,而且解决了相关技术中如果图像中出现一个以上用户的手所导致的不能实现有效信息输入的问题,提高了用户在VR中输入信息的体验。
在一实施例中,根据两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,可包括:
确定两个以上摄像装置的摄像参数;
根据两个以上摄像装置的摄像参数计算每一个待处理图像中每一个像素点的深度信息。
在一实施例中,根据深度信息确定每一个待处理图像的待处理图像区域,可包括:
将每一个像素点的深度信息与目标深度进行比较,目标深度用于表示目标用户的手部与移动设备之间的最大距离;
将深度信息小于目标深度的像素点确定为每一个待处理图像的待处理像素点;
将待处理像素点组成的区域确定为待处理图像区域。
在一实施例中,方法还可包括:
通过查询第一特征数据库确定目标用户对应的第一身体特征,其中,第一特征数据库用于记录用户标识信息以及用户标识信息对应的第一身体特征;
根据第一身体特征,计算目标深度,基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,方法还可包括:
通过查询第二特征数据库确定目标用户对应的第二身体特征,其中,第二特征数据库用于记录用户标识信息以及用户标识信息对应的第二身体特征;
根据第二身体特征,确定用户的第一身体特征;
根据第一身体特征,计算目标深度,基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,方法还可包括:
根据两个以上摄像装置各自采集的历史图像数据,确定目标用户的手部与移动设备之间的多个参考距离;
对多个参考距离计算极大值;
将极大值确定为目标深度,基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
具体如何识别手势的,请参考后续实施例。
下面以具体实施例来说明本公开实施例提供的技术方案。
图2是根据一示例性实施例一示出的根据深度信息确定待处理图像区域的流程图;本实施例利用本公开实施例提供的上述方法,以具有两个以上摄像装置的移动设备确定待处理图像区域进行示例性说明,如图2所示,包括如下步骤:
在步骤201中,将每一个像素点的深度信息与目标深度进行比较。
在一实施例中,目标深度用于表示目标用户的手部与移动设备之间的最大距离。
在一实施例中,目标深度可以通过图3和图4所示实施例得到。
在步骤202中,将深度信息小于目标深度的像素点确定为每一个待处理图像的待处理像素点。
在步骤203中,将待处理像素点组成的区域确定为待处理图像区域。
本实施例中,通过将每一个像素的深度信息与目标深度作比较,可以确定出有效的待处理像素点,进而确定出待处理图像区域,由于目标深度用于表示目标用户的手部与移动设备之间可能的最大距离,因此根据目标深度确定出的待处理图像区域表示包含目标用户的手部的区域,而待处理图像区域之外的区域为不可能包含目标用户的手部的区域,通过只对待处理图像区域的图像进行分析和识别减小了图像处理运算量,而且也避免了将待处理图像区域之外的区域出现的手部动作识别为目标用户的手势的问题,进而实现有效信息的输入。
图3是根据一示例性实施例二示出的通过查询特征数据库确定目标深度的流程图,本实施例利用本公开实施例提供的上述方法,以具有两个以上摄像装置的移动设备通过查询特征数据库确定目标深度进行示例性说明,如图3所示,包括如下步骤:
在步骤301中,确定目标用户对应的第一身体特征。
在一实施例中,第一身体特征可以为用户双臂的长度,例如第一身体特征为75厘米。
在一实施例中,可根据目标用户的用户账号查询第一特征数据库,确定目标用户的第一身体特征。例如:用户在操作移动设备中的应用,例如玩网络游戏“庄园惊魂”时,可能需要用户提供自己的第一身体特征,进而将第一身体特征存储在第一特征数据库中,后续用户使用虚拟现实头盔玩网络游戏时,根据用户的登录账号,即可确定出用户的第一身体特征。
在一实施例中,可根据目标用户的用户账号查询第二特征数据库,确定目标用户的第二身体特征,例如,用户的身高,进而根据用户的第二身体特征确定出匹配的第一身体特征,例如身高1米7的用户的手臂长度一般为75-80厘米,则可以将手臂长度标记为一般用户的手臂长度的最大值,即80厘米。
在一实施例中,在确定用户的第二身体特征后,可访问网络服务器确定该第二身体特征对应的第一身体特征;在又一实施例中,还可在本地实现一个特征匹配列表,特征匹配列表中记录了第二身体特征对应的第一身体特征。
在步骤302中,根据第一身体特征,计算目标深度。
在一实施例中,可以使用式(1)计算目标深度:
L=w*T 式(1)
其中,L用于表示目标深度,w用于表示权重系数,T用于表示第一身体特征的特征值。
在一实施例中,权重系数w可以通过统计用户在最初使用虚拟现实设备的一段时间内(例如,使用虚拟现实设备1个月之内)的使用习惯得到。例如,一些用户习惯将手臂伸直做出手势,则权重系数w可以稍大一些,如为0.9;而一些用户习惯将手臂弯曲做出手势,则权重系数w可以稍小一些,如为0.6。
本实施例中,在确定目标深度时,可以通过查询第一特征数据库获取目标用户的第一身体特征,例如胳膊长度,进而计算出目标深度;还可以通过查询第二特征数据库获取目标用户的第二身体特征,例如身高,根据第二身体特征计算出第一身体特征,进而计算出目标深度,由此可以实现灵活地确定目标深度,提高了用户通过手势识别实现信息输入的体验。
图4是根据一示例性实施例三示出的通过历史图像数据确定目标深度的流程图;本实施例利用本公开实施例提供的上述方法,以具有两个以上摄像装置通过历史图像数据确定目标深度进行示例性说明,如图4所示,包括如下步骤
在步骤401中,根据两个以上摄像装置各自采集的历史图像数据,确定目标用户的手部与移动设备之间的多个参考距离。
在一实施例中,可以通过统计用户在最初使用虚拟现实设备的一段时间内(例如,使用虚拟现实设备1周之内)的历史图像数据确定目标用户的手部与移动设备之间的参考距离。例如,用户在执行某些手势时的深度信息为0.6米,在执行某些手势时的深度信息为0.55米,通过分析不同的图像数据,得到多个参考距离。
在步骤402中,对多个参考距离计算极大值。
在步骤403中,将极大值确定为目标深度,基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
本实施例中,可以根据历史图像数据,分析目标用户的手部与移动设备之间的参考距离,进而计算出目标深度,由此使得目标深度更加符合用户的实际身体特征和使用习惯,例如用户手臂长度为60厘米的两个用户由于伸手习惯等目标深度可能相差10-20厘米,因此通过分析历史图像数据确定目标深度能够更好地适应于目标用户。
图5是根据一示例性实施例示出的一种手势识别装置的框图,应用在具有两个以上摄像装置的移动设备上,如图5所示,手势识别装置包括:
深度确定模块510,被配置为根据两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,深度信息用于表示每一个像素点对应的实际物体点与移动设备之间的距离;
区域确定模块520,被配置为根据深度确定模块510确定的深度信息确定每一个待处理图像的待处理图像区域;
手势识别模块530,被配置为根据区域确定模块520确定的待处理图像区域的图像信息,确定目标用户的手势。
图6是根据一示例性实施例示出的另一种手势识别装置的框图,如图6所示,在上述图5所示实施例的基础上,在一实施例中,深度确定模块510可包括:
参数确定子模块511,被配置为确定两个以上摄像装置的摄像参数;
深度确定子模块512,被配置为根据参数确定子模块确定的两个以上摄像装置的摄像参数计算每一个待处理图像中每一个像素点的深度信息。
在一实施例中,区域确定模块520可包括:
比较子模块521,被配置为将深度确定模块510确定的每一个像素点的深度信息与目标深度进行比较,目标深度用于表示目标用户的手部与移动设备之间的最大距离;
点确定子模块522,被配置为将比较子模块521确定的深度信息小于目标深度的像素点确定为每一个待处理图像的待处理像素点;
区域确定子模块523,被配置为将点确定子模块522确定的待处理像素点组成的区域确定为待处理图像区域。
图7是根据一示例性实施例示出的再一种手势识别装置的框图,如图7所示,在上述图5或图6所示实施例的基础上,在一实施例中,装置还可包括:
第一查询模块540,被配置为通过查询第一特征数据库确定目标用户对应的第一身体特征,其中,第一特征数据库用于记录用户标识信息以及用户标识信息对应的第一身体特征;
第一计算模块550,被配置为根据第一查询模块540确定的第一身体特征,计算目标深度,比较子模块521基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,装置还可包括:
第二查询模块560,被配置为通过查询第二特征数据库确定目标用户对应的第二身体特征,其中,第二特征数据库用于记录用户标识信息以及用户标识信息对应的第二身体特征;
特征确定模块570,被配置为根据第二查询模块560确定的第二身体特征,确定用户的第一身体特征;
第二计算模块580,被配置为根据特征确定模块570确定的第一身体特征,计算目标深度,比较子模块521基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
在一实施例中,装置还可包括:
参考模块590,被配置为根据两个以上摄像装置各自采集的历史图像数据,确定目标用户的手部与移动设备之间的多个参考距离;
极大值模块600,被配置为对参考模块590得到的多个参考距离计算极大值;
目标深度确定模块610,被配置为将极大值模块600得到的极大值确定为目标深度,比较子模块521基于目标深度执行将每一个像素点的深度信息与目标深度进行比较的操作。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
图8是根据一示例性实施例示出的一种适用于手势识别装置的框图。例如,装置800可以是移动设备(例如:智能手机、平板电脑等)。
参照图8,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,语音播放,数据通信和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在设备800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,消息,图片等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到设备800的打开/关闭状态,组件的相对定位,例如组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,距离感应器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WIFI,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (9)

1.一种手势识别方法,其特征在于,应用在具有两个以上摄像装置的移动设备上,所述方法包括:
根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;
根据所述深度信息确定所述每一个待处理图像的待处理图像区域;
根据所述待处理图像区域的图像信息,确定目标用户的手势;
所述根据所述深度信息确定所述每一个待处理图像的待处理图像区域,包括:
将所述每一个像素点的深度信息与目标深度进行比较,所述目标深度用于表示所述目标用户的手部与所述移动设备之间的最大距离;
将所述深度信息小于所述目标深度的像素点确定为所述每一个待处理图像的待处理像素点;
将所述待处理像素点组成的区域确定为所述待处理图像区域;
所述方法还包括:
根据所述两个以上摄像装置各自采集的历史图像数据,确定所述目标用户的手部与所述移动设备之间的多个参考距离;
对所述多个参考距离计算极大值;
将所述极大值确定为所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
2.根据权利要求1所述的方法,其特征在于,所述根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,包括:
确定所述两个以上摄像装置的摄像参数;
根据所述两个以上摄像装置的摄像参数计算所述每一个待处理图像中每一个像素点的深度信息。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过查询第一特征数据库确定所述目标用户对应的第一身体特征,其中,所述第一特征数据库用于记录用户标识信息以及所述用户标识信息对应的第一身体特征;
根据所述第一身体特征,计算所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过查询第二特征数据库确定所述目标用户对应的第二身体特征,其中,所述第二特征数据库用于记录用户标识信息以及所述用户标识信息对应的第二身体特征;
根据所述第二身体特征,确定所述用户的第一身体特征;
根据所述第一身体特征,计算所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
5.一种手势识别装置,其特征在于,应用在具有两个以上摄像装置的移动设备上,所述装置包括:
深度确定模块,被配置为根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;
区域确定模块,被配置为根据所述深度确定模块确定的所述深度信息确定所述每一个待处理图像的待处理图像区域;
手势识别模块,被配置为根据所述区域确定模块确定的所述待处理图像区域的图像信息,确定目标用户的手势;
所述区域确定模块包括:
比较子模块,被配置为将所述深度确定模块确定的所述每一个像素点的深度信息与目标深度进行比较,所述目标深度用于表示所述目标用户的手部与所述移动设备之间的最大距离;
点确定子模块,被配置为将所述比较子模块确定的所述深度信息小于所述目标深度的像素点确定为所述每一个待处理图像的待处理像素点;
区域确定子模块,被配置为将所述点确定子模块确定的所述待处理像素点组成的区域确定为所述待处理图像区域;
所述装置还包括:
参考模块,被配置为根据所述两个以上摄像装置各自采集的历史图像数据,确定所述目标用户的手部与所述移动设备之间的多个参考距离;
极大值模块,被配置为对所述参考模块得到的所述多个参考距离计算极大值;
目标深度确定模块,被配置为将所述极大值模块得到的所述极大值确定为所述目标深度,所述比较子模块基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
6.根据权利要求5所述的装置,其特征在于,所述深度确定模块包括:
参数确定子模块,被配置为确定所述两个以上摄像装置的摄像参数;
深度确定子模块,被配置为根据所述参数确定子模块确定的所述两个以上摄像装置的摄像参数计算所述每一个待处理图像中每一个像素点的深度信息。
7.根据权利要求5所述的装置,其特征在于,所述装置还包括:
第一查询模块,被配置为通过查询第一特征数据库确定所述目标用户对应的第一身体特征,其中,所述第一特征数据库用于记录用户标识信息以及所述用户标识信息对应的第一身体特征;
第一计算模块,被配置为根据所述第一查询模块确定的所述第一身体特征,计算所述目标深度,所述比较子模块基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
8.根据权利要求5所述的装置,其特征在于,所述装置还包括:
第二查询模块,被配置为通过查询第二特征数据库确定所述目标用户对应的第二身体特征,其中,所述第二特征数据库用于记录用户标识信息以及所述用户标识信息对应的第二身体特征;
特征确定模块,被配置为根据所述第二查询模块确定的所述第二身体特征,确定所述用户的第一身体特征;
第二计算模块,被配置为根据所述特征确定模块确定的所述第一身体特征,计算所述目标深度,所述比较子模块基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
9.一种手势识别装置,其特征在于,应用在具有两个以上摄像装置的移动设备上,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
根据所述两个以上摄像装置各自采集的待处理图像确定每一个待处理图像中每一个像素点的深度信息,所述深度信息用于表示所述每一个像素点对应的实际物体点与所述移动设备之间的距离;
根据所述深度信息确定所述每一个待处理图像的待处理图像区域;
根据所述待处理图像区域的图像信息,确定目标用户的手势;
所述根据所述深度信息确定所述每一个待处理图像的待处理图像区域,包括:
将所述每一个像素点的深度信息与目标深度进行比较,所述目标深度用于表示所述目标用户的手部与所述移动设备之间的最大距离;
将所述深度信息小于所述目标深度的像素点确定为所述每一个待处理图像的待处理像素点;
将所述待处理像素点组成的区域确定为所述待处理图像区域;
所述处理器还被配置为:
根据所述两个以上摄像装置各自采集的历史图像数据,确定所述目标用户的手部与所述移动设备之间的多个参考距离;
对所述多个参考距离计算极大值;
将所述极大值确定为所述目标深度,基于所述目标深度执行所述将所述每一个像素点的深度信息与目标深度进行比较的操作。
CN201610913061.6A 2016-10-19 2016-10-19 手势识别方法及装置 Active CN106648063B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201610913061.6A CN106648063B (zh) 2016-10-19 2016-10-19 手势识别方法及装置
US15/784,662 US10248855B2 (en) 2016-10-19 2017-10-16 Method and apparatus for identifying gesture
EP17196962.9A EP3312702B1 (en) 2016-10-19 2017-10-18 Method and device for identifying gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610913061.6A CN106648063B (zh) 2016-10-19 2016-10-19 手势识别方法及装置

Publications (2)

Publication Number Publication Date
CN106648063A CN106648063A (zh) 2017-05-10
CN106648063B true CN106648063B (zh) 2020-11-06

Family

ID=58855374

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610913061.6A Active CN106648063B (zh) 2016-10-19 2016-10-19 手势识别方法及装置

Country Status (3)

Country Link
US (1) US10248855B2 (zh)
EP (1) EP3312702B1 (zh)
CN (1) CN106648063B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109215043A (zh) * 2017-06-30 2019-01-15 北京小米移动软件有限公司 图像识别方法及装置、计算机可读存储介质
CN107564020B (zh) * 2017-08-31 2020-06-12 北京奇艺世纪科技有限公司 一种图像区域确定方法及装置
DE102017128588A1 (de) * 2017-12-01 2019-06-06 Prüftechnik Dieter Busch AG System und verfahren zur erfassung und darstellung von messpunkten auf einer körperfläche
CN109670432B (zh) * 2018-12-13 2023-08-04 北京小米移动软件有限公司 动作识别方法及装置
CN112446251A (zh) * 2019-08-30 2021-03-05 深圳云天励飞技术有限公司 图像处理方法及相关装置
CN113448429A (zh) * 2020-03-25 2021-09-28 南京人工智能高等研究院有限公司 基于手势控制电子设备的方法及装置、存储介质和电子设备
CN115309297A (zh) * 2022-08-11 2022-11-08 天津速越科技有限公司 一种用于燃气表的手势感应切换显示界面的方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102201099A (zh) * 2010-04-01 2011-09-28 微软公司 基于运动的交互式购物环境
CN102508546A (zh) * 2011-10-31 2012-06-20 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
US8325978B2 (en) * 2008-10-30 2012-12-04 Nokia Corporation Method, apparatus and computer program product for providing adaptive gesture analysis
CN101771830B (zh) * 2008-12-30 2012-09-19 华为终端有限公司 立体全景视频流生成方法、设备及视频会议方法和设备
US9417700B2 (en) * 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US9141189B2 (en) * 2010-08-26 2015-09-22 Samsung Electronics Co., Ltd. Apparatus and method for controlling interface
US9857868B2 (en) * 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8836768B1 (en) * 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
CN103984928B (zh) * 2014-05-20 2017-08-11 桂林电子科技大学 基于景深图像的手指手势识别方法
CN104636725B (zh) * 2015-02-04 2017-09-29 华中科技大学 一种基于深度图像的手势识别方法与系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102201099A (zh) * 2010-04-01 2011-09-28 微软公司 基于运动的交互式购物环境
CN102508546A (zh) * 2011-10-31 2012-06-20 冠捷显示科技(厦门)有限公司 一种3d虚拟投影及虚拟触摸的用户交互界面及实现方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向多方式人际交互的肢体动作识别研究;曹雏清;《中国博士学位论文全文数据库 信息科技辑》;20140315;I140-25,39-42页 *

Also Published As

Publication number Publication date
EP3312702B1 (en) 2019-12-04
US20180107869A1 (en) 2018-04-19
EP3312702A1 (en) 2018-04-25
US10248855B2 (en) 2019-04-02
CN106648063A (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
CN106648063B (zh) 手势识别方法及装置
CN106651955B (zh) 图片中目标物的定位方法及装置
US10346669B2 (en) Fingerprint entry prompting method and device
WO2020135529A1 (zh) 位姿估计方法及装置、电子设备和存储介质
EP3173970A1 (en) Image processing method and apparatus
EP3086275A1 (en) Numerical value transfer method, terminal, cloud server, computer program and recording medium
US9959484B2 (en) Method and apparatus for generating image filter
CN106778773B (zh) 图片中目标物的定位方法及装置
CN107656682B (zh) 移动终端及弯曲角度计算方法
CN106557759B (zh) 一种标志牌信息获取方法及装置
CN104519282A (zh) 图像拍摄方法及装置
CN107657590B (zh) 图片处理方法、装置及存储介质
CN107944367B (zh) 人脸关键点检测方法及装置
CN110782532B (zh) 图像生成方法、生成装置、电子设备及存储介质
CN110059547B (zh) 目标检测方法及装置
CN106095300B (zh) 播放进度调整方法及装置
CN107133361B (zh) 手势识别方法、装置和终端设备
CN107544686B (zh) 操作执行方法及装置
CN107239758B (zh) 人脸关键点定位的方法及装置
US9665925B2 (en) Method and terminal device for retargeting images
CN113642551A (zh) 指甲关键点检测方法、装置、电子设备及存储介质
CN107203315B (zh) 点击事件的处理方法、装置及终端
EP3200127B1 (en) Method and device for fingerprint recognition
CN106126104B (zh) 键盘模拟方法和装置
CN111539617B (zh) 数据处理方法和装置、电子设备、交互系统和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant