CN108564063A - 基于深度信息的掌心定位方法及系统 - Google Patents

基于深度信息的掌心定位方法及系统 Download PDF

Info

Publication number
CN108564063A
CN108564063A CN201810391790.9A CN201810391790A CN108564063A CN 108564063 A CN108564063 A CN 108564063A CN 201810391790 A CN201810391790 A CN 201810391790A CN 108564063 A CN108564063 A CN 108564063A
Authority
CN
China
Prior art keywords
centre
palm
present frame
region
pixel region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810391790.9A
Other languages
English (en)
Other versions
CN108564063B (zh
Inventor
王行
周晓军
盛赞
李骊
李朔
杨淼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing HJIMI Technology Co Ltd
Original Assignee
Beijing HJIMI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing HJIMI Technology Co Ltd filed Critical Beijing HJIMI Technology Co Ltd
Priority to CN201810391790.9A priority Critical patent/CN108564063B/zh
Publication of CN108564063A publication Critical patent/CN108564063A/zh
Application granted granted Critical
Publication of CN108564063B publication Critical patent/CN108564063B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

本发明公开了一种基于深度信息的掌心定位方法和系统。包括:获取当前帧的人体深度图像;根据人体深度图像,获得手部区域中逐个像素的概率分布;手部区域包括手部分割区域或手部检测框区域;将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于预设概率阈值的各目标像素,以形成各目标像素区域;对各目标像素区域进行归一化处理;计算各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域;计算得到选定轮廓区域的质心位置;根据质心位置,确定当前帧的掌心位置。本发明的基于深度信息的掌心定位方法,在检测到手的基础上,能够快速、准确、稳定地定位到掌心的位置。

Description

基于深度信息的掌心定位方法及系统
技术领域
本发明涉及交互技术领域,特别涉及一种基于深度信息的掌心定位方法和一种基于深度信息的掌心定位系统。
背景技术
随着新的交互技术和应用的不断发展,尤其是AR(增强现实)和VR(虚拟现实)的快速发展,手势相关技术被视为下一代新的最具代表性的交互技术。可以实现非接触式远程人机交互。在智能家居领域,智能家电或机器人可以通过手势进行控制和命令;在VR和AR邻域中可以达到逼真的实际体验,在游戏和教学过程中,极大地增强用户体验等等。所有的手势交互技术都涉及到手部检测算法。在其基础上如何更快更准更稳定找到掌心也是十分有用的。一般的常见的掌心定位算法主要是通过找到手部的检测框位置,直接以该方框的中心位置作为掌心位置,或者将检测到的手的区域轮廓求其质心或最小外接圆圆心作为掌心位置。
但是,利用上述方法得到的掌心位置容易受到手部检测框变化的影响,不稳定。
发明内容
本发明旨在至少解决现有技术中存在的技术问题之一,提出了一种基于深度信息的掌心定位方法和一种基于深度信息的掌心定位系统。
为了实现上述目的,本发明的第一方面,提供了一种基于深度信息的掌心定位方法,包括:
步骤S110、获取当前帧的人体深度图像;
步骤S120、根据所述人体深度图像,获得手部区域中逐个像素的概率分布;所述手部区域包括手部分割区域或手部检测框区域;
步骤S130、将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于所述预设概率阈值的各目标像素,以形成各目标像素区域;
步骤S140、对所述各目标像素区域进行归一化处理;
步骤S150、计算所述各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域;
步骤S160、计算得到所述选定轮廓区域的质心位置;
步骤S170、根据所述质心位置,确定当前帧的掌心位置。
可选地,所述步骤S140包括:
归一化各目标像素区域的概率值区间在[0,1]。
可选地,所述步骤S170包括:
基于预先设定的带有概率权重的Mean Shift算法,以所述质心位置为种子点,以选定轮廓区域求其最小外接圆半径的预设值作为滑动窗口大小的尺度,通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。
可选地,还包括:
S180、优化当前帧的所述初步掌心位置;
所述步骤S180包括:
基于上一帧的掌心位置,确定当前帧的掌心位置影响因子;
基于当前帧的初步掌心位置和当前帧的所述掌心位置影响因子,确定当前帧的最终掌心位置。
可选地,根据下述关系式计算当前帧的所述最终掌心位置;
Hc(t)=Hc(t-1)*Q+C(t)*(1-Q);
其中,Hc(t)为当前帧的最终掌心位置,Q为掌心位置影响因子,C(t)为当前帧的初步掌心位置。
本发明的第二方面,提供了一种基于深度信息的掌心定位系统,包括:
获取模块,用于获取当前帧的人体深度图像;
计算模块,用于根据所述人体深度图像,获得手部区域中逐个像素的概率分布;所述手部区域包括手部分割区域或手部检测框区域;
比较模块,用于将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于所述预设概率阈值的各目标像素,以形成各目标像素区域;
归一化处理模块,用于对所述各目标像素区域进行归一化处理;
所述计算模块,还用于计算所述各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域;
所述计算模块,还用于计算得到所述选定轮廓区域的质心位置;
确定模块,用于根据所述质心位置,确定当前帧的掌心位置。
可选地,所述归一化处理模块,用于归一化各目标像素区域的概率值区间在[0,1]。
可选地,所述确定模块,还用于基于预先设定的带有概率权重的Mean Shift算法,以所述质心位置为种子点,以选定轮廓区域求其最小外接圆半径的预设值作为滑动窗口大小的尺度,通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。
可选地,还包括:
优化模块,用于基于上一帧的掌心位置,确定当前帧的掌心位置影响因子;以及,
基于当前帧的初步掌心位置和当前帧的所述掌心位置影响因子,确定当前帧的最终掌心位置。
可选地,所述优化模块,用于根据下述关系式计算当前帧的所述最终掌心位置;
Hc(t)=Hc(t-1)*Q+C(t)*(1-Q);
其中,Hc(t)为当前帧的最终掌心位置,Q为掌心位置影响因子,C(t)为当前帧的初步掌心位置,t为时间。
本发明的基于深度信息的掌心定位方法和基于深度信息的掌心定位系统。首先,通过获取当前帧的人体深度图像,之后,根据该人体深度图像,获取手部区域中逐个像素的概率分布,并将各像素的概率与预设概率阈值进行比较,形成目标像素区域,并对该目标像素区域进行归一化处理。再之后,计算得到选定轮廓区域,并计算该选定轮廓区域的质心位置。最后,根据质心位置,确定当前帧的掌心位置。因此,本发明的基于深度信息的掌心定位方法和基于深度信息的掌心定位系统,消除了传统方法和技术针对掌心位置易受手部检测框大小和位置变化的影响,本发明的基于深度信息的掌心定位方法和基于深度信息的掌心定位系统,在检测到手的基础上,能够快速、准确、稳定地定位到掌心的位置。
附图说明
附图是用来提供对本发明的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明,但并不构成对本发明的限制。在附图中:
图1为本发明第一实施例中基于深度信息的掌心定位方法的流程图;
图2为本发明第二实施例中基于深度信息的掌心定位系统的结构示意图。
附图标记说明
100:基于深度信息的掌心定位系统;
110:获取模块;
120:计算模块;
130:比较模块;
140:归一化处理模块;
150:确定模块;
160:优化模块。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
参考图1,本发明的第一方面,涉及一种基于深度信息的掌心定位方法S100,包括:
步骤S110、获取当前帧的人体深度图像。
具体地,在本步骤中,可以利用深度摄像机或者深度照相机等深度图像设备获取当前帧的人体深度图像。
步骤S120、根据所述人体深度图像,获得手部区域中逐个像素的概率分布;所述手部区域包括手部分割区域或手部检测框区域。
步骤S130、将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于所述预设概率阈值的各目标像素,以形成各目标像素区域。
步骤S140、对所述各目标像素区域进行归一化处理。
步骤S150、计算所述各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域。
步骤S160、计算得到所述选定轮廓区域的质心位置。
步骤S170、根据所述质心位置,确定当前帧的掌心位置。
本实施例中的基于深度信息的掌心定位方法S100,首先,通过获取当前帧的人体深度图像,之后,根据该人体深度图像,获取手部区域中逐个像素的概率分布,并将各像素的概率与预设概率阈值进行比较,形成目标像素区域,并对该目标像素区域进行归一化处理。再之后,计算得到选定轮廓区域,并计算该选定轮廓区域的质心位置。最后,根据质心位置,确定当前帧的掌心位置。因此,本实施例中的基于深度信息的掌心定位方法S100,消除了传统方法和技术针对掌心位置易受手部检测框大小和位置变化的影响,本实施例中的基于深度信息的掌心定位方法S100,在检测到手的基础上,能够快速、准确、稳定地定位到掌心的位置。
可选地,所述步骤S140包括:
归一化各目标像素区域的概率值区间在[0,1]。
可选地,所述步骤S170包括:
基于预先设定的带有概率权重的Mean Shift算法,以所述质心位置为种子点,以选定轮廓区域求其最小外接圆半径的预设值作为滑动窗口大小的尺度,通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。
本实施例中的基于深度信息的掌心定位方法S100,通过预先设定的带有概率权重的Mean Shift算法,根据该算法和质心位置以及选定区域轮廓,最终通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。这样,可以通过在算法过程中,先后使用不同参数的各种图像滤波、形态学方法,使用不同像素分类概率分布的,使用不同大小尺度图像等方案,从而可以精准的确定当前帧的初步掌心位置。
需要说明的是,上述预设值可以根据实际需要确定,例如,其可以为二分之一,也就是说,以选定轮廓区域求其最小外接圆半径的二分之一作为滑动窗口大小的尺度。当然,还可以根据实际需要选取其他取值。
可选地,还包括:
S180、优化当前帧的所述初步掌心位置;
所述步骤S180包括:
基于上一帧的掌心位置,确定当前帧的掌心位置影响因子;
基于当前帧的初步掌心位置和当前帧的所述掌心位置影响因子,确定当前帧的最终掌心位置。
具体地,根据下述关系式计算当前帧的所述最终掌心位置;
Hc(t)=Hc(t-1)*Q+C(t)*(1-Q);
其中,Hc(t)为当前帧的最终掌心位置,Q为掌心位置影响因子,C(t)为当前帧的初步掌心位置,t为时间。
本实施例中的基于深度信息的掌心定位方法S100,通过基于上一帧的掌心位置,确定当前帧的掌心位置影响因子,并根据二者确定当前帧的最终掌心位置,从而可以更加精准的确定当前帧的最终掌心位置。
本发明的第二方面,如图2所示,提供了一种基于深度信息的掌心定位系统100,包括:
获取模块110,用于获取当前帧的人体深度图像;
计算模块120,用于根据所述人体深度图像,获得手部区域中逐个像素的概率分布;所述手部区域包括手部分割区域或手部检测框区域;
比较模块130,用于将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于所述预设概率阈值的各目标像素,以形成各目标像素区域;
归一化处理模块140,用于对所述各目标像素区域进行归一化处理;
所述计算模块120,还用于计算所述各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域;
所述计算模块120,还用于计算得到所述选定轮廓区域的质心位置;
确定模块150,用于根据所述质心位置,确定当前帧的掌心位置。
本实施例中的基于深度信息的掌心定位系统100,首先,通过获取模块110获取当前帧的人体深度图像,之后,计算模块120根据该人体深度图像,获取手部区域中逐个像素的概率分布,并利用比较模块130将各像素的概率与预设概率阈值进行比较,形成目标像素区域,并利用归一化处理模块140对该目标像素区域进行归一化处理。再之后,计算模块120得到选定轮廓区域,并计算该选定轮廓区域的质心位置。最后,确定模块150根据质心位置,确定当前帧的掌心位置。因此,本实施例中的基于深度信息的掌心定位系统100,消除了传统方法和技术针对掌心位置易受手部检测框大小和位置变化的影响,本实施例中的基于深度信息的掌心定位系统100,在检测到手的基础上,能够快速、准确、稳定地定位到掌心的位置。
可选地,所述归一化处理模块140,用于归一化各目标像素区域的概率值区间在[0,1]。
可选地,所述确定模块150,还用于基于预先设定的带有概率权重的Mean Shift算法,以所述质心位置为种子点,以选定轮廓区域求其最小外接圆半径的预设值作为滑动窗口大小的尺度,通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。
本实施例中的基于深度信息的掌心定位系统100,通过预先设定的带有概率权重的Mean Shift算法,根据该算法和质心位置以及选定区域轮廓,最终通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。这样,可以通过在算法过程中,先后使用不同参数的各种图像滤波、形态学方法,使用不同像素分类概率分布的,使用不同大小尺度图像等方案,从而可以精准的确定当前帧的初步掌心位置。
需要说明的是,上述预设值可以根据实际需要确定,例如,其可以为二分之一,也就是说,以选定轮廓区域求其最小外接圆半径的二分之一作为滑动窗口大小的尺度。当然,还可以根据实际需要选取其他取值。
可选地,还包括:
优化模块160,用于基于上一帧的掌心位置,确定当前帧的掌心位置影响因子;以及,
基于当前帧的初步掌心位置和当前帧的所述掌心位置影响因子,确定当前帧的最终掌心位置。
具体地,所述优化模块160,用于根据下述关系式计算当前帧的所述最终掌心位置;
Hc(t)=Hc(t-1)*Q+C(t)*(1-Q);
其中,Hc(t)为当前帧的最终掌心位置,Q为掌心位置影响因子,C(t)为当前帧的初步掌心位置。
本实施例中的基于深度信息的掌心定位系统100,通过基于上一帧的掌心位置,确定当前帧的掌心位置影响因子,并根据二者确定当前帧的最终掌心位置,从而可以更加精准的确定当前帧的最终掌心位置。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。

Claims (10)

1.一种基于深度信息的掌心定位方法,其特征在于,包括:
步骤S110、获取当前帧的人体深度图像;
步骤S120、根据所述人体深度图像,获得手部区域中逐个像素的概率分布;所述手部区域包括手部分割区域或手部检测框区域;
步骤S130、将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于所述预设概率阈值的各目标像素,以形成各目标像素区域;
步骤S140、对所述各目标像素区域进行归一化处理;
步骤S150、计算所述各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域;
步骤S160、计算得到所述选定轮廓区域的质心位置;
步骤S170、根据所述质心位置,确定当前帧的掌心位置。
2.根据权利要求1所述的掌心定位方法,其特征在于,所述步骤S140包括:
归一化各目标像素区域的概率值区间在[0,1]。
3.根据权利要求1所述的掌心定位方法,其特征在于,所述步骤S170包括:
基于预先设定的带有概率权重的Mean Shift算法,以所述质心位置为种子点,以选定轮廓区域求其最小外接圆半径的预设值作为滑动窗口大小的尺度,通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。
4.根据权利要求3所述的掌心定位方法,其特征在于,还包括:
S180、优化当前帧的所述初步掌心位置;
所述步骤S180包括:
基于上一帧的掌心位置,确定当前帧的掌心位置影响因子;
基于当前帧的初步掌心位置和当前帧的所述掌心位置影响因子,确定当前帧的最终掌心位置。
5.根据权利要求4所述的掌心定位方法,其特征在于,根据下述关系式计算当前帧的所述最终掌心位置;
Hc(t)=Hc(t-1)*Q+C(t)*(1-Q);
其中,Hc(t)为当前帧的最终掌心位置,Q为掌心位置影响因子,C(t)为当前帧的初步掌心位置。
6.一种基于深度信息的掌心定位系统,其特征在于,包括:
获取模块,用于获取当前帧的人体深度图像;
计算模块,用于根据所述人体深度图像,获得手部区域中逐个像素的概率分布;所述手部区域包括手部分割区域或手部检测框区域;
比较模块,用于将各像素的概率与预设概率阈值分别进行比较,并提取大于或等于所述预设概率阈值的各目标像素,以形成各目标像素区域;
归一化处理模块,用于对所述各目标像素区域进行归一化处理;
所述计算模块,还用于计算所述各目标像素区域的面积,并确定各目标像素区域中的最大面积轮廓所包围的像素区域,以形成选定轮廓区域;
所述计算模块,还用于计算得到所述选定轮廓区域的质心位置;
确定模块,用于根据所述质心位置,确定当前帧的掌心位置。
7.根据权利要求6所述的掌心定位系统,其特征在于,所述归一化处理模块,用于归一化各目标像素区域的概率值区间在[0,1]。
8.根据权利要求7所述的掌心定位系统,其特征在于,所述确定模块,还用于基于预先设定的带有概率权重的Mean Shift算法,以所述质心位置为种子点,以选定轮廓区域求其最小外接圆半径的预设值作为滑动窗口大小的尺度,通过迭代求取最后收敛的中心位置作为当前帧的初步掌心位置。
9.根据权利要求8所述的掌心定位系统,其特征在于,还包括:
优化模块,用于基于上一帧的掌心位置,确定当前帧的掌心位置影响因子;以及,
基于当前帧的初步掌心位置和当前帧的所述掌心位置影响因子,确定当前帧的最终掌心位置。
10.根据权利要求9所述的掌心定位系统,其特征在于,所述优化模块,用于根据下述关系式计算当前帧的所述最终掌心位置;
Hc(t)=Hc(t-1)*Q+C(t)*(1-Q);
其中,Hc(t)为当前帧的最终掌心位置,Q为掌心位置影响因子,C(t)为当前帧的初步掌心位置,t为时间。
CN201810391790.9A 2018-04-27 2018-04-27 基于深度信息的掌心定位方法及系统 Active CN108564063B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810391790.9A CN108564063B (zh) 2018-04-27 2018-04-27 基于深度信息的掌心定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810391790.9A CN108564063B (zh) 2018-04-27 2018-04-27 基于深度信息的掌心定位方法及系统

Publications (2)

Publication Number Publication Date
CN108564063A true CN108564063A (zh) 2018-09-21
CN108564063B CN108564063B (zh) 2020-12-18

Family

ID=63537047

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810391790.9A Active CN108564063B (zh) 2018-04-27 2018-04-27 基于深度信息的掌心定位方法及系统

Country Status (1)

Country Link
CN (1) CN108564063B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688929A (zh) * 2019-09-20 2020-01-14 北京华捷艾米科技有限公司 一种人体骨架关节点定位方法及装置
CN111127535A (zh) * 2019-11-22 2020-05-08 北京华捷艾米科技有限公司 一种手部深度图像的处理方法及装置
CN111144212A (zh) * 2019-11-26 2020-05-12 北京华捷艾米科技有限公司 一种深度图像目标分割方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101789124A (zh) * 2010-02-02 2010-07-28 浙江大学 对已知摄像机参数和深度信息的视频序列的时空一致性分割方法
CN102981623A (zh) * 2012-11-30 2013-03-20 深圳先进技术研究院 触发输入指令的方法及系统
CN103020885A (zh) * 2011-11-01 2013-04-03 微软公司 深度图像压缩
US20140056471A1 (en) * 2012-08-23 2014-02-27 Qualcomm Incorporated Object tracking using background and foreground models
CN103971380A (zh) * 2014-05-05 2014-08-06 中国民航大学 基于rgb-d的行人尾随检测方法
CN104951758A (zh) * 2015-06-11 2015-09-30 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及系统
US20150332471A1 (en) * 2014-05-14 2015-11-19 Electronics And Telecommunications Research Institute User hand detecting device for detecting user's hand region and method thereof
CN105488802A (zh) * 2015-12-07 2016-04-13 清华大学 一种指尖深度检测方法及系统
CN105945947A (zh) * 2016-05-20 2016-09-21 西华大学 基于手势控制的机器人写字系统及其控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101789124A (zh) * 2010-02-02 2010-07-28 浙江大学 对已知摄像机参数和深度信息的视频序列的时空一致性分割方法
CN103020885A (zh) * 2011-11-01 2013-04-03 微软公司 深度图像压缩
US20140056471A1 (en) * 2012-08-23 2014-02-27 Qualcomm Incorporated Object tracking using background and foreground models
CN102981623A (zh) * 2012-11-30 2013-03-20 深圳先进技术研究院 触发输入指令的方法及系统
CN103971380A (zh) * 2014-05-05 2014-08-06 中国民航大学 基于rgb-d的行人尾随检测方法
US20150332471A1 (en) * 2014-05-14 2015-11-19 Electronics And Telecommunications Research Institute User hand detecting device for detecting user's hand region and method thereof
CN104951758A (zh) * 2015-06-11 2015-09-30 大连理工大学 市区环境下基于视觉的车载行人检测与跟踪方法及系统
CN105488802A (zh) * 2015-12-07 2016-04-13 清华大学 一种指尖深度检测方法及系统
CN105945947A (zh) * 2016-05-20 2016-09-21 西华大学 基于手势控制的机器人写字系统及其控制方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110688929A (zh) * 2019-09-20 2020-01-14 北京华捷艾米科技有限公司 一种人体骨架关节点定位方法及装置
CN110688929B (zh) * 2019-09-20 2021-11-30 北京华捷艾米科技有限公司 一种人体骨架关节点定位方法及装置
CN111127535A (zh) * 2019-11-22 2020-05-08 北京华捷艾米科技有限公司 一种手部深度图像的处理方法及装置
CN111144212A (zh) * 2019-11-26 2020-05-12 北京华捷艾米科技有限公司 一种深度图像目标分割方法及装置
CN111144212B (zh) * 2019-11-26 2023-06-23 北京华捷艾米科技有限公司 一种深度图像目标分割方法及装置

Also Published As

Publication number Publication date
CN108564063B (zh) 2020-12-18

Similar Documents

Publication Publication Date Title
CN106846403B (zh) 一种三维空间中手部定位的方法、装置及智能设备
JP5931215B2 (ja) 姿勢を推定する方法及び装置
US7593552B2 (en) Gesture recognition apparatus, gesture recognition method, and gesture recognition program
US8879787B2 (en) Information processing device and information processing method
EP2339507B1 (en) Head detection and localisation method
US20150206003A1 (en) Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
US20140098093A2 (en) Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
Tulyakov et al. Robust real-time extreme head pose estimation
CN108564063A (zh) 基于深度信息的掌心定位方法及系统
US9280703B2 (en) Apparatus and method for tracking hand
CN108549878A (zh) 基于深度信息的手部检测方法及系统
CN106778767B (zh) 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN116664620A (zh) 一种基于追踪系统的画面动态捕捉方法及相关装置
CN109166136B (zh) 移动机器人基于单目视觉传感器的目标对象跟随方法
JP2000149025A (ja) ジェスチャ認識装置及び方法
KR101350387B1 (ko) 깊이 정보를 이용한 손 검출 방법 및 그 장치
CN108665470B (zh) 一种交互式轮廓提取方法
CN108109115B (zh) 人物图像的增强方法、装置、设备及存储介质
Azhar et al. Significant body point labeling and tracking
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
Song et al. Hand gesture detection and tracking methods based on background subtraction
JP2017227687A (ja) カメラアセンブリ、そのカメラアセンブリを用いる手指形状検出システム、そのカメラアセンブリを用いる手指形状検出方法、その検出方法を実施するプログラム、及び、そのプログラムの記憶媒体
De Beugher et al. Semi-automatic hand annotation making human-human interaction analysis fast and accurate
EP3168780B1 (en) Image processing apparatus, image processing method, and computer-readable recording medium
Mohammadi et al. Enhanced adaptive bandwidth tracking using mean shift algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant