CN106650628B - 一种基于三维k曲率的指尖检测方法 - Google Patents

一种基于三维k曲率的指尖检测方法 Download PDF

Info

Publication number
CN106650628B
CN106650628B CN201611027090.9A CN201611027090A CN106650628B CN 106650628 B CN106650628 B CN 106650628B CN 201611027090 A CN201611027090 A CN 201611027090A CN 106650628 B CN106650628 B CN 106650628B
Authority
CN
China
Prior art keywords
point
point cloud
color
fingertip
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611027090.9A
Other languages
English (en)
Other versions
CN106650628A (zh
Inventor
高翔
胡浩敏
朱博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201611027090.9A priority Critical patent/CN106650628B/zh
Publication of CN106650628A publication Critical patent/CN106650628A/zh
Application granted granted Critical
Publication of CN106650628B publication Critical patent/CN106650628B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于三维K曲率的指尖检测方法,该方法分为两步,第一步:基于点云颜色区域增长提取手部区域。首先对RGB‑D传感器获取的点云数据进行滤波,然后对其做颜色的区域增长分割,最后采取肤色检测算法获取手部区域的点云数据。第二步:基于三维K曲率算法提取指尖点。在获取手部区域后,对手部点云进行滤波以剔除一些空间离散点,然后利用K曲率算法的思想去处理点云数据,确定指尖候选点,对其指尖候选点聚类,得到指尖点。利用本发明的方法,可以在数字1、2、3、4、5等几种常见手势情况下,在不同位置,不同背景,不同光照环境下,很好地检测出指尖点。本发明的方法与实际指尖点的距离误差仅为5mm左右,具有较好的精确性、鲁棒性。

Description

一种基于三维K曲率的指尖检测方法
技术领域
本发明涉及一种基于三维K曲率算法的指尖检测方法,属于机器视觉技术领域。
背景技术
随着计算机视觉的发展,基于视觉的指尖检测方法已成为人机交互领域的研究热点。在基于视觉的指尖检测,前人已经做了大量的研究工作,然而以前的许多算法只专注于提取二维的指尖并且在手指移动的情况下不能稳定的检测出指尖点。在传统的指尖检测过程中,最常见的方法就是对彩色图像进行肤色检测,但此方法则过于受到光照强度和类肤色背景的影响。随着2010年微软推出Kinect以及其他种类带有深度信息相机的普及,越来越多的研究者通过利用带有深度信息的摄像机对手势和指尖点进行研究。深度信息可以很有效的把场景划分为几个区域,并滤除掉一些区域,即使这些区域有一些相同的特征,如:颜色,轮廓,形状等。Kinect是一种结合RGB摄像头和深度摄像头的相机,它能够获取点云来模拟三维数据。这使得在未知的复杂环境中,人类活动和物体识别变得更加容易。三维手部识别和跟踪也得到了广泛的研究,并应用于不同领域,如:活动识别、手势识别、机器人控制、增强现实等。
对于三维指尖点检测问题,国内外已经有不少专家学者在这方面做了研究。Jahangirnagar Univ.,Dhaka等人利用Kinect的深度图像信息以及基于像素分类的方法进行指尖点检测,并对手势抓取和释放进行识别,平均识别率达到96.96%,但其并未对弯曲指尖点的检测进行研究。Marek Vaneo,Ivan Minarik等人通过基于Kinect深度信息和骨骼信息相结合,利用K曲率算法检测手指指尖点,平均识别率为93%,但其太依赖于骨骼节点,需要Kinect拍摄到整个人体的骨骼框架才能定位手部,在实际应用中,十分不方便。以上方法都只是处理深度图像信息,并未模拟出三维数据。C.M.Mateo,P.Gil等人通过Kinect的深度、彩色信息合成点云,模拟场景的三维数据,并通过肤色检测方法获取人体肤色区域集合,并随后对每个区域计算凸点,通过凸点的个数判定手部区域,并把凸点的最大轮廓的中心作为掌心点,通过掌心点到凸点的距离来判定指尖点。但是,此方法指尖点的判定太过依赖于掌心点的位置。而本发明能够很好地解决上面的问题。
发明内容
本发明目的在于针对上述现有技术的不足,提出了一种基于三维K曲率的指尖检测方法,该方法主要解决了现有技术中太过于依赖骨骼节点和掌心点位置等问题。该方法以三维点云图像为基础,首先对Kinect获取的点云数据进行滤波,然后基于颜色的区域增长对其分割,得到若干区域,然后用肤色检测的方法获取手部区域的点云数据,然后对手部的点云进行滤波以剔除一些空间离散点,再利用K曲率算法的思想去处理点云数据,即人手指尖点到一定距离的手部点的最大夹角小于一定阈值,然后通过确定一个阈值得到指尖候选点,对其指尖候选点聚类,最终得到指尖点,从而实现指尖点的检测。
本发明解决其技术问题所采取的技术方案是:本发明提出一种基于三维K曲率算法的指尖检测方法,该方法包括如下步骤:
S1,通过RGBD摄像装置采集包含人手的三维点云图像
该步骤中利用由微软发布的Kinect传感器结合点云库PCL(Point CloudLibrary)和OpenNi获取包含人手的点云数据。
S2,对点云图像进行直通滤波剔除部分非手部点云
该步骤中利用直通滤波器处理点云图像,对其z值进行直通滤波,过滤掉一些点云数据,保留深度值z在x1到x2之间的点云数据。
S3,对滤波后的点云进行颜色区域增长
在滤波后的RGBD点云图像进行颜色区域增长,把点云图像基于颜色分割为若干块。
S4,肤色检测算法检测并提取手部区域
该步骤中在分割后的点云图像中利用肤色检测算法进行手部区域检测并提取。
S5,利用三维K曲率算法在人手上检测出指尖点
该步骤中基于上一步分割出的手部点云,利用K曲率算法的思想去处理点云数据,即人手指尖点到一定距离的手部点的最大夹角小于一定阈值,然后通过确定一个阈值得到指尖候选点。
S6,聚类获取指尖点的个数并判断手势
该步骤采用K-means聚类算法处理上一步获取的指尖候选点,得到的聚类中心个数,即为指尖点的个数。
进一步地,本发明步骤S2包括,通过直通滤波滤除三维点云图像中深度值Z大于2或小于0.5的点云。
进一步地,本发明所述步骤S3包括,利用区域增长在点云图像中进行基于颜色的分类。
进一步地,本发明所述步骤S4包括,通过肤色检测算法确定手部属于颜色分类后的哪一类,并提取手部区域。
进一步地,本发明所述步骤S5包括,通过三维K曲率算法,即人手指尖点到一定距离的手部点的最大夹角小于一定阈值,然后通过确定一个阈值得到指尖点。
进一步地,本发明所述步骤S6包括,通过三维点云的空间点坐标进行聚类,并根据聚类结果判断指尖点个数。
有益效果:
1、本发明在不同位置,不同背景,不同光照环境下,很好地检测出指尖点。
2、本发明与实际指尖点的距离误差很小,具有较好的精确性、鲁棒性。
3、本发明的指尖点检测不依赖于掌心点。
附图说明
图1为基于三维K曲率算法的指尖检测方法流程图。
图2为场景点云图。
图3为滤波后场景点云图。
图4为颜色区域增长示意图。
图5为手部区域图。
图6为指尖点检测结果和手姿结果。
具体实施方式
下面结合说明书附图对本发明创造作进一步的详细说明。
参照附图来描述本发明的各方面,附图中示出了许多说明的实施例。本发明的实施例不必定意在包括本发明的所有方面。应当理解,本发明介绍的多种构思和实施例,以及下面更加详细地描述的那些构思和实施方式可以以很多方式中任意一种来实施,这是因为本发明所公开的构思和实施例并不限于任何实施方式。另外,本发明公开的一些方面可以单独使用,或者与本发明公开的其他方面的任何适当组合来使用。
图1为根据本发明某些实施例的基于三维K曲率算法的指尖识别方法的流程图,具体包括如下步骤:
S1,采集手部的点云图像;
S2,对点云图像进行滤波;
S3,对滤波后的点云进行基于颜色的区域增长分割;
S4,利用肤色检测算法在点云图中分割出手部;
S5,通过三维K曲率算法检测出指尖候选点;
S6,通过K-means算法将指尖候选点聚类为n个指尖点。
下面结合附图所示,更加具体地描述前述基于头部姿势识别的智能移动服务机器人控制方法的示例性实现。
步骤S1中,用户坐于智能轮椅上,手放于距离Kinect 50到100厘米处,采集手部点云图像。其效果如图2所示。
步骤S2,对采集到的点云图像进行直通滤波,保留深度值Z大于0.5小于1的点云数据。其滤波效果如图3所示。
步骤S3,对滤波后的点云进行基于颜色的区域增长分割,其具体步骤如下所示:
S31,选择RGB颜色空间进行颜色相似度区分。
S32,确定颜色相似度测量标准,包括以下几个步骤:
S321,首先选取欧式距离来表示其颜色距离,通过计算欧式距离来区分不同颜色。
S322,假设点云数据中的第i,j个点的颜色量分别为Ci,Cj,则此两点之间的颜色距离为:
Figure BDA0001157154760000041
S323,在基于区域生长的点云分割过程中,由于一个区域的颜色可能会分布不均匀,故一般用整个区域的颜色量,来计算与候选点的颜色相似度。点云数据中的第i个点的颜色量Ci与生长区域的平均颜色量
Figure BDA0001157154760000042
的欧式距离为:
Figure BDA0001157154760000043
其中,
Figure BDA0001157154760000044
S33,根据点云的颜色信息(即RGB)来进行点云分割,包括以下几个步骤:
S331,首先,在分割区域中选择任意一点Pi,然后搜索Pi的所有相邻点。
S332,再颜色相似度准则判定Pi的各相邻点是否与Pi是同一类,并同时设定一个颜色阈值。
S333,若同时满足颜色阈值和颜色相似度则把改点进行归类并做种,若只满足颜色相似度准则便只归类不做种。
S3334,从Pi出发,直到其子种子不在出现,则一类聚类完成,随后在剩余的部分继续重复以上步骤,直到整个聚类完成。其聚类效果如图4所示。
步骤S4,利用肤色检测算法在点云图中分割出手部,其具体步骤如下所示:
S41,采用RGB颜色空间对上述点云类检测出肤色区域。当场景在自然光照下,辨别肤色的公式为:
Figure BDA0001157154760000051
R,G,B为RGB图像中每个像素点的值,其范围为0到255。
当场景在人造光照下,其辨别肤色的公式为:
Figure BDA0001157154760000052
无论处于何种场景,肤色点只需满足其中一组公式,即可判定为肤色点。
S42,对点云数据进行基于颜色的区域增长后,判定其中哪类是属于肤色类,其步骤如下所示:
S421,遍历每一类的点云,得到其R,G,B三个分量的平均值
Figure BDA0001157154760000053
其公式如下所示:
Figure BDA0001157154760000061
其中,Ri,Gi,Bi为每一类点云中第i个点云的R,G,B分量。n为每一类点云的点云个数。
Figure BDA0001157154760000062
为每一类点云的R,G,B三个分量的平均值。
S422,判定其中哪类属于肤色类,并获取手部区域,效果如图5所示。
S5,通过三维K曲率算法检测出指尖候选点,其步骤如下:
S51,以点云数据中其任意一点O为球心,R1,R2为半径做两个球面,来割手部的点云数据,其中R1>R2。若点云分布在这两个球之间,则将其存入集合C。即点云数据中任意一点P到C的距离在R1,R2之间。其公式为:
Figure BDA0001157154760000063
其中x0,y0,z0分别为球心点O的x,y,z坐标值,xp,yp,zp分别为p的x,y,z坐标值。
S52,根据上述公式遍历整个点云数据得到其属于两个球之间的点云数据C。
S53,求出球心点O与点云C中的任意两点点云Ci,Cj的最大夹角α。设β为球心点O与球环内点云中的任意两点点云Ci,Cj的夹角,其cosβ的计算公式为:
Figure BDA0001157154760000064
其中di为球心O到点Ci的距离,dj为球心O到点Cj的距离,dij为点Ci到Cj的距离。只需根据上述公式遍历球环内的点云数据即可得到最大夹角的余弦值cosα。
S54,根据手部外形可知,指尖点与非指尖点的cosα有十分明显的区别,故选取一个角度阈值θ来判定其是否为指尖点。若α<θ则判定该点为指尖点,反之则说明其为非指尖点。
步骤S6,通过K-means算法将指尖候选点聚类为n个指尖点,并根据指尖点个数确定手势,其结果如图6所示。
结合以上所描述的指尖检测方法,在光照度适中的室内,Kinect摄像头放置在手部前方50-100厘米处,手部随意做出不同手势,摆放在不同位置,均能较好的检测出指尖点。
虽然本发明已以较佳实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视权利要求书所界定者为准。

Claims (1)

1.一种基于三维K曲率的指尖检测方法,其特征在于,所述方法包括如下步骤:
步骤1:通过RGBD摄像装置采集包含人手的三维点云图像;
步骤2:对点云图像进行直通滤波剔除部分非手部点云;
步骤3:对滤波后的点云进行颜色区域增长;
S31,选择RGB颜色空间进行颜色相似度区分;
S32,确定颜色相似度测量标准,包括以下几个步骤:
S321,首先选取欧式距离来表示其颜色距离,通过计算欧式距离来区分不同颜色;
S322,假设点云数据中的第i,j个点的颜色量分别为Ci,Cj,则此两点之间的颜色距离为:
Figure FDA0002758272990000011
S323,在基于区域生长的点云分割过程中,由于一个区域的颜色可能会分布不均匀,故一般用整个区域的颜色量,来计算与候选点的颜色相似度,点云数据中的第i个点的颜色量Ci与生长区域的平均颜色量
Figure FDA0002758272990000012
的欧式距离为:
Figure FDA0002758272990000013
其中,
Figure FDA0002758272990000014
S33,根据点云的颜色信息即RGB来进行点云分割,包括以下几个步骤:
S331,首先,在分割区域中选择任意一点Pi,然后搜索Pi的所有相邻点;
S332,根据颜色相似度准则判定Pi的各相邻点是否与Pi是同一类,并同时设定一个颜色阈值;
S333,若同时满足颜色阈值和颜色相似度则把改点进行归类并做种,若只满足颜色相似度准则便只归类不做种;
S3334,从Pi出发,直到其子种子不在出现,则一类聚类完成,随后在剩余的部分继续重复以上步骤,直到整个聚类完成;
步骤4:肤色检测算法检测并提取手部区域;
S41,采用RGB颜色空间对上述点云类检测出肤色区域,当场景在自然光照下,辨别肤色的公式为:
Figure FDA0002758272990000021
R,G,B为RGB图像中每个像素点的值,其范围为0到255;
当场景在人造光照下,其辨别肤色的公式为:
Figure FDA0002758272990000022
无论处于何种场景,肤色点只需满足其中一组公式,即可判定为肤色点;
S42,对点云数据进行基于颜色的区域增长后,判定其中哪类是属于肤色类,其步骤如下所示:
S421,遍历每一类的点云,得到其R,G,B三个分量的平均值
Figure FDA0002758272990000023
其公式如下所示:
Figure FDA0002758272990000024
其中,Ri,Gi,Bi为每一类点云中第i个点云的R,G,B分量,n为每一类点云的点云个数,
Figure FDA0002758272990000025
为每一类点云的R,G,B三个分量的平均值;
S422,判定其中哪类属于肤色类,并获取手部区域;
步骤5:利用三维K曲率算法在人手上检测出指尖点候选点;
S51,以点云数据中其任意一点O为球心,R1,R2为半径做两个球面,来割手部的点云数据,其中R1>R2,若点云分布在这两个球之间,则将其存入集合C,即点云数据中任意一点P到C的距离在R1,R2之间,其公式为:
Figure FDA0002758272990000031
其中x0,y0,z0分别为球心点O的x,y,z坐标值,xp,yp,zp分别为p的x,y,z坐标值;
S52,根据上述公式遍历整个点云数据得到其属于两个球之间的点云数据C;
S53,求出球心点O与点云C中的任意两点点云Ci,Cj的最大夹角α,设β为球心点O与球环内点云中的任意两点点云Ci,Cj的夹角,其cosβ的计算公式为:
Figure FDA0002758272990000032
其中di为球心O到点Ci的距离,dj为球心O到点Cj的距离,dij为点Ci到Cj的距离,只需根据上述公式遍历球环内的点云数据即可得到最大夹角的余弦值cosα;
S54,根据手部外形可知,指尖点与非指尖点的cosα有十分明显的区别,故选取一个角度阈值θ来判定其是否为指尖点;
步骤6:聚类获取指尖点的个数并得到指尖点;
所述方法以三维点云图像为基础,首先对Kinect获取的点云数据进行滤波,然后基于颜色的区域增长对其分割,得到若干区域,然后用肤色检测的方法获取手部区域的点云数据,然后对手部的点云进行滤波以剔除一些空间离散点,再利用K曲率算法的思想去处理点云数据,即人手指尖点到一定距离的手部点的最大夹角小于一定阈值,然后通过确定一个阈值得到指尖候选点,对其指尖候选点聚类,最终得到指尖点,从而实现指尖点的检测;
所述步骤2包括,通过直通滤波滤除三维点云图像中深度值Z大于2或小于0.5的点云;
所述步骤3包括,利用区域增长在点云图像中进行基于颜色的分类;
所述步骤4包括,通过肤色检测算法确定手部属于颜色分类后的哪一类,并提取手部区域;
所述步骤5包括,通过三维K曲率算法,即人手指尖点到一定距离的手部点的最大夹角小于一定阈值,然后通过确定一个阈值得到指尖点;
所述步骤6包括,通过三维点云的空间点坐标进行聚类,并根据聚类结果判断指尖点个数。
CN201611027090.9A 2016-11-21 2016-11-21 一种基于三维k曲率的指尖检测方法 Active CN106650628B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611027090.9A CN106650628B (zh) 2016-11-21 2016-11-21 一种基于三维k曲率的指尖检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611027090.9A CN106650628B (zh) 2016-11-21 2016-11-21 一种基于三维k曲率的指尖检测方法

Publications (2)

Publication Number Publication Date
CN106650628A CN106650628A (zh) 2017-05-10
CN106650628B true CN106650628B (zh) 2021-03-23

Family

ID=58808591

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611027090.9A Active CN106650628B (zh) 2016-11-21 2016-11-21 一种基于三维k曲率的指尖检测方法

Country Status (1)

Country Link
CN (1) CN106650628B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108961271B (zh) * 2018-06-27 2022-01-07 西安工程大学 一种彩色3d点云超体素凹凸分割算法
CN109344689A (zh) * 2018-08-07 2019-02-15 西安理工大学 一种基于Kinect的哑语手势识别方法
CN109350018B (zh) * 2019-01-08 2019-04-26 湖南超能机器人技术有限公司 应用于手掌疱疹检测系统的基于图像的手掌检测方法
CN110458158B (zh) * 2019-06-11 2022-02-11 中南大学 一种针对盲人辅助阅读的文本检测与识别方法
CN110516564A (zh) * 2019-08-06 2019-11-29 深兰科技(上海)有限公司 路面检测方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184021A (zh) * 2011-05-27 2011-09-14 华南理工大学 一种基于手写输入和指尖鼠标的电视人机交互方法
CN105160323A (zh) * 2015-09-07 2015-12-16 哈尔滨市一舍科技有限公司 一种手势识别方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558031B1 (ko) * 2012-10-30 2015-10-06 삼성에스디에스 주식회사 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184021A (zh) * 2011-05-27 2011-09-14 华南理工大学 一种基于手写输入和指尖鼠标的电视人机交互方法
CN105160323A (zh) * 2015-09-07 2015-12-16 哈尔滨市一舍科技有限公司 一种手势识别方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hand segmentation and fingertip detection for interfacing of stereo vision-based smart glasses;Gisu Heo 等;《2015 IEEE International Conference on Consumer Electronics》;20150326;第585-586页 *
一种基于Kinect的指尖检测算法;王劲东 等;《计算机技术与发展》;20160731;第26卷(第7期);第14-18页 *
基于Kinect的文化遗产个性化虚拟交互展示技术研究;任艳姣;《中国优秀硕士学位论文全文数据库信息科技辑》;20160215(第2期);正文第20,28-30,35-38,40-43页 *

Also Published As

Publication number Publication date
CN106650628A (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
CN106650628B (zh) 一种基于三维k曲率的指尖检测方法
US9330307B2 (en) Learning based estimation of hand and finger pose
Liu et al. Hand posture recognition using finger geometric feature
Xu et al. Online dynamic gesture recognition for human robot interaction
CN109684959B (zh) 基于肤色检测和深度学习的视频手势的识别方法及装置
JP4860749B2 (ja) 画像中の人物における位置決め指示との適合性を判定する機器、システム、及び方法
CN105740780B (zh) 人脸活体检测的方法和装置
EP2339507B1 (en) Head detection and localisation method
Bhuyan et al. Fingertip detection for hand pose recognition
Manigandan et al. Wireless vision based mobile robot control using hand gesture recognition through perceptual color space
Pandey et al. Hand gesture recognition for sign language recognition: A review
CN110263768A (zh) 一种基于深度残差网络的人脸识别方法
CN110032932B (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN108171133A (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN108681711A (zh) 一种面向移动机器人的自然路标提取方法
CN109359514A (zh) 一种面向deskVR的手势跟踪识别联合策略方法
CN109325408A (zh) 一种手势判断方法及存储介质
JP2016014954A (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
CN110942092A (zh) 一种图形图像识别方法及识别系统
Li et al. Visual interpretation of natural pointing gestures in 3D space for human-robot interaction
Sun et al. Kinect-based intelligent monitoring and warning of students' sitting posture
CN117238031A (zh) 一种虚拟人的动作捕捉方法与系统
Simion et al. Finger detection based on hand contour and colour information
Domhof et al. Multimodal joint visual attention model for natural human-robot interaction in domestic environments
JP6467994B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant