CN103389799A - 一种对手指尖运动轨迹进行跟踪的方法 - Google Patents
一种对手指尖运动轨迹进行跟踪的方法 Download PDFInfo
- Publication number
- CN103389799A CN103389799A CN2013103140625A CN201310314062A CN103389799A CN 103389799 A CN103389799 A CN 103389799A CN 2013103140625 A CN2013103140625 A CN 2013103140625A CN 201310314062 A CN201310314062 A CN 201310314062A CN 103389799 A CN103389799 A CN 103389799A
- Authority
- CN
- China
- Prior art keywords
- finger tip
- field picture
- point
- obtains
- profile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
本发明公开了一种对手指尖运动轨迹进行跟踪的方法,包括检测各帧图像中的指尖的位置的步骤以及将当前帧中的指尖与前一帧中的指尖进行关联的步骤,在关联进行跟踪时,利用前一帧中的指尖的检测位置以及计算得到的指尖的速度和加速度,从而预测得到当前帧中的相应指尖的位置,作为预测位置;通过预测位置,使当前帧中的指尖与距离其最近的预测位置处指尖关联,进而关联至上一帧中相应的指尖,实现运动轨迹的跟踪。由于通过前一帧的信息预测得到预测位置,使得预测位置与当前帧中检测到的相对应的指尖的位置非常接近,这样通过预测位置作为中间过渡量实现关联,可使当前帧中的指尖较准确地关联至前一帧中相应的指尖,提高了指尖跟踪的准确性。
Description
【技术领域】
本发明涉及图像处理与分析技术,特别是涉及一种对手指尖运动轨迹进行跟踪的方法。
【背景技术】
随着人机交互技术的发展和智能电视、智能手机等智能终端设备的普及,简单、自然、直观的人机交互方式越来越受到人们的欢迎。基于视觉的人机交互方式直接通过视频采集用户信息(比如人脸、步态、手势等),具有简单自然的优点,从而成为当前的一个热点研究方向。
在传统的人机交互过程中,人们通过鼠标、键盘、触摸屏等物理设备实现与设备之间的交互,但无法满足人们对简单、自然、直观的要求。例如,在强调自动化、智能化和网络化的家居环境中,使用鼠标、键盘、遥控器乃至触摸屏对家电设备进行控制都将给用户带来诸多不便。
基于指尖的人机交互通过识别用户指尖的位置或轨迹来实现人机交互,为用户提供了一种更便捷的交互模式,不仅能显著提升用户体验,而且还降低了用户对硬件设备的依赖程度,在机器人控制、虚拟现实、消费类电子产品、医疗卫生、视频游戏以及智能家居等诸多领域得到越来越广泛的应用。
指尖运动轨迹的跟踪主要分为基于数据手套的指尖跟踪和基于视频的指尖跟踪。基于数据手套的指尖跟踪需要用户在识别的过程中始终佩戴一种类似于手套的特殊设备,设备昂贵而且使用起来非常不方便,只能适用于某些特定的场合。基于视频的指尖跟踪可以分为基于特殊摄像头的指尖跟踪和基于普通摄像头的指尖跟踪。基于特殊摄像头的指尖跟踪采用红外摄像头、立体摄像头等特殊摄像头,由于特殊摄像头价格比较昂贵,因此无法实现广泛应用。基于普通摄像头的指尖跟踪分为基于标记的指尖跟踪和基于裸手的指尖跟踪。基于标记的指尖跟踪需要在手指或指尖上做特定的标记,以便于分割提取。虽然基于标记的指尖跟踪通过辅助设备提高了指尖跟踪的精度,但是影响了人机之间交互的自然直观。基于裸手的指尖跟踪具有直观便捷的优点,是目前国内外的研究趋势。
当前,基于裸手的指尖轨迹跟踪通常假设用户的手臂被衣服等遮盖,没有充分考虑手臂裸露时对指尖跟踪的干扰。而对于多目标的指尖跟踪,目前常用的方法为将当前帧中检测的指尖位置与上一帧中距离其最近的指尖相关联。这种方法虽然简单,但是当指尖运动幅度较大时,将会导致关联错误。
【发明内容】
本发明所要解决的技术问题是:弥补上述现有技术的不足,提出一种对手指尖运动轨迹进行跟踪的方法,可以避免指尖运动幅度过大时导致指尖的关联失误。
本发明的技术问题通过以下的技术方案予以解决:
一种对手指尖运动轨迹进行跟踪的方法,包括以下步骤:1)利用摄像装置获取手指运动时的连续多帧图像,检测得到各帧图像中的指尖的位置,作为检测位置Xi=((x1,y1),(x2,y2)B(xj,yj)),其中i表示帧数,j表示指尖的数目,(xj,yj)表示第j个指尖的检测位置;2)针对各帧图像中的指尖,将其与前一帧图像中相应的指尖进行关联;具体为:以当前帧为第i帧图像说明:21)使用前三帧图像得到的指尖的检测位置,计算得到指尖的加速度和各帧图像中指尖的速度;22)根据步骤21)得到的所述加速度和第i-1帧图像中指尖的速度,以及第i-1帧图像中指尖的检测位置,预测第i帧图像中指尖的位置,得到第i帧图像中指尖的预测位置Xi′=((x1′,y1′),(x2′,y2′)B(x′j,yj′));23)针对各个指尖,检测得到与其欧式距离最小的预测位置相应的指尖,进而得到第i帧图像中各个指尖在第i-1帧图像中的相应指尖;24)针对各个指尖,将第i帧图像中各个指尖与第i-1帧图像中的相应指尖进行关联,得到各个指尖的运动轨迹。
本发明与现有技术对比的有益效果是:
本发明的对手指尖运动轨迹进行跟踪的方法,在指尖跟踪的过程中,先利用前三帧图像中指尖的检测位置预测得到当前帧中指尖的预测位置,则跟踪时,通过检测位置与预测位置的欧式距离最小的判断方法从而关联预测位置处相应的指尖,进而关联到前一帧中相应的指尖。由于通过前一帧的信息预测得到预测位置,使得预测位置与当前帧中检测到的相对应的指尖的位置非常接近,这样借助预测位置关联,相对于现有技术中直接由当前帧关联前一帧,可以避免指尖运动幅度过大时导致的关联失误,提高了指尖跟踪的准确性,增强了系统的鲁棒性。
【附图说明】
图1是本发明具体实施方式的对手指尖运动轨迹进行跟踪的方法的流程图;
图2是本发明具体实施方式的步骤1)中检测图像中指尖的检测位置的方法流程图;
图3是本发明具体实施方式的步骤13)中通过计算曲率检测指尖点的坐标位置时的方法流程图;
图4是本发明具体实施方式的步骤13)中通过计算曲率检测指尖点的坐标位置时的一种优选方法流程图;
图5是本发明具体实施方式的步骤13)中通过计算曲率检测指尖点的坐标位置时的另一种优选方法流程图。
【具体实施方式】
下面结合具体实施方式并对照附图对本发明做进一步详细说明。
如图1所示,为本具体实施方式中的对手指尖运动轨迹进行跟踪的方法的流程图,方法包括以下步骤:
1)利用摄像装置获取手指运动时的连续多帧图像,检测得到各帧图像中的指尖的位置。用Xi=((x1,y1),(x2,y2)B(xj,yj))表示各指尖的检测位置,其中i表示帧数,j表示指尖的数目,(xj,yj)表示第j个指尖的检测位置。
具体地,如图2所示,为步骤1)中检测图像中指尖的检测位置的方法流程图,包括以下步骤:
11)针对获取的各帧图像,提取图像中运动信息和肤色信息,得到各帧图像对应的包含运动信息的二值图像和包含肤色信息的二值图像。
在本具体实施方式中,摄像装置获取的视频图像为基于RGB颜色空间的彩色图像。获取包含运动信息的二值图像时,通过对视频图像中的连续三帧进行三帧差分来检测当前帧中运动目标本身的变化区域,得到运动目标的运动信息。具体为按照如下公式(1),公式(2)和公式(3)计算得到三帧差分图Fk(x,y)。其中Ik(x,y)是获取的第k帧图像中像素点(x,y)处的像素值,To为二值化时设定的阈值,Dk(x,y)是二帧差分图。
Fk(x,y)=Dk(x,y)&Dk+1(x,y) (3)
根据上述公式可得,二帧差分图Dk(x,y)为二值图像,其中较明亮的目标区域反映的是当前帧中像素值相对于上一帧中像素值变化较大,运动的像素点;同样,二帧差分图Dk+1(x,y)也为二值图像,其中较明亮的目标区域反映的是下一帧中像素值相对于当前帧中像素值变化较大,运动的像素点。通过两个二帧差分图“与”运算后得到三帧差分图,其也为二值图像,明亮的目标区域即为两次差分过程中均有运动的像素点。通过前后两次差分后与运算得到的运动信息的二值图像,更能精确地反应当前帧图像中的运动信息,得到的包含运动信息的二值图像更精确。
获取包含肤色信息的二值图像时,首先根据转换公式(4)将视频图像从RGB颜色空转换为YCrCb颜色空间:
在YCrCb颜色空间,Y代表光照分量,Cr和Cb表示色调信息,即是要获取的肤色信息。由于各种族的肤色对应的参数Cr和Cb的取值的范围不同,因此需要根据图像中肤色设置二值化阈值范围,将满足阈值范围的像素点作为目标点,将其余点作为背景点,得到二值化图像。例如,如摄取的图像中的手指肤色为黄色人种的手指,则Cr值的范围通常为[133,173],Cb值的范围通常为[77,127],因此上述转换后,将Cr值在[133,173]范围,Cb值在[77,127]范围内的像素点的灰度值取255,其余不满足该范围条件的像素点的灰度值取0,从而得到包含肤色信息的二值图像。
12)针对各帧图像,对包含运动信息的二值图像和包含肤色信息的二值图像进行与操作,得到各帧图像对应的包含手部区域的二值图像。
此步骤,即是根据运动信息和肤色信息进行前景分割,获得包含手部区域的二值图像。优选地,该步骤中还包括对得到的二值图像进行形态学处理去除噪音的过程。如,利用形态学中的腐蚀来消除二值图像中的孤立的小区域,利用形态学中的膨胀来消除二值图像中的孤立的小空洞。通过形态学处理去除噪音,从而得到比较光滑的包含手部区域的二值图像,提高后续跟踪处理的准确性。
13)针对各帧图像,对获得的包含手部区域的二值图像进行轮廓提取,通过计算曲率的方法检测得到各帧图像中的指尖的检测位置。指尖的检测位置使用标记Xi=((x1,y1),(x2,y2)B(xj,yj))表示,其中i表示帧数,j表示指尖的数目,(xj,yj)表示第j个指尖的检测位置,即图像中包括j个指尖,需要分别得到这j个指尖的位置坐标(x,y)。
具体地,步骤13)进行轮廓提取时,采用如下方法:寻找步骤12)中得到的二值图像中周长最大的轮廓,若该轮廓的周长值大于设定的阈值,则以该轮廓为提取的轮廓,继续进行后续的处理过程;若该轮廓的周长值小于设定的阈值,则认为前景分割出错,重新进行步骤11)至12)。
步骤13)提取到轮廓后,计算曲率检测指尖点的坐标位置时,优选地,按照如图3所示的方法进行:
131)计算轮廓上各个点的曲率,将曲率大于设定阈值的点作为指尖候选点。
具体地,以点Q为例说明,对于点Q处的两个向量,第一个向量为第二个向量为其中,Q1点为候选点Q沿轮廓向前的第N个点,Q2点为候选点Q沿轮廓向后的第N个点,其中N的取值范围为5~20,则点Q的曲率为向量和向量的夹角θ的余弦值,如公式(5)所示:
计算出轮廓上所有点的曲率后,设定一个阈值范围,将曲率满足阈值要求的点构成一个集合,作为指尖的候选点。由于指尖出相邻两个向量的夹角较小,因此其余弦值较大,例如设定阈值为0.8,当某点的曲率大于0.8时,即将该点作为指尖候选点。当然,此处阈值的具体取值,需要根据N值的大小以及多次测试后根据用户经验设置,上述仅距离说明,并不是唯一的阈值设定值。
由于除了指尖附近的轮廓点曲率较大之外,位于两指之间的凹槽处,手掌与手臂的连接处,以及手臂与衣服等背景的分割处等的轮廓点也有较大的曲率,但其为干扰点。也即,通过曲率计算,判断的方法,会将指尖处的点,两指间凹槽处,手背与手臂的连接处,手臂与衣服等背景的分割处的点作为候选点保留。为了避免误判,应配合后续的去除干扰点的步骤将除指尖外的干扰点排除掉。
132)距离变换法去除干扰点:
a)对步骤12)中得到的包含手部区域的二值图像进行距离变换,得到距离变换后的距离图像。其中,距离变换是针对二值图像的一种变换。在二维空间中,一幅二值图像可以认为仅含目标和背景两种像素,目标像素值为1,背景像素值为0。距离变换的结果不是另一幅二值图像,而是一幅灰度级图像,即距离图像,图像中每个像素的灰度值为该像素与距其最近的背景像素间的距离。通常,距离越近,灰度值越小;距离越远,灰度值越大。
b)将距离图像转换为二值图像,并提取该二值图像的轮廓。转换时,设置转换阈值,例如[80,255],则将灰度值在[80,255]范围内的像素作为明亮的目标点,将灰度值不在上述范围内的像素作为较暗的背景点,从而得到距离变换后的二值图像。
通过距离变换后,即可将步骤12)中包含手部区域的二值图像中手指细长区域去除掉,留下手背区域。如果图像中有手臂裸露区域以及衣服颜色和肤色很接近的区域,也会被留下。
c)计算步骤131)中得到的指尖候选点到步骤b)中得到的二值图像的轮廓的最小距离,若最小距离大于设定的阈值,则保留该指尖候选点;若最小距离小于设定的阈值,则去除该指尖候选点。
具体地,如果步骤131)中确定的指尖候选点为A1,A2,A3,A4,B1,B2,B3,B4,B5,C1,C2,C3,C4。则分别计算上述各点到步骤b)中二值图像的轮廓的最小距离,如候选点为指尖上的点,则其距离步骤b)中二值图像(手背区域,手臂裸露区域)的轮廓的最小距离会较大;如候选点为手背与手臂的连接处,以及手臂与衣服等背景的分割处等的凸出处的干扰点,则其距离步骤b)中二值图像的轮廓的最小距离会较小。因此设置阈值,对于最小距离大于阈值的点,则保留作为候选点;对于最小距离小于阈值的点,则作为干扰点排除掉。
通过上述距离转换方法的处理,即可以排除掉手背与手臂的连接处,以及手臂与衣服等背景的分割处等的凸出处的干扰点。
133)将剩余的指尖候选点进行聚类,得到各个指尖对应的指尖候选点,将各个指尖对应的指尖候选点的坐标位置取平均值作为相应指尖的坐标位置,从而得到各个指尖的坐标位置。
具体地,如果步骤132)距离变换法去除掉干扰点后,剩余的指尖候选点分别为A1,A2,B1,B3,B4,C2,C3和C4,如果指尖候选点对应同一指尖,则指尖候选点的坐标位置相近,因此,根据这一原则,将坐标位置相近的点聚类,得到各个指尖对应的指尖候选点。如食指指尖,对应的候选点为A1,A2;中指指尖,对应的候选点为B1,B3,B4;无名指指尖,对应的候选点为C2,C3和C4。将候选点A1和A2的坐标位置中x坐标取平均值,y坐标取平均值,得到食指指尖的坐标位置(x1,y1)。类似地,将候选点B1,B3和B4的坐标位置取平均值,得到中值指尖的坐标位置(x2,y2)。将候选点为C2,C3和C4的坐标位置取平均值,得到无名指指尖的坐标位置(x3,y3)。综上,即得到各个指尖的检测位置(x1,y1),(x2,y2)B(xj,yj)。
本具体实施方式中,优选地,按照上述步骤131)-133)检测各个指尖的位置,检测过程中,采用曲率的方法来确定候选指尖点,通过距离变换的方法排除干扰指尖点,并对剩余的候选指尖点进行聚类得到指尖的位置,从而对于手臂裸露以及衣服的颜色和肤色很接近的情况下,依然可以排除掉干扰点,增强了系统的鲁棒性。通过上述方法检测指尖位置时,可不再要求必须让手臂被衣服遮盖,及时手臂裸露,也可实现检测跟踪,从而扩大了人机交互系统的应用范围。
在检测过程中进一步优选地,如图4和图5所示,步骤133)之前还包括步骤132’)向量叉乘法去除干扰点:a’)取步骤131)获得指尖候选点处的两个向量,以指尖候选点P为例说明,第一个向量为第二个向量为其中,P1点为候选点P沿轮廓向前的第N个点,P2点为候选点P沿轮廓向后的第N个点;其中N的取值范围为5~20;b’)计算各指尖候选点处的两个向量的叉乘,根据叉乘结果选择需要保留的指尖候选点。选择时,按照如下两种情况进行选择:
第一种情况:轮廓的方向为逆时针方向,且取垂直于图像平面(纸面、屏幕等轮廓所在的平面)朝向用户的方向为正方向时,若指尖候选点处的叉乘值大于0,则保留该指尖候选点;若叉乘值小于0,则去除该指尖候选点。这是因为:若轮廓的方向为逆时针方向,则轮廓上凸出处点的向量和向量的叉乘方向是垂直于平面(纸面、屏幕等轮廓所在的平面)朝向用户;凹槽处点的向量和向量的叉乘方向是垂直于平面(纸面、屏幕等轮廓所在的平面)远离用户。取垂直于平面(纸面、屏幕等轮廓所在的平面)朝向用户的方向为正方向,则轮廓上指尖等凸出处点的向量的叉乘大于零,凹槽处点的向量的叉乘小于零。通过计算候选点处两个向量的叉乘,并去除叉乘值小于零的点,即排除掉位于两指之间的凹槽处,手掌与手臂的连接处,以及手臂与衣服等背景的分割处等的凹槽处的干扰点。
第二种情况:轮廓的方向为顺时针方向,且取垂直于图像平面(纸面、屏幕等轮廓所在的平面)朝向用户的方向为正方向时,若指尖候选点处的叉乘值大于0,则去除该指尖候选点;若叉乘值小于0,则保留该指尖候选点。这是因为:若轮廓的方向为顺时针方向,则轮廓上凸出处点的向量和向量的叉乘方向是垂直于平面(纸面、屏幕等轮廓所在的平面)远离用户;凹槽处点的向量和向量的叉乘方向是垂直于平面(纸面、屏幕等轮廓所在的平面)朝向用户。取垂直于平面(纸面、屏幕等轮廓所在的平面)朝向用户的方向为正方向,则轮廓上指尖等凸出处点的向量的叉乘小于零,凹槽处点的向量的叉乘大于零。通过计算候选点处两个向量的叉乘,并除去叉乘值大于零的点,即排除掉位于两指之间的凹槽处,手掌与手臂的连接处,以及手臂与衣服等背景的分割处等的凹槽处的干扰点。
按照上述方式中的指尖候选点的向量叉乘结果去除部分干扰点,即排除掉位于两指之间的凹槽处,手掌与手臂的连接处,以及手臂与衣服等背景的分割处等的凹槽处的干扰点。上述优选方案中,距离变换法和向量叉乘法共同作用,可全面去除干扰点,提高指尖点检测的准确性。
步骤1)检测得到各帧图像中的指尖的检测位置后,进入步骤2)将各帧图像中的指尖,与前一帧图像中相应的指尖进行关联。继续如图1所示,具体为:
21)使用前三帧图像得到的指尖的检测位置,计算得到指尖的加速度和各帧图中指尖的速度。
具体地,根据如下方式计算得到指尖的加速度和各帧图像中指尖的速度:
其中,Xi-1、Xi-2和Xi-3分别为第i-1帧、第i-2帧、第i-3帧图像中的指尖的检测位置,Vi-1、Vi-2和Vi-3分别为第i-1帧、第i-2帧、第i-3帧图像中的指尖的速度,t为两帧图像拍摄的间隔时间,a为指尖运动的加速度。上述4个方程式中,参量Xi-1、Xi-2和Xi-3均在步骤1)中检测得到,拍摄间隔时间t是已知的,即可求解得到未知的速度参量Vi-1、Vi-2和Vi-3以及加速度a。
22)根据步骤21)得到的所述加速度和第i-1帧图像中指尖的速度,以及第i-1帧图像中指尖的检测位置,预测第i帧图像中指尖的位置,得到第i帧图像中指尖的预测位置。
具体地,由于步骤21)中已求解得到第i-1帧图像中指尖的速度Vi-1,加速度a,且第i-1帧图像中指尖的检测位置Xi-1和间隔时间t是已知的,因此根据位移计算公式,可预测得到该指尖的预测位置Xi’:根据该公式,即第1个指尖预测得到第1个预测位置,第2个指尖得到第2个预测位置,……,第j个指尖得到第j个预测位置,即Xi-1中j个元素分别一一对应预测得到Xi’中j个元素,((x1′,y1′),(x2′,y2′)B(xj′,yj′)。
23)针对各个指尖,检测得到与其欧式距离最小的预测位置相应的指尖,进而得到第i帧图像中各个指尖在第i-1帧图像中的相应指尖。
24)针对各个指尖,将第i帧图像中各个指尖与第i-1帧图像中的相应指尖进行关联,得到各个指尖的运动轨迹。
具体为:以当前帧中第j个指尖说明,步骤1)中已检测得到其检测位置(xj,yj),步骤22)中预测得到各个指尖的预测位置((x1′,y1′),(x2′,y2′)B(xj′,yj′),计算该检测位置与各个预测位置之间的欧式距离得到欧式距离最小值对应的预测位置为第k个指尖的预测位置,如当前为第j个指尖,其距离第k个指尖的预测位置的欧式距离最小,则该第k个指尖即为第j个指尖相应的预测指尖,该第i-1帧图像中的第k个指尖即为当前第j个指尖的相应指尖。相应地,步骤24)中将第i帧图像中的第j个指尖与第i-1帧图像中的第k个指尖相关联,即得到第j个指尖的运动轨迹。对j个指尖分别检测欧式距离最小值,获得对应的预测指尖,进而获得对应的上一帧的相应指尖,将j个指尖与各自相应的上一帧的相应指尖关联起来,从而实现了多个指尖的跟踪。
本具体实施方式通过摄像头得到视频图像,获得视频图像帧中的运动信息和肤色信息,根据获得的运动信息和肤色信息提取包含手部区域的二值图像,然后从包含手部区域的二值图像中检测用户的指尖,并实现指尖的跟踪。上述跟踪过程中,使用预测位置作为中间过渡,将当前帧中的指尖与上一帧中的相应指尖关联,实现运动轨迹的跟踪。
由于利用摄像装置进行视频采集的过程中,帧与帧之间的时间间隔t的值很小,比如若摄像装置的视频采集频率为25帧每秒,帧与帧之间的时间间隔t为40毫秒。在t这一短时间段内,指尖运动的加速度几乎不发生变化或变化很小,因此根据前一帧的信息预测得到的当前帧中指尖的预测位置,与当前帧中检测到的相对应的指尖的位置非常接近。指尖运动过程中,由于指尖运动的速度、加速度的存在,当前帧中检测到的指尖的位置与前一帧中检测到的相对应的指尖的位置存在一定的距离。如果指尖的运动幅度较大时,相应指尖之间的欧式距离不一定是最小的,如果按现有技术中当前帧直接关联前一帧,则会导致关联失误。例如,当前帧的食指错误关联至前一帧的中指,当前帧的中值错误关联至前一帧的无名指等等。但如果按本具体实施方式中借助预测位置关联,由于当前帧中指尖的预测位置与实际的位置较为接近,因此可准确关联出相应的指尖(食指关联预测位置相应的食指,中指关联预测位置相应的中指等等),而各指尖的预测位置均是根据上一帧中的相应指尖的检测位置计算得到,因此借助预测位置,使得当前帧中的指尖能关联至上一帧中相应的指尖(食指关联上一帧中的食指,中指关联上一帧中的中指等等),从而避免了指尖运动幅度过大时直接由当前帧关联前一帧而导致的关联失误,提高了指尖跟踪的准确性,增强了系统的鲁棒性。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下做出若干替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。
Claims (10)
1.一种对手指尖运动轨迹进行跟踪的方法,其特征在于:包括以下步骤:
1)利用摄像装置获取手指运动时的连续多帧图像,检测得到各帧图像中的指尖的位置,作为检测位置Xi=((x1,y1),(x2,y2)B(xj,yj)),其中i表示帧数,j表示指尖的数目,(xj,yj)表示第j个指尖的检测位置;
2)针对各帧图像中的指尖,将其与前一帧图像中相应的指尖进行关联;具体为:以当前帧为第i帧图像说明:
21)使用前三帧图像得到的指尖的检测位置,计算得到指尖的加速度和各帧图像中指尖的速度;
22)根据步骤21)得到的所述加速度和第i-1帧图像中指尖的速度,以及第i-1帧图像中指尖的检测位置,预测第i帧图像中指尖的位置,得到第i帧图像中指尖的预测位置Xi′=((x1′,y1′),(x2′,y2′)B(x′j,yj′));
23)针对各个指尖,检测得到与其欧式距离最小的预测位置处相应的指尖,进而得到第i帧图像中各个指尖在第i-1帧图像中的相应指尖;
24)针对各个指尖,将第i帧图像中各个指尖与第i-1帧图像中的相应指尖进行关联,得到各个指尖的运动轨迹。
2.根据权利要求1所述的对手指尖运动轨迹进行跟踪的方法,其特征在于:所述步骤21)中根据如下方式计算得到指尖的加速度和各帧图像中指尖的速度:
其中,Xi-1、Xi-2和Xi-3分别为第i-1帧、第i-2帧、第i-3帧图像中的指尖的检测位置,Vi-1、Vi-2和Vi-3分别为第i-1帧、第i-2帧、第i-3帧图像中的指尖的速度,t为两帧图像拍摄的间隔时间,a为指尖运动的加速度。
4.根据权利要求1所述的对手指尖运动轨迹进行跟踪的方法,其特征在于:所述步骤23)具体为:以当前指尖为第j个指尖说明,计算步骤1)中得到的第i帧图像第j个指尖的检测位置(xj,yj)与步骤22)中得到的第i帧图像各个指尖的预测位置的欧式距离,得到欧式距离最小值对应的预测位置为第k个指尖的预测位置,该第k个指尖即为第j个指尖相应的预测指尖,该第i-1帧图像中的第k个指尖即为当前第j个指尖的相应指尖。
5.根据权利要求4所述的对手指尖运动轨迹进行跟踪的方法,其特征在于:所述步骤24)中将第i帧图像中的第j个指尖与第i-1帧图像中的第k个指尖相关联,得到第j个指尖的运动轨迹。
6.根据权利要求1所述的对手指尖运动轨迹进行跟踪的方法,其特征在于:所述步骤1)包括以下步骤:
11)针对获取的各帧图像,提取图像中运动信息和肤色信息,得到各帧图像对应的包含运动信息的二值图像和包含肤色信息的二值图像;
12)针对各帧图像,对包含运动信息的二值图像和包含肤色信息的二值图像进行与操作,得到各帧图像对应的包含手部区域的二值图像;
13)针对各帧图像,对获得的包含手部区域的二值图像进行轮廓提取,通过计算曲率的方法检测得到各帧图像中的指尖的检测位置Xi=((x1,y1),(x2,y2)B(xj,yj)),其中i表示帧数,j表示指尖的数目,(xj,yj)表示第j个指尖的检测位置。
7.根据权利要求6所述的对手指尖运动轨迹进行跟踪的方法,其特征在于:所述步骤13)中计算曲率检测得到检测位置时,具体包括如下步骤:
131)计算轮廓上各个点的曲率,将曲率大于设定阈值的点作为指尖候选点;
132)距离变换法去除干扰点:a)对步骤12)中得到的包含手部区域的二值图像进行距离变换,得到距离变换后的距离图像;b)将距离图像转换为二值图像,并提取该二值图像的轮廓;c)计算步骤131)中得到的指尖候选点到步骤b)中得到的二值图像的轮廓的最小距离,若最小距离大于设定的阈值,则保留该指尖候选点;若最小距离小于设定的阈值,则去除该指尖候选点;
133)将剩余的指尖候选点按照坐标位置进行聚类,得到各个指尖对应的指尖候选点,将各个指尖对应的指尖候选点的坐标位置取平均值作为相应指尖的坐标位置,从而得到各个指尖的坐标位置(x1,y1),(x2,y2)B(xj,yj))。
10.根据权利要求6所述的对手指尖运动轨迹进行跟踪的方法,其特征在于:所述步骤13)中进行轮廓提取时,采用如下方法:寻找步骤12)中得到的二值图像中周长最大的轮廓,若该轮廓的周长值大于设定的阈值,则以该轮廓为提取的轮廓;若该轮廓的周长值小于设定的阈值,则认为出错,重新进行步骤11)至12)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310314062.5A CN103389799B (zh) | 2013-07-24 | 2013-07-24 | 一种对手指尖运动轨迹进行跟踪的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310314062.5A CN103389799B (zh) | 2013-07-24 | 2013-07-24 | 一种对手指尖运动轨迹进行跟踪的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103389799A true CN103389799A (zh) | 2013-11-13 |
CN103389799B CN103389799B (zh) | 2016-01-20 |
Family
ID=49534092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310314062.5A Active CN103389799B (zh) | 2013-07-24 | 2013-07-24 | 一种对手指尖运动轨迹进行跟踪的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103389799B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605442A (zh) * | 2013-11-27 | 2014-02-26 | 深圳贝特莱电子科技有限公司 | 一种多指触摸的识别跟踪方法及系统 |
CN105319716A (zh) * | 2014-07-31 | 2016-02-10 | 精工爱普生株式会社 | 显示装置、显示装置的控制方法及程序 |
CN105701806A (zh) * | 2016-01-11 | 2016-06-22 | 上海交通大学 | 基于深度图像的帕金森震颤运动特征检测方法及系统 |
CN105739702A (zh) * | 2016-01-29 | 2016-07-06 | 电子科技大学 | 用于自然人机交互的多姿态指尖跟踪方法 |
CN106326837A (zh) * | 2016-08-09 | 2017-01-11 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN106815556A (zh) * | 2016-12-20 | 2017-06-09 | 华中科技大学 | 一种多数据类型的平面群集运动数据采集系统 |
CN108205646A (zh) * | 2016-12-19 | 2018-06-26 | 北京数码视讯科技股份有限公司 | 一种手部姿态检测方法及装置 |
CN108509837A (zh) * | 2018-01-29 | 2018-09-07 | 上海数迹智能科技有限公司 | 一种基于深度图像的具有旋转不变性的指尖识别方法 |
CN108986138A (zh) * | 2018-05-24 | 2018-12-11 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN109656393A (zh) * | 2017-10-10 | 2019-04-19 | 北京仁光科技有限公司 | 多指触点的跟踪方法、装置、设备及计算机可读存储介质 |
CN109656457A (zh) * | 2017-10-10 | 2019-04-19 | 北京仁光科技有限公司 | 多指触控方法、装置、设备及计算机可读存储介质 |
CN110044309A (zh) * | 2019-04-08 | 2019-07-23 | 天津字节跳动科技有限公司 | 测量方法和装置 |
CN110688954A (zh) * | 2019-09-27 | 2020-01-14 | 上海大学 | 一种基于向量运算的车辆变道检测方法 |
CN110909592A (zh) * | 2019-10-11 | 2020-03-24 | 重庆特斯联智慧科技股份有限公司 | 一种基于多尺度特征量的目标跟踪方法和系统 |
CN111223168A (zh) * | 2020-01-17 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 目标对象控制方法、装置、存储介质和计算机设备 |
CN112639405A (zh) * | 2020-05-07 | 2021-04-09 | 深圳市大疆创新科技有限公司 | 状态信息确定方法、装置、系统、可移动平台和存储介质 |
CN112906563A (zh) * | 2021-02-19 | 2021-06-04 | 山东英信计算机技术有限公司 | 一种动态手势识别方法、装置、系统及可读存储介质 |
CN113188848A (zh) * | 2021-04-12 | 2021-07-30 | 攸太科技(台州)有限公司 | 一种尿液跟踪方法 |
CN113947683A (zh) * | 2021-10-15 | 2022-01-18 | 兰州交通大学 | 指尖点检测方法、系统及指尖点运动轨迹识别方法、系统 |
CN114384813A (zh) * | 2021-11-30 | 2022-04-22 | 重庆电子工程职业学院 | 智能家居的预警提示系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101593022A (zh) * | 2009-06-30 | 2009-12-02 | 华南理工大学 | 一种基于指端跟踪的快速人机交互方法 |
US20120038559A1 (en) * | 2010-08-13 | 2012-02-16 | Nokia Corporation | Generating Perceptible Touch Stimulus |
CN102363301A (zh) * | 2011-10-19 | 2012-02-29 | 浙江工业大学 | 机器人拟人手指自适应指尖力跟踪控制方法 |
US20120176314A1 (en) * | 2011-01-10 | 2012-07-12 | Samsung Electronics Co., Ltd. | Method and system for controlling mobile device by tracking the finger |
CN102622601A (zh) * | 2012-03-12 | 2012-08-01 | 李博男 | 一种指尖检测方法 |
CN103034851A (zh) * | 2012-12-24 | 2013-04-10 | 清华大学深圳研究生院 | 自学习的基于肤色模型的手部跟踪装置及方法 |
-
2013
- 2013-07-24 CN CN201310314062.5A patent/CN103389799B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101593022A (zh) * | 2009-06-30 | 2009-12-02 | 华南理工大学 | 一种基于指端跟踪的快速人机交互方法 |
US20120038559A1 (en) * | 2010-08-13 | 2012-02-16 | Nokia Corporation | Generating Perceptible Touch Stimulus |
US20120176314A1 (en) * | 2011-01-10 | 2012-07-12 | Samsung Electronics Co., Ltd. | Method and system for controlling mobile device by tracking the finger |
CN102363301A (zh) * | 2011-10-19 | 2012-02-29 | 浙江工业大学 | 机器人拟人手指自适应指尖力跟踪控制方法 |
CN102622601A (zh) * | 2012-03-12 | 2012-08-01 | 李博男 | 一种指尖检测方法 |
CN103034851A (zh) * | 2012-12-24 | 2013-04-10 | 清华大学深圳研究生院 | 自学习的基于肤色模型的手部跟踪装置及方法 |
Non-Patent Citations (1)
Title |
---|
管业鹏,成晓晴: "《指势中的运动手指尖实时跟踪方法》", 《2010 THIRD INTERNATIONAL CONFERENCE ON EDUCATION TECHNOLOGY AND TRAINING (ETT 2010) 》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103605442A (zh) * | 2013-11-27 | 2014-02-26 | 深圳贝特莱电子科技有限公司 | 一种多指触摸的识别跟踪方法及系统 |
CN103605442B (zh) * | 2013-11-27 | 2017-02-01 | 深圳贝特莱电子科技股份有限公司 | 一种多指触摸的识别跟踪方法及系统 |
CN105319716A (zh) * | 2014-07-31 | 2016-02-10 | 精工爱普生株式会社 | 显示装置、显示装置的控制方法及程序 |
CN105701806B (zh) * | 2016-01-11 | 2018-08-03 | 上海交通大学 | 基于深度图像的帕金森震颤运动特征检测方法及系统 |
CN105701806A (zh) * | 2016-01-11 | 2016-06-22 | 上海交通大学 | 基于深度图像的帕金森震颤运动特征检测方法及系统 |
CN105739702A (zh) * | 2016-01-29 | 2016-07-06 | 电子科技大学 | 用于自然人机交互的多姿态指尖跟踪方法 |
CN105739702B (zh) * | 2016-01-29 | 2019-01-22 | 电子科技大学 | 用于自然人机交互的多姿态指尖跟踪方法 |
CN106326837A (zh) * | 2016-08-09 | 2017-01-11 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN106326837B (zh) * | 2016-08-09 | 2019-09-17 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
CN108205646A (zh) * | 2016-12-19 | 2018-06-26 | 北京数码视讯科技股份有限公司 | 一种手部姿态检测方法及装置 |
CN106815556A (zh) * | 2016-12-20 | 2017-06-09 | 华中科技大学 | 一种多数据类型的平面群集运动数据采集系统 |
CN109656393A (zh) * | 2017-10-10 | 2019-04-19 | 北京仁光科技有限公司 | 多指触点的跟踪方法、装置、设备及计算机可读存储介质 |
CN109656457A (zh) * | 2017-10-10 | 2019-04-19 | 北京仁光科技有限公司 | 多指触控方法、装置、设备及计算机可读存储介质 |
CN109656457B (zh) * | 2017-10-10 | 2021-10-29 | 北京仁光科技有限公司 | 多指触控方法、装置、设备及计算机可读存储介质 |
CN108509837A (zh) * | 2018-01-29 | 2018-09-07 | 上海数迹智能科技有限公司 | 一种基于深度图像的具有旋转不变性的指尖识别方法 |
CN108986138A (zh) * | 2018-05-24 | 2018-12-11 | 北京飞搜科技有限公司 | 目标跟踪方法及设备 |
CN110044309A (zh) * | 2019-04-08 | 2019-07-23 | 天津字节跳动科技有限公司 | 测量方法和装置 |
CN110044309B (zh) * | 2019-04-08 | 2021-07-16 | 天津字节跳动科技有限公司 | 测量方法和装置 |
CN110688954A (zh) * | 2019-09-27 | 2020-01-14 | 上海大学 | 一种基于向量运算的车辆变道检测方法 |
CN110909592A (zh) * | 2019-10-11 | 2020-03-24 | 重庆特斯联智慧科技股份有限公司 | 一种基于多尺度特征量的目标跟踪方法和系统 |
CN111223168A (zh) * | 2020-01-17 | 2020-06-02 | 腾讯科技(深圳)有限公司 | 目标对象控制方法、装置、存储介质和计算机设备 |
CN112639405A (zh) * | 2020-05-07 | 2021-04-09 | 深圳市大疆创新科技有限公司 | 状态信息确定方法、装置、系统、可移动平台和存储介质 |
WO2021223166A1 (zh) * | 2020-05-07 | 2021-11-11 | 深圳市大疆创新科技有限公司 | 状态信息确定方法、装置、系统、可移动平台和存储介质 |
CN112906563A (zh) * | 2021-02-19 | 2021-06-04 | 山东英信计算机技术有限公司 | 一种动态手势识别方法、装置、系统及可读存储介质 |
CN113188848A (zh) * | 2021-04-12 | 2021-07-30 | 攸太科技(台州)有限公司 | 一种尿液跟踪方法 |
CN113947683A (zh) * | 2021-10-15 | 2022-01-18 | 兰州交通大学 | 指尖点检测方法、系统及指尖点运动轨迹识别方法、系统 |
CN113947683B (zh) * | 2021-10-15 | 2022-07-08 | 兰州交通大学 | 指尖点检测方法、系统及指尖点运动轨迹识别方法、系统 |
CN114384813A (zh) * | 2021-11-30 | 2022-04-22 | 重庆电子工程职业学院 | 智能家居的预警提示系统 |
CN114384813B (zh) * | 2021-11-30 | 2023-06-20 | 重庆电子工程职业学院 | 智能家居的预警提示系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103389799B (zh) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103389799B (zh) | 一种对手指尖运动轨迹进行跟踪的方法 | |
Zhou et al. | A novel finger and hand pose estimation technique for real-time hand gesture recognition | |
Kim et al. | Simultaneous gesture segmentation and recognition based on forward spotting accumulative HMMs | |
Lee et al. | Vision‐Based Finger Action Recognition by Angle Detection and Contour Analysis | |
CN101593022B (zh) | 一种基于指端跟踪的快速人机交互方法 | |
CN102270348B (zh) | 基于视频流的对变形手势进行跟踪的方法 | |
CN106934333B (zh) | 一种手势识别方法及系统 | |
CN104992171A (zh) | 一种基于2d视频序列的手势识别及人机交互方法和系统 | |
CN101661329B (zh) | 智能终端的操作控制方法及装置 | |
Zhu et al. | Vision based hand gesture recognition | |
US10198627B2 (en) | Gesture identification with natural images | |
CN103984928A (zh) | 基于景深图像的手指手势识别方法 | |
CN104899600A (zh) | 一种基于深度图的手部特征点检测方法 | |
CN103294996A (zh) | 一种3d手势识别方法 | |
CN103353935A (zh) | 一种用于智能家居系统的3d动态手势识别方法 | |
CN102426480A (zh) | 一种人机交互系统及其实时手势跟踪处理方法 | |
CN103092334B (zh) | 虚拟鼠标驱动装置及虚拟鼠标仿真方法 | |
CN103996019A (zh) | 用于检测和跟踪一个物体上多个部位的系统和方法 | |
CN102591533A (zh) | 基于计算机视觉技术的多点触摸屏系统实现方法与装置 | |
She et al. | A real-time hand gesture recognition approach based on motion features of feature points | |
CN107357414B (zh) | 一种点击动作的识别方法及点击动作识别装置 | |
CN105261038A (zh) | 基于双向光流和感知哈希的指尖跟踪方法 | |
CN103426000A (zh) | 一种静态手势指尖检测方法 | |
KR101465894B1 (ko) | 손가락에 부착한 마커를 이용하여 제어 명령을 생성하는 이동 단말 및 손가락에 부착한 마커를 이용하여 단말에서 제어 명령을 생성하는 방법 | |
Półrola et al. | Real-time hand pose estimation using classifiers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |