CN104392210A - 一种手势识别方法 - Google Patents

一种手势识别方法 Download PDF

Info

Publication number
CN104392210A
CN104392210A CN201410634943.XA CN201410634943A CN104392210A CN 104392210 A CN104392210 A CN 104392210A CN 201410634943 A CN201410634943 A CN 201410634943A CN 104392210 A CN104392210 A CN 104392210A
Authority
CN
China
Prior art keywords
image
current frame
frame image
subregion
hausdorff distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410634943.XA
Other languages
English (en)
Inventor
王勇进
杜尧尧
周玉
冯志全
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Group Co Ltd
Original Assignee
Hisense Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Group Co Ltd filed Critical Hisense Group Co Ltd
Priority to CN201410634943.XA priority Critical patent/CN104392210A/zh
Publication of CN104392210A publication Critical patent/CN104392210A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种手势识别方法,首先通过对用户图像进行边缘检测,根据当前图像和背景图像的边缘检测结果,确定出当前图像相对于背景图像中的运动区域,接下来通过肤色识别确定出用户的手部位置,然后根据各帧图像中用户的手部位置的移动轨迹,确定用户的手势。本发明的手势识别方法在不增加硬件的情况下可以减少光照等外部条件影响对用户手部位置的识别,从而在不增加成本的情况下提高了手势识别的准确率。

Description

一种手势识别方法
技术领域
本发明涉及图像识别技术领域,具体而言,涉及一种手势识别方法。
背景技术
电视机等视频设备由于用户都是远距离观看,因此大都使用遥控器操作,随着产品的智能化越来越高,使用遥控器的操作方式已经不能满足用户的需求。手势控制作为一种新型的控制方式,逐渐被应用于控制电视机等产品上。
目前较为典型的手势识别技术是利用摄像头对拍摄图像,通过对图像进行肤色识别,识别出用户的手部,然后根据手部的形态和位移确定用户的手势。手势识别技术实现了手部信息的捕捉以及手部信息到命令的转换,但现有的手势识别方法存在一些缺陷,由于肤色识别主要是对拍摄到的图像的色彩进行识别,而色彩本身受到外界光线的影响较大,而电视机本身又是发光的,这些光线照射到用户身上会使用户肤色发生变化,这种影响在夜晚表现的尤为明显。在这种情况下,肤色识别的准确度会降低,从而使得手势识别的准确率较低。现有技术为了解决这一问题,通常使用其他硬件对人体进行检测,例如辅助摄像头、红外传感器等进行辅助识别,但是这种方法的缺点是显而易见的:增加了硬件成本。
发明内容
本发明提供了一种手势识别方法,在不增加硬件的情况下,提高了手势识别的准确率。
具体的,本发明提供了一种手势识别方法,包括:
接收当前帧图像;
对当前帧图像和预先设定的背景图像进行边缘检测;
将两帧图像的边缘检测结果进行比较,获得当前帧图像的运动区域;
对当前帧图像的运动区域进行肤色识别,确定当前帧图像中手部的位置;
根据当前帧图像及前后各帧图像中手部的位置确定用户的手部运动轨迹,根据所述手部运动轨迹对用户的手势进行识别。
优选的,所述将两帧图像的边缘检测结果进行比较,获得当前帧图像的运动区域包括:计算当前帧图像边缘点和背景图像边缘点的豪斯多夫距离,根据两组边缘点点集之间的豪斯多夫距离获得当前帧图像的运动区域。
优选的,所述计算当前帧图像边缘点和背景图像边缘点的豪斯多夫距离,根据两组边缘点点集之间的豪斯多夫距离获得当前帧图像的运动区域包括:
将背景图像和当前帧图像划分为若干个大小相等的子区域,计算当前帧图像中每个子区域中图像边缘点与背景图像中对应的子区域的豪斯多夫距离;
计算每个子区域的豪斯多夫距离与第一阀值的差值,将差值大于所述第一阀值的子区域确定为当前帧图像的运动区域。
优选的,所述计算当前帧图像边缘点和背景图像边缘点的豪斯多夫距离,根据两组边缘点点集之间的豪斯多夫距离获得当前帧图像的运动区域包括步骤:
a、将背景图像和当前帧图像划分为若干个大小相等的子区域,计算当前帧图像中每个子区域中图像边缘点与当前帧图像中对应的子区域的豪斯多夫距离;
b、将每个子区域的豪斯多夫距离与第一阀值作比较,若该差值大于第一阀值,则保留该子区域,否则去除;
c、对每个保留的子区域进一步划分为若干个大小相等的小块,计算每个小块的豪斯多夫距离,将每个小块的豪斯多夫距离与对应的阀值作比较,若该差值大于该阀值,则保留该小块,否则去除;
d、重复步骤c,直至单个小块包括的像素点小于预先设定的数量;
e、将所有保留的小块图像确定为当前帧图像的运动区域。
优选的,所述计算当前帧图像中每个子区域中图像边缘点与背景图像中对应的子区域的豪斯多夫距离包括:计算当前帧子区域中每个边缘点与背景图像中对应子区域中的最近的边缘点的欧式距离,将该距离中的最大值确定为该子区域的豪斯多夫距离。
优选的,所述计算当前帧图像中每个子区域中图像边缘点与背景图像中对应的子区域的豪斯多夫距离包括:
计算当前帧子区域中每个边缘点与背景图像中对应子区域中的最近的边缘点的欧式距离,将该距离中的最大值记为该子区域的第一豪斯多夫距离;
计算背景图像子区域中每个边缘点与当前帧对应子区域中的最近的边缘点的欧式距离,将该距离中的最大值记为该子区域的第二豪斯多夫距离;
将第一豪斯多夫距离和第二豪斯多夫距离中的最大值确定为该子区域的豪斯多夫距离。
优选的,所述对当前帧图像进行边缘检测包括:获得当前帧图像的灰度图像,对所述灰度图像进行边缘检测。
优选的,所述获得当前帧图像的灰度图像,对所述灰度图像进行边缘检测,包括:对所述灰度图像进行邻域平均滤波,对滤波后的灰度图像进行边缘检测。
优选的,所述根据当前帧图像及前后各帧图像中手部的位置确定用户的手部运动轨迹包括:计算当前帧图像及前后各帧图像中手部的质心位置,根据每帧图像中手部的质心位置确定确定用户的手部运动轨迹。
优选的,所述根据每帧图像中手部的质心位置确定确定用户的手部运动轨迹包括:将每帧图像中手部的质心位置坐标经过至少一次B样条拟合,获得手部的运动轨迹曲线。
本发明的实施例首先通过对用户图像进行边缘检测,根据当前图像和背景图像的边缘检测结果,确定出当前图像相对于背景图像中的运动区域,运动区域检测可以将用户图像中静止的部分或者是运动不明显的部分去除,这样可以方面的去除掉除用户本身之外的其他图像内容,同时由于用户的面部动作一般幅度较小,因此也可以通过此步骤去除。由于背景及用户面部等区域已经被去除,因而接下来通过肤色识别就可以准确的确定出用户的手部位置,然后根据各帧图像中用户的手部位置的移动轨迹,确定用户的手势。这样,就可以减少光照等外部条件影响对用户手部位置的识别,从而在不增加成本的情况下提高了手势识别的准确率。
 
附图说明
图1是本发明实施例的一种手势识别方法的示意图;
图2是本发明实施例的优选的一种手势识别方法的示意图;
图3是本发明实施例的当前帧图像边缘点和背景图像边缘点之间的豪斯多夫距离的计算方法的示意图;
图4是本发明实施例的每个小块中前帧图像边缘点和背景图像边缘点之间的豪斯多夫距离的计算方法的示意图。
 
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开的具体实施例的限制。
图1是根据本发明的实施例的手势识别方法的流程图。
如图1所示,根据本发明的实施例的手势识别方法可以包括以下步骤:
步骤102,接收用户图像;
具体的,这里的用户图像是连续的用户图像,例如视频。用户图像可以通过摄像头拍摄获得。一般情况下,摄像头获得的用户图像都是RGB图像。
步骤104,对当前帧图像和预先设定的背景图像进行边缘检测;
具体的,这里的背景图像是预先设定的,可以是当前帧图像前面的任一一帧图像。背景图像可以是固定某帧图像,例如接收到的第1帧图像,第3帧图像;也可以按照某种规则确定,例如每隔几帧重新确定一个背景图像;也可以将满足某种条件的图像帧作为背景图像,例如当检测到有运动物品时,将有运动物品的第1帧作为背景图像。
边缘检测的算法可以是Sobel算子算法、Robert算子算法或Canny算法等等,本发明实施例不做限制。
为了使边缘检测的结果更为准确,本实施例可优选的对图像进行平滑处理,平滑处理可以有效的去除图像中的噪点,这样边缘检测的结果更为准确。进一步的,为了减少边缘检测的运算量,也可以先将图像的灰度信息提取出来,获得灰度图像,这样,只需要根据图像的亮度进行边缘检测的计算。
步骤106,将两帧图像的边缘检测结果进行比较,获得当前帧图像的运动区域;
步骤104对背景图像和当前帧图像进行了边缘检测,得到两帧图像的所有边缘点,这些边缘点分别组成两个边缘点集,将两组图像的边缘点集进行比较,即可判断出当前帧图像相对于背景图像,哪些部分发生了变化,变化的部分即为当前帧相对于背景图像的运动区域。例如通过聚类、或者使用主动轮廓线跟踪法提取等。
步骤108,对当前帧图像的运动区域进行肤色识别,确定当前帧图像中手部的位置;
在实际应用中,由于图像中的运动目标可以包括很多方面,例如用户的头部运动,手中的物品,或者是其他运动的物体等等。为了对用户的手势进行识别,就需要对用户的手部进行识别。
一般的手部识别都是先通过肤色识别去除掉除人体肤色,这样保留下来的图像中可能包括用户的面部、手部及裸露的其他部位等,需要通过其他方法进一步确定用户的手部。本实施例中,由于步骤106对运动目标的轮廓进行了提取,而在实际应用中,用户面部的动作都比较小,可以在步骤106中进行剔除,这样,在一般情况下,本实施例通过肤色识别就可以直接识别出用户的手部。
 步骤110,根据当前帧图像及前后各帧图像中手部的位置确定用户的手部运动轨迹,根据所述手部运动轨迹对用户的手势进行识别。
在每帧图像中的用户手部位置确定之后,通过将每帧图像中用户的手部位置按照时间顺序排列,即可获得用户的手部运动轨迹,通过用户的手部运动轨迹,即可识别出用户的手势。
以上对本发明的手势识别方法进行了总体的说明,下面通过具体的实施例对本发明进行详细的说明。
图2所示为一种本发明实施例的手势识别方法的流程图。
步骤202,接收用户图像,初始化第一帧图像为背景图像。
在接收到用户图像时,需要获取每帧图像的宽度、高度、存放图像的指针等信息。
步骤204,对图像进行预处理。
为了减少图像的边缘检测计算量并提高边缘检测的准确度,本发明实施例通过以下过程对图像进行前期处理:
(1)获取每帧用户图像的灰度图像。摄像头拍摄的用户图像一般都是RPG格式,通过亮度提取即可获得一帧灰度图像,具体过程不再赘述。
(2)对获得的灰度图像进行邻域平均滤波,消除图像的噪声信号。一般的图像由于光线或者摄像器材本身的原因,拍摄的图像会存在一些噪点,这些噪点可能对后续的处理会造成影响,因此,本发明实施例通过对图像进行邻域平均滤波来消除图像的噪声信号。
步骤206,对预处理后的图像进行边缘检测。
步骤208,求当前帧图像边缘点和背景图像边缘点之间的Hausdorff距离(豪斯多夫距离),根据这两组点集之间的Hausdorff距离关系获得当前帧图像的运动区域。
下面以分辨率为400*300的图像为例对该步骤进行详细说明:
图3是步骤208的一个具体实现过程,如图3所示:
步骤2081,把当前帧图像和背景图像分成若干小块,依次计算当前帧图像和背景图像相对应的每块小图像的hausdorff距离,将每个小块的hausdorff距离与一个预先设定的阀值作比较,若大于该阀值,则保留该小块的图像,负责剔除。
这里的小块可以是矩形、十字形或其他形状。在本例中,400*300的图像被分成12个矩形小块,每块的大小为100*100。依次计算当前帧图像和背景图像相对应的每块小图像的hausdorff距离,将每个小块的hausdorff距离与一个预先设定的阀值作比较,如果这个距离小于该阈值,就认为这块图像内没有运动的手势轮廓并把这块小图像置为黑色;如果大于一定的阈值,就把这个小图像保存下来。对保留下来的小图像执行步骤2082,如果没有保留下来的小图像就结束。
步骤2082,将保留的小块进一步划分为若干个更小的小块,依次计算当前帧图像和背景图像相对应的每块小图像的hausdorff距离,将每个小块的hausdorff距离与另一个预先设定的阀值作比较,若大于该阀值,则保留该小块的图像,负责剔除。
在本例中,具体的,进一步把保留下来的100*100的小图像分为25*25,依次求当前帧图像和背景图像相对应的每块小图像的hausdorff距离,如果这个距离小于一定的阈值,就认为这块图像内没有运动的手势轮廓并把这块小图像置为黑色;如果大于一定的阈值,就把这个小图像保存下来。对保留下来的小图像执行步骤2082,如果没有保留下来的小图像就结束。
本例中的图像尺寸为400*300,如果图片的尺寸较大,需要重复步骤2082,重复将保留的图像进行分割,直到每个小块小于预先设定的尺寸。
步骤2083,通过对比当前帧图像和背景图像,去除掉静止的边缘点。
在本例中,具体的,再把25*25的小图像分为5*5,依次遍历当前帧图像内的每一个小块,找到每个小块图像的边缘点坐标,再把这个坐标对应到背景图像上,在背景图像上如果这个点是边缘点,则认为这个点在当前帧图像上为静止的边缘点,去除掉;在背景图像上如果这个点不是边缘点,则认为这个点在当前帧图像上为运动的手势轮廓点,保留下来。
步骤2084,根据保留下来的边缘点确定出运动区域。
在本例中,具体的,对当前帧图像内保留下来的边缘点画一个最小包围盒,将这个包围盒的顶点坐标记录下来。
需要说明的是,图3所示的方法是步骤208的一个优选方案,一般情况下,本发明实施例并不需要步骤2081至2084的所有步骤。实际上,在步骤2081中,根据用户图像的大小,将图像划分为比较小的小块,通过设定不同的阀值,即可实现步骤208的效果。
例如,在步骤2081中,将分辨率为400*300的图像划分为100个40*30的小块,通过依次计算当前帧图像和背景图像相对应的每块小图像的hausdorff距离,将每个小块的hausdorff距离与一个预先设定的阀值作比较,若大于该阀值,则保留该小块的图像,负责剔除。这样,保留下来的小块对应的图像即可确定为运动区域。
同样的,步骤2083也是一种优选的方案,不使用步骤2083同样能达到步骤208的效果,当然,步骤的多少在效果上有所不同,运算量也有不同。
在上述步骤中,对于每个小块中当前帧图像和背景图像中边缘点的hausdorff距离的计算有多种方法,本实施例优选的使用以下方法实现:
图4所示为一个子区域或小块中,当前帧图像和背景图像中边缘点的hausdorff距离的计算方法。
步骤402,获得背景图像和当前帧图像边缘点集的坐标和个数。
为了说明方便,这里将背景图像的边缘点记为Bi,将当前帧图像的边缘点记为Ai。
步骤404,计算当前帧图像边缘点集中的每个点Ai到距离此点最近的背景图像边缘点之间的欧氏距离,然后将该距离中的最大值作为第一hausdorff距离,第一hausdorff距离实际上是当前帧图像边缘点集到背景图像边缘点集的hausdorff距离。
步骤406,计算背景图像边缘点集中的每个点Bi到距离此点最近的当前帧图像边缘点之间的欧氏距离,然后取该距离中的最大值作为第二hausdorff距离,第二hausdorff距离实际上是背景图像边缘点集到当前帧图像边缘点集的hausdorff距离。
步骤408,把第一hausdorff距离和第一hausdorff距离两者中的最大值作为这两个点集的hausdorff距离。
需要说明的是,上述步骤是本发明实施例的一个优选的hausdorff距离计算方法,实际上,将通过步骤404确定的第一hausdorff距离或步骤406确定的第二hausdorff距离中的任一一个作为两个点集之间的hausdorff距离也是可以的。
上述步骤中的欧氏距离也可以是其他距离,例如像素间的直线距离,或明可夫斯基距离等。
步骤210,对当前帧图像的运动区域进行肤色识别,得到用户手部的位置。
一般情况下,摄像头获得的图像是RGB格式的。RGB格式中的R值、G值、B值分别表示红色、绿色和蓝色的值。一般情况下,人体的肤色都是红色占主导,无论光照如何变化都是这样,在图像表现上,就是人体肤色的R值大于G值和B值,根据这一特点,对R、G、B的值进行一次筛选,剔除R值小于G值或B值的区域,只留下符合条件的色彩区域,如果没有其他与肤色相近的颜色的干扰,这样就可以大体上检测出人体肤色的区域。
为了更准确的识别出肤色区域,本实施例在RGB检测的基础上将图片在YCrCb和/或HSV色彩空间中继续进行检测。HSV是一个表示色相、饱和度和亮度的色彩空间,这个色彩空间的模型对应于圆柱坐标系中的一个圆锥形子集。在HSV颜色模型中,每一种颜色和它的补色相差180°。饱和度S取值从0到1,所以圆锥顶面的半径为1。HSV颜色模型所代表的颜色域是CIE色度图的一个子集,这个模型中饱和度为百分之百的颜色,其纯度一般小于百分之百。YCrCb是表示色差的色彩空间,Cr与Cb是红色与绿色的差和绿色与蓝色的差,人体这两个差值是有一定范围的。HSV色彩空间中利用的H值,这个值相当于图像的亮度,利用色相值值可以剔除一些曝光过度引起的误差。例如,可以将H值的范围选择为0.1>H>0.01;而Cr/Cb 的比值范围选择为1.1786>Cr/Cb>0.5641,或者也可以将Cr与Cb分别计算,阈值范围选择为165>Cr>110、195>Cb>140,不过也可以根据实际需要进行调整。通过这样的检测和筛选,同样可以检测出图像中人体肤色的区域。
步骤212,通过图像中用户手部的位置获得手部的质心点坐标。
手势图像的质心点可以是手部区域形成的不规则图像的重心,也可以是其他的点。本实施例可以通过一种简单的方法计算手部的质心位置。在手部的边缘坐标中,选取最上面的一个点、最下面的一个点,最左边的一个点和最右边的一个点。当最上面的点为多个时,优选的选取最中间的点,其他的三个点也可采用类似的方式。将最上面的坐标点和最下面的点连线形成一个直线,最左边的点和最右边的点连线形成另一条直线,这两成直线会有一个交叉点,这个点即可作为手部的质心点。
上面记载的质心位置计算方法相对简单,本实施例也可使用其他方法确定手部的质心位置,例如通过间隔选取手部边缘的至少3个点,将这些点依次连线形成一个多边形,通过计算该多边形的重心,将该重心位置确定为手部的质心位置。
步骤214,根据每帧图像的手势图像的质心点坐标,获得用户的手势运动轨迹。
在前面的步骤中,已经得到了各帧图像中用户的手部图像的质心点坐标,这样,根据时间顺序,将每帧图像中用户的手部图像的质心点坐标进行连线,得到一个曲线,根据这一这一曲线即可获得用户的手势运动轨迹。
在本实施例中,为了更准确的确定出用户的手势运动轨迹,优选的对由多个质心点坐标的连线进行平滑处理,这样可以消除曲线中的噪点。具体的,本实施例对上述曲线进行B样条拟合,例如经过三次B样条拟合,可以得到一个圆滑的轨迹曲线,这一轨迹曲线即可作为用户的手势运动轨迹。当然,这里的B样条拟合也可以是2次、1次或多次。
以上结合附图详细说明了根据本发明的技术方案,本发明的手势识别方法首先通过对用户图像进行边缘检测,根据当前图像和背景图像的边缘检测结果,确定出当前图像相对于背景图像中的运动区域,运动区域检测可以将用户图像中静止的部分或者是运动不明显的部分去除,这样可以方面的去除掉除用户本身之外的其他图像内容,同时由于用户的面部动作一般幅度较小,因此也可以通过此步骤去除。由于背景及用户面部等区域已经被去除,因而接下来通过肤色识别就可以准确的确定出用户的手部位置,然后根据各帧图像中用户的手部位置的移动轨迹,确定用户的手势。这样,就可以减少光照等外部条件影响对用户手部位置的识别,从而在不增加成本的情况下提高了手势识别的准确率。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。 
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种手势识别方法,其特征在于,包括:
接收当前帧图像;
对当前帧图像和预先设定的背景图像进行边缘检测;
将当前帧图像和背景图像的边缘检测结果进行比较,获得当前帧图像的运动区域;
对当前帧图像的运动区域进行肤色识别,确定当前帧图像中手部的位置;
根据当前帧图像及前后各帧图像中手部的位置确定用户的手部运动轨迹,根据所述手部运动轨迹对用户的手势进行识别。
2.根据权利要求1所述的手势识别方法,其特征在于,所述将两帧图像的边缘检测结果进行比较,获得当前帧图像的运动区域包括:
计算当前帧图像边缘点和背景图像边缘点的豪斯多夫距离,根据两组边缘点点集之间的豪斯多夫距离获得当前帧图像的运动区域。
3.根据权利要求2所述的手势识别方法,其特征在于,所述计算当前帧图像边缘点和背景图像边缘点的豪斯多夫距离,根据两组边缘点点集之间的豪斯多夫距离获得当前帧图像的运动区域包括:
将背景图像和当前帧图像划分为若干个大小相等的子区域,计算当前帧图像中每个子区域中图像边缘点与背景图像中对应的子区域的豪斯多夫距离;
计算每个子区域的豪斯多夫距离与第一阀值的差值,将差值大于所述第一阀值的子区域确定为当前帧图像的运动区域。
4.根据权利要求2所述的手势识别方法,其特征在于,所述计算当前帧图像边缘点和背景图像边缘点的豪斯多夫距离,根据两组边缘点点集之间的豪斯多夫距离获得当前帧图像的运动区域包括步骤:
a、将背景图像和当前帧图像划分为若干个大小相等的子区域,计算当前帧图像中每个子区域中图像边缘点与当前帧图像中对应的子区域的豪斯多夫距离;
b、将每个子区域的豪斯多夫距离与第一阀值作比较,若该差值大于第一阀值,则保留该子区域,否则去除;
c、对每个保留的子区域进一步划分为若干个大小相等的小块,计算每个小块的豪斯多夫距离,将每个小块的豪斯多夫距离与对应的阀值作比较,若该差值大于该阀值,则保留该小块,否则去除;
d、重复步骤c,直至单个小块包括的像素点小于预先设定的数量;
e、将所有保留的小块图像确定为当前帧图像的运动区域。
5.根据权利要求3或4所述的手势识别方法,其特征在于,所述计算当前帧图像中每个子区域中图像边缘点与背景图像中对应的子区域的豪斯多夫距离包括:
计算当前帧子区域中每个边缘点与背景图像中对应子区域中的最近的边缘点的欧式距离,将该距离中的最大值确定为该子区域的豪斯多夫距离。
6.根据权利要求3或4所述的手势识别方法,其特征在于,所述计算当前帧图像中每个子区域中图像边缘点与背景图像中对应的子区域的豪斯多夫距离包括:
计算当前帧子区域中每个边缘点与背景图像中对应子区域中的最近的边缘点的欧式距离,将该距离中的最大值记为该子区域的第一豪斯多夫距离;
计算背景图像子区域中每个边缘点与当前帧对应子区域中的最近的边缘点的欧式距离,将该距离中的最大值记为该子区域的第二豪斯多夫距离;
将第一豪斯多夫距离和第二豪斯多夫距离中的最大值确定为该子区域的豪斯多夫距离。
7.根据权利要求1所述的手势识别方法,其特征在于,所述对当前帧图像进行边缘检测包括:
获得当前帧图像的灰度图像,对所述灰度图像进行边缘检测。
8.根据权利要求5所述的手势识别方法,其特征在于,所述获得当前帧图像的灰度图像,对所述灰度图像进行边缘检测,包括:
对所述灰度图像进行邻域平均滤波,对滤波后的灰度图像进行边缘检测。
9.根据权利要求1所述的手势识别方法,其特征在于,所述根据当前帧图像及前后各帧图像中手部的位置确定用户的手部运动轨迹包括:
计算当前帧图像及前后各帧图像中手部的质心位置,根据每帧图像中手部的质心位置确定确定用户的手部运动轨迹。
10.根据权利要求7所述的手势识别方法,其特征在于,所述根据每帧图像中手部的质心位置确定确定用户的手部运动轨迹包括:
将每帧图像中手部的质心位置坐标经过至少一次B样条拟合,获得手部的运动轨迹曲线。
CN201410634943.XA 2014-11-13 2014-11-13 一种手势识别方法 Pending CN104392210A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410634943.XA CN104392210A (zh) 2014-11-13 2014-11-13 一种手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410634943.XA CN104392210A (zh) 2014-11-13 2014-11-13 一种手势识别方法

Publications (1)

Publication Number Publication Date
CN104392210A true CN104392210A (zh) 2015-03-04

Family

ID=52610111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410634943.XA Pending CN104392210A (zh) 2014-11-13 2014-11-13 一种手势识别方法

Country Status (1)

Country Link
CN (1) CN104392210A (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850232A (zh) * 2015-05-27 2015-08-19 济南大学 一种摄像头条件下获取远程手势轨迹的方法
CN105536205A (zh) * 2015-12-08 2016-05-04 天津大学 一种基于单目视频人体动作感知的上肢训练系统
CN105912974A (zh) * 2015-12-18 2016-08-31 乐视致新电子科技(天津)有限公司 一种手势识别方法及装置
CN106295608A (zh) * 2016-08-22 2017-01-04 北京航空航天大学 一种人体肤色检测方法
CN107316022A (zh) * 2017-06-27 2017-11-03 歌尔科技有限公司 动态手势识别方法和装置
CN107798296A (zh) * 2017-09-28 2018-03-13 江南大学 一种应用于复杂背景场景的快速运动手势识别方法
CN108171121A (zh) * 2017-12-11 2018-06-15 翔升(上海)电子技术有限公司 无人机智能跟踪方法和系统
CN110103820A (zh) * 2019-04-24 2019-08-09 深圳市轱辘汽车维修技术有限公司 一种检测车辆中人员的异常行为的方法、装置及终端设备
CN111954355A (zh) * 2020-08-10 2020-11-17 泉州市澳莱格电子有限责任公司 一种基于手掌动作检测的灯光亮度调节方法
CN112906563A (zh) * 2021-02-19 2021-06-04 山东英信计算机技术有限公司 一种动态手势识别方法、装置、系统及可读存储介质
CN118470804A (zh) * 2024-07-12 2024-08-09 云海时空(南京)科技有限公司 一种基于监控视频的乘客异常行为识别方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194097A (zh) * 2010-03-11 2011-09-21 范为 一种多用途手势识别方法
US20120087539A1 (en) * 2010-10-08 2012-04-12 Po-Lung Chen Method of detecting feature points of an object in a system for motion detection
CN102707799A (zh) * 2011-09-12 2012-10-03 北京盈胜泰科技术有限公司 一种手势识别方法及手势识别装置
CN103577793A (zh) * 2012-07-27 2014-02-12 中兴通讯股份有限公司 手势识别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194097A (zh) * 2010-03-11 2011-09-21 范为 一种多用途手势识别方法
US20120087539A1 (en) * 2010-10-08 2012-04-12 Po-Lung Chen Method of detecting feature points of an object in a system for motion detection
CN102707799A (zh) * 2011-09-12 2012-10-03 北京盈胜泰科技术有限公司 一种手势识别方法及手势识别装置
CN103577793A (zh) * 2012-07-27 2014-02-12 中兴通讯股份有限公司 手势识别方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘乐元: "面向有限资源平台人机交互的人手检测与跟踪", 《中国博士学位论文全文数据库 信息科技辑》 *
刘晓鸣: "基于改进的Hausdorff距离匹配算法的运动目标跟踪系统的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850232A (zh) * 2015-05-27 2015-08-19 济南大学 一种摄像头条件下获取远程手势轨迹的方法
CN105536205A (zh) * 2015-12-08 2016-05-04 天津大学 一种基于单目视频人体动作感知的上肢训练系统
CN105912974A (zh) * 2015-12-18 2016-08-31 乐视致新电子科技(天津)有限公司 一种手势识别方法及装置
CN106295608A (zh) * 2016-08-22 2017-01-04 北京航空航天大学 一种人体肤色检测方法
WO2019000543A1 (zh) * 2017-06-27 2019-01-03 歌尔科技有限公司 动态手势识别方法和装置
CN107316022A (zh) * 2017-06-27 2017-11-03 歌尔科技有限公司 动态手势识别方法和装置
CN107798296A (zh) * 2017-09-28 2018-03-13 江南大学 一种应用于复杂背景场景的快速运动手势识别方法
CN108171121A (zh) * 2017-12-11 2018-06-15 翔升(上海)电子技术有限公司 无人机智能跟踪方法和系统
CN110103820A (zh) * 2019-04-24 2019-08-09 深圳市轱辘汽车维修技术有限公司 一种检测车辆中人员的异常行为的方法、装置及终端设备
CN111954355A (zh) * 2020-08-10 2020-11-17 泉州市澳莱格电子有限责任公司 一种基于手掌动作检测的灯光亮度调节方法
CN112906563A (zh) * 2021-02-19 2021-06-04 山东英信计算机技术有限公司 一种动态手势识别方法、装置、系统及可读存储介质
CN118470804A (zh) * 2024-07-12 2024-08-09 云海时空(南京)科技有限公司 一种基于监控视频的乘客异常行为识别方法及系统
CN118470804B (zh) * 2024-07-12 2024-09-24 云海时空(南京)科技有限公司 一种基于监控视频的乘客异常行为识别方法及系统

Similar Documents

Publication Publication Date Title
CN104392210A (zh) 一种手势识别方法
US20210142033A1 (en) System and method for identifying target objects
Mangawati et al. Object Tracking Algorithms for video surveillance applications
CN104680519B (zh) 基于轮廓和颜色的七巧板识别方法
CN104778460B (zh) 一种在复杂背景以及光照下的单目手势识别方法
CN106469443A (zh) 机器视觉特征跟踪系统
WO2021098163A1 (zh) 一种基于角点的空中目标探测方法
JP2015197816A (ja) 画像処理装置、画像処理方法
CN105844242A (zh) 图像中的肤色检测方法
CN106097354B (zh) 一种结合自适应高斯肤色检测和区域生长的手部图像分割方法
US9286669B2 (en) Image processing apparatus, image processing method and program
CN112347887A (zh) 一种物体检测方法、物体检测装置及电子设备
CN109961016B (zh) 面向智能家居场景的多手势精准分割方法
JP6779688B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
CN103501411A (zh) 一种图像拍摄方法及系统
TW201730813A (zh) 具有深度資訊之影像處理方法及其電腦程式產品
Meng et al. Dominant points based hand finger counting for recognition under skin color extraction in hand gesture control system
CN103578121B (zh) 干扰运动环境下基于共享高斯模型的运动检测方法
Chen et al. An integrated color and hand gesture recognition approach for an autonomous mobile robot
US10824237B2 (en) Screen display control method and screen display control system
CN109523594A (zh) 一种视觉托盒特征点坐标定位方法及系统
CN109592342A (zh) 一种视觉圆柱形物料输料方法及系统
CN102855025A (zh) 一种基于视觉注意模型的光学多点触控触点检测方法
Wu et al. Real-time 2D hands detection and tracking for sign language recognition
CN114527865A (zh) 基于注意力方向的装置互动方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150304

RJ01 Rejection of invention patent application after publication