CN104318558B - 复杂场景下基于多信息融合的手势分割方法 - Google Patents
复杂场景下基于多信息融合的手势分割方法 Download PDFInfo
- Publication number
- CN104318558B CN104318558B CN201410552532.6A CN201410552532A CN104318558B CN 104318558 B CN104318558 B CN 104318558B CN 201410552532 A CN201410552532 A CN 201410552532A CN 104318558 B CN104318558 B CN 104318558B
- Authority
- CN
- China
- Prior art keywords
- detection
- pixel
- color
- skin
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
本发明公开了一种复杂场景下基于多信息融合的手势分割方法。针对输入的视频图像序列,通过图像预处理操作之后,首先进行预检测,即通过一个类手势的筛除器,将易被误判为手势部分的区域筛除;再进行基于多颜色空间分量的肤色检测;同时结合肤色检测信息,采用基于时空信息改进的混合高斯建模方法进行前景检测;然后用一种验证补充机制将多种检测结果融合,得到手势分割结果。本发明使手势分割过程可以适用于不同的复杂场景,用户自由性不再受到限制,且满足实时性的要求,可以较好地运用在人机交互中。
Description
技术领域
本发明涉及一种手势分割的方法,具体为一种复杂场景下基于多信息融合的手势分割方法,可以用于手势识别、人机交互、移动设备的操控等很多领域。
背景技术
随着计算机的发展在现代社会中应用越来越广泛和迅速,人机交互技术的需求在人类生活中也变得越来越高,而手势作为一种最自然,最符合人类行为习惯的交互方式之一,更是人机交互领域中重要的研究方向之一。而手势分割通常是交互系统中的第一步也是最关键的一步,其效果会直接影响到后续特征提取以及识别的准确率。为得到令人满意的手势分割结果,国内外有众多的学者对手势分割方法进行了深入的研究,结合各类研究以及实际应用,可以分析出目前手势分割领域存在的主要技术难点如下:
1)受限于环境的复杂程度。实际应用场景通常较为复杂,存在光照的变化,背景物体的移动,类肤色物体的影响等。
2)用户自由性受到限制。大量研究为了手势分割的效果要求用户穿着深色衣服,佩戴特殊颜色手套,不得出现身体其他部位等。
3)实时性要求得不到满足。为了适用于复杂的场景,许多研究者提出复杂的分割算法,但复杂度的提高伴随着实时性的下降。
针对以上技术难点,研究者们的通常做法是根据自己所研发的系统和所处的实验环境来选择适合自己系统的手势分割方法,缺少一定的通用性。
发明内容
为了解决现有技术中的问题,本发明公开了一种复杂场景下基于多信息融合的手势分割方法,该方法可以适用于不同的复杂环境,结合预检测、肤色检测和前景检测的方式,并用一种验证补充机制将多种检测结果融合,得到较准确和完整的手势分割结果。且该算法允许画面中出现人脸、手臂等其他人体部位。
本发明采用以下技术方案:一种复杂场景下基于多信息融合的手势分割方法,包括以下步骤:
步骤1:图像预处理:对视频图像序列的每一帧图像,进行平滑滤波的预处理,去除图像中存在的一定噪声;
步骤2:预检测:通过事先训练一种分类器,用于检测图像中与手势颜色特征、大小特征、运动特征等相似,容易被误判定为手势的区域,通过该分类器定位到这些区域,并筛除;
步骤3:肤色检测:采用多颜色空间分量的肤色检测方法,建立一个新的颜色空间HLS-CbCr颜色空间,将图像转换到HLS-CbCr颜色空间上,通过事先提取的肤色样本建立肤色模型,根据在HLS-CbCr颜色空间上的肤色模型分布情况,检测出图像中的肤色区域;
步骤4:前景检测:采用基于时空信息改进的混合高斯建模方法进行前景检测,通过为每个背景像素建立一个混合高斯分布模型,判断出图像中的背景部分,从而进一步提取出前景区域。并根据肤色检测的结果设置检测区R(x,y),为检测区和非检测区分配不同的学习率,并且记录每个像素被判定为背景次数,根据该次数分配不同的学习率,从而更快速地检测出图像中的前景区域;
步骤5:融合多种检测结果进行手势分割:采用一种验证补充机制将肤色检测和前景检测结果融合。通过肤色和前景检测结果的第一次相与操作,提取出其的最大轮廓和外接矩形,并将此外接矩形与前景检测结果相与,对第二次相与结果进行填补操作,从而得到最终完整的手势分割结果。
进一步地,步骤2中所述的预检测,通过事先训练一种分类器,用于检测图像中与手势颜色特征、大小特征、运动特征等相似,容易被误判定为手势的区域,通过该分类器定位到这些区域,并筛除,其具体检测过程如下:
步骤2.1:特征提取:
将样本分为两类,一类为与手势颜色特征、大小特征、运动特征等相似的样本,比如人脸,一类为非相似样本,对所有样本进行Haar特征提取,特征值可以用式表示:
其中,wi表示第i个矩形特征的权重,RectSum(ri)是矩形ri中所有像素的灰度积分,N为组成featurej的矩形个数。
步骤2.2:分类器训练:
一个Haar特征对应一个弱分类器hj(x),表达式如下:
通过不断的调整每个样本的权重创建不同的训练集。初始时,每个样本的权重相同,并且在此类样本下训练出第一个弱分类器h1。对h1中分类错误的样本加大其权重,分类正确的样本减小其权重。通过这种方式,新的训练集中,分错的样本比重增加,并再次利用新训练集对弱分类器进行训练,得到弱分类器h2。以此类推,当循环一定次数之后,将所有弱分类器按权重组合在一起,得到最终的强分类器。
步骤2.3:在线检测:
使用训练得到的强分类器对步骤1得到的去噪图像进行预检测,当检测到类手势区域,该区域内像素值设为0。
进一步地,步骤3中所述的采用多颜色空间分量的肤色检测方法,建立一个新的颜色空间HLS-CbCr颜色空间,将图像转换到HLS-CbCr颜色空间上,通过事先提取的肤色样本建立肤色模型,根据在HLS-CbCr颜色空间上的肤色模型分布情况,检测出图像中的肤色区域,其具体检测过程如下:
步骤3.1:颜色空间转换:
将原始图像中的RGB颜色空间转换为HLS颜色空间和CbCr颜色分量。
步骤3.2:肤色模型建立:
事先提取一段时间内用户手势中不同位置的肤色值,并取每一块区域的中值作为肤色样本进行模型建立。
步骤3.3:多颜色空间分量检测:
对HLS颜色空间分量的规则如下:
A.Mediani-Δh1<H<Mediani+Δh2
B.Mediani-Δl1<L<Mediani+Δl2
C.Mediani-Δs1<S<Mediani+Δs2
Rule1:A∩B∩C
其中,Mediani为每一块肤色样本区域的中值,i为第i块肤色样本区域,Δh1、Δh2、Δl1、Δl2Δs1、Δs2为阈值范围的上下边界容差。∩表示逻辑与操作。
对CbCr颜色空间分量的规则:
D.Mediani-ΔCb1<Cb<Mediani+ΔCb2
E.Mediani-ΔCr1<Cr<Mediani+ΔCr2
Rule2:D∩E
其中,其中,Mediani为每一块肤色样本区域的中值,i为第i块肤色样本区域,ΔCb1、ΔCb2、ΔCr1、ΔCr2为阈值范围的上下边界容差。∩表示逻辑与操作。
最终多颜色空间分量HLS-CbCr的肤色检测算法的决策规则为:
Rule:Rule1∪Rule2
对任意像素点,若满足Rule,则为肤色点,否则为非肤色点。
步骤3.4:形态学处理:
对多颜色空间分量检测的结果进行形态学处理,采用中值滤波方法去除图像中的多余噪声。
进一步地,步骤4中所述的采用基于时空信息改进的混合高斯建模方法进行前景检测,通过为每个背景像素建立一个混合高斯分布模型,判断出图像中的背景部分,从而进一步提取出前景区域。并根据肤色检测的结果设置检测区R(x,y),为检测区和非检测区分配不同的学习率,并且记录每个像素被判定为背景次数,根据该次数分配不同的学习率,从而更快速地检测出图像中的前景区域,其具体检测过程如下:
步骤4.1:背景建模:
对连续若干帧的背景图像进行统计,计算背景中各个像素点的均值和方差,由多个高斯分布的加权平均来表示像素的分布情况,令It(x,y)为t时刻像素点(x,y)处的像素,则有:
σ2 i,t=(1-β)σ2 i,t-1+β(It-μi,t)2
式中,K为高斯分布的个数,称为高斯混合概率密度的混合系数,通常情况下取3~5。wi,t为t时刻第i高斯分量的加权系数,称之为权重系数。
步骤4.2:前景检测:
前景检测过程中,按大小将高斯分布从高到低排序,将新像素点It与各高斯分布逐一匹配。当该像素点与任一高斯模型都不匹配时,则判定为前景,此时需要根据该像素灰度值构造一个新的高斯分布模型。
新高斯分布模型中,将当前像素值作为分布的期望,同时分配一个较大的方差和较小的权重值。
步骤4.3:背景更新:
当像素被判定为背景时,则需要根据新像素对原有各个高斯分布进行权重的调整:
wi,t=(1-α)wi,t-1+αMi,t
其中α为学习率,值在0~1之间。当该像素与第i个高斯分布匹配时,则Mi,t=1,否则Mi,t=0。
同时,对该像素匹配的高斯模型分布也要做期望和方差的相应更新:
μi,t=(1-β)μi,t-1+βIt
σi,t 2=(1-β)σi,t-1 2+β(It-μi,t)2
步骤4.4:空间域设置学习率:
在空间上设置检测区R(x,y),取步骤3中肤色检测结果Bitskini(x,y),其中i=t-N,…t-1,t。设置检测区为一段时间内所有存在过肤色区域的最大外围矩形:
R(x,y)=maxRect(Bitskint(x,y)∪Bitskint-1(x,y)∪....∪Bitskint-N(x,y))
对于检测区R(x,y)分配一个较大的学习率,对于一段时间内没有出现过肤色的区域分配一个较小的学习率。从空间维度设置不同的学习率来进行步骤4.3中的背景更新。
步骤4.5:时间域设置学习率:
当前帧每个像素点与K个高斯模型分布进行匹配时,若被判定为背景时,记录该像素点被连续判为背景的次数,并将次数与阈值T进行比较,若大于阈值T,则说明该点长时间作为背景存在,该时刻属于背景的可能性比较大,适当降低学习率。若被判定为前景,则建立一个新的高斯分布模型,新高斯分布模型中,将当前像素值作为分布的期望,并分配一个较大的方差和较小的权重值,同时将判为背景的次数记录设为0,并分配一个较大的学习率。从时间维度设置不同的学习率来进行步骤4.3中的背景更新。
进一步地,步骤5中所述的采用一种验证补充机制将肤色检测和前景检测结果融合。通过肤色和前景检测结果的第一次相与操作,提取出其最大轮廓和外接矩形,并将此外接矩形与前景检测结果相与,对第二次相与结果进行填补操作,从而得到最终完整的手势分割结果,其具体检测过程如下:
步骤5.1:第一次相与:
将步骤3中肤色检测结果与步骤4中前景检测结果进行逻辑与操作。
步骤5.2:提取最大轮廓和外接矩形:
对第一次相与结果,采用八领域搜索法提取出最大轮廓,并计算出该轮廓的外接矩形。
步骤5.3:第二次相与:
将提出的外接矩形与步骤4中的前景检测结果进行逻辑与操作。
步骤5.4:填补空洞:
对第二次相与得到的手势图像,计算出最大轮廓中空洞的像素点,即像素值为0的像素点,补充其像素值为1,从而得到最终的完整手势二值图。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:
1)融合多颜色空间分量的肤色检测算法解决了肤色聚类性和可区分度间的矛盾,以快速简单的方式定位到图像肤色部分。
2)改进的混合高斯建模的前景检测算法从时间和空间两个维度控制更新率的大小,从而减少了不必要的更新,提高了算法速度。
3)手势分割中加入预检测过程,减少了与手势具有相似颜色特征、运动特征的其他物体或身体部位的影响,使用户不再受限于不能出现人脸或其他身体部位的要求。
4)利用二次相与和验证补充机制,解决了由于光照影响带来的过分割现象,减少了肤色或前景检测中任意一种检测结果不理想所带来的影响。
附图说明
图1是本发明的整体流程图;
图2是肤色检测方法的流程图;
图3是肤色样本提取示意图;
图4是背景中有类肤色情况下的手势分割结果图;
图5是场景复杂,光照不均情况下的手势分割结果图;
图6是出现人脸场景下的手势分割结果图。
具体实施方式
下面结合附图并通过具体实施例,对本发明的技术方案做进一步的详细说明。
以下实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
本实施例对一段由Logitech C710网络摄像头拍摄的视频序列(640X480像素,30ftps)进行处理。该视频在室内场景中随机拍摄,场景中包含复杂的背景,有类肤色的背景物体出现,有光照的变化,且用户的人脸和手臂等其他身体部位也出现在视频中。图1是本发明的整体流程示意图,本实施例包含以下步骤:
步骤1:图像预处理:对视频图像序列的每一帧图像,进行平滑滤波用3X3窗口中的像素值平均后输出,去除图像中存在的一定噪声。滤波采用核函数为:
步骤2:预检测:通过事先训练一种分类器,用于检测图像中与手势颜色特征、大小特征、运动特征等相似,容易被误判定为手势的区域,通过该分类器定位到这些区域,并筛除;
在本实施例中,步骤2中所述的预检测,其具体检测过程如下:
步骤2.1:特征提取:
将样本分为两类,一类为与手势颜色特征、大小特征、运动特征等相似的人脸样本,一类为非人脸样本,对所有样本进行Haar特征提取,这些特征的特征值可以用式表示:
其中,wi表示第i个矩形特征的权重,RectSum(ri)是矩形ri中所有像素的灰度积分,N为组成featurej的矩形个数。
步骤2.2:分类器训练:
一个Haar特征对应一个弱分类器hj(x),表达式如下:
通过不断的调整每个样本的权重创建不同的训练集。初始时,每个样本的权重相同,并且在此类样本下训练出第一个弱分类器h1。对h1中分类错误的样本加大其权重,分类正确的样本减小其权重。通过这种方式,新的训练集中,分错的样本比重增加,并再次利用新训练集对弱分类器进行训练,得到弱分类器h2。以此类推,当循环一定次数之后,将所有弱分类器按权重组合在一起,得到最终的强分类器。
步骤2.3:在线检测:
使用训练得到的强分类器对步骤1得到的去噪图像进行预检测,当检测到类手势区域即人脸区域,该区域内像素值设为0。
步骤3:肤色检测:采用多颜色空间分量的肤色检测方法,建立一个新的颜色空间HLS-CbCr颜色空间,将图像转换到HLS-CbCr颜色空间上,通过事先提取的肤色样本建立肤色模型,根据在HLS-CbCr颜色空间上的肤色模型分布情况,检测出图像中的肤色区域;
在本实施例中,步骤3中所述的采用多颜色空间分量的肤色检测方法,图2为肤色检测的流程图,其具体检测过程如下:
步骤3.1:颜色空间转换:将原始图像中的RGB颜色空间转换为HLS颜色空间以及CbCr颜色分量。从RGB颜色空间到HLS颜色空间的转换公式如下,设max等价于r,g和b中的最大者,设min等于这些值中的最小者:
YCbCr颜色空间与RGB颜色空间的转换关系:
步骤3.2:肤色模型建立:
事先提取一段时间内用户手势中不同位置的肤色值,并取每一块区域的中值作为肤色样本进行模型建立,经过试验取如图3所示位置的肤色值,共7块肤色样本区域。
步骤3.3:多颜色空间分量检测:
对HLS颜色空间分量的规则如下:
A.Mediani-Δh1<H<Mediani+Δh2
B.Mediani-Δl1<L<Mediani+Δl2
C.Mediani-Δs1<S<Mediani+Δs2
Rule1:A∩B∩C
其中,Mediani为每一块肤色样本区域的中值,i为第i块肤色样本区域,Δh1、Δh2、Δl1、Δl2Δs1、Δs2为阈值范围的上下边界容差,∩表示逻辑与操作。
对CbCr颜色空间分量的规则:
D.Mediani-ΔCb1<Cb<Mediani+ΔCb2
E.Mediani-ΔCr1<Cr<Mediani+ΔCr2
Rule2:D∩E
其中,其中,Mediani为每一块肤色样本区域的中值,i为第i块肤色样本区域,ΔCb1、ΔCb2、ΔCr1、ΔCr2为阈值范围的上下边界容差。∩表示逻辑与操作。
最终多颜色空间分量HLS-CbCr的肤色检测算法的决策规则为:
Rule:Rule1∪Rule2
对任意像素点,若满足Rule,则为肤色点,否则为非肤色点。
步骤3.4:形态学处理:
对多颜色空间分量检测的结果进行形态学处理,采用中值滤波方法去除图像中的多余噪声。
步骤4:前景检测:采用基于时空信息改进的混合高斯建模方法进行前景检测,通过为每个背景像素建立一个混合高斯分布模型,判断出图像中的背景部分,从而进一步提取出前景区域。并根据肤色检测的结果设置检测区R(x,y),为检测区和非检测区分配不同的学习率,并且记录每个像素被判定为背景次数,根据该次数分配不同的学习率,从而更快速地检测出图像中的前景区域;
在本实施例中,步骤4中所述的采用基于时空信息改进的混合高斯建模方法进行前景检测,其具体检测过程如下:
步骤4.1:背景建模:
对连续若干帧的背景图像进行统计,计算背景中各个像素点的均值和方差,由多个高斯分布的加权平均来表示像素的分布情况,令It(x,y)为t时刻像素点(x,y)处的像素,则有:
σ2 i,t=(1-β)σ2 i,t-1+β(It-μi,t)2
式中,K为高斯分布的个数,称为高斯混合概率密度的混合系数,取K=5。wi,t为t时刻第i高斯分量的加权系数,称之为权重系数。
步骤4.2:前景检测:
前景检测过程中,按大小将高斯分布从高到低排序,将新像素点It与各高斯分布逐一匹配。当该像素点与任一高斯模型都不匹配时,则判定为前景,此时需要根据该像素灰度值构造一个新的高斯分布模型。
新高斯分布模型中,将当前像素值作为分布的期望,同时分配一个较大的方差和较小的权重值。
步骤4.3:背景更新:
当像素被判定为背景时,则需要根据新像素对原有各个高斯分布进行权重的调整:
wi,t=(1-α)wi,t-1+αMi,t
其中α为学习率,值在0~1之间。当该像素与第i个高斯分布匹配时,则Mi,t=1,否则Mi,t=0。
同时,对该像素匹配的高斯模型分布也要做期望和方差的相应更新:
μi,t=(1-β)μi,t-1+βIt
σi,t 2=(1-β)σi,t-1 2+β(It-μi,t)2
步骤4.4:空间域设置学习率:
在空间上设置检测区R(x,y),取步骤3中肤色检测结果Bitskini(x,y),其中i=t-N,…t-1,t。设置检测区为一段时间内所有存在过肤色区域的最大外围矩形
R(x,y)=maxRect(Bitskint(x,y)∪Bitskint-1(x,y)∪....∪Bitskint-N(x,y))
对于检测区R(x,y)分配一个较大的学习率,对于一段时间内没有出现过肤色的区域分配一个较小的学习率。从空间维度设置不同的学习率来进行步骤4.3中的背景更新。
步骤4.5:时间域设置学习率:
当前帧每个像素点与K个高斯模型分布进行匹配时,若被判定为背景时,记录该像素点被连续判为背景的次数,并将次数与阈值T进行比较,若大于阈值T,则说明该点长时间作为背景存在,该时刻属于背景的可能性比较大,适当降低学习率。若被判定为前景,则建立一个新的高斯分布模型,新高斯分布模型中,将当前像素值作为分布的期望,并分配一个较大的方差和较小的权重值,同时将判为背景的次数记录设为0,并分配一个较大的学习率。从时间维度设置不同的学习率来进行步骤4.3中的背景更新。
步骤5:融合多种检测结果进行手势分割:采用一种验证补充机制将肤色检测和前景检测结果融合。通过肤色和前景检测结果的第一次相与操作,提取出其的最大轮廓和外接矩形,并将此外接矩形与前景检测结果相与,对第二次相与结果进行填补操作,从而得到最终完整的手势分割结果。
在本实施例中,步骤5中所述的采用一种验证补充机制将肤色检测和前景检测结果融合,其具体检测过程如下:
步骤5.1:第一次相与:
将步骤3中肤色检测结果与步骤4中前景检测结果进行逻辑与操作。
步骤5.2:提取最大轮廓和外接矩形:
对第一次相与结果,采用八领域搜索法提取出最大轮廓,并计算出该轮廓的外接矩形。
步骤5.3:第二次相与:
将提出的外接矩形与步骤4中的前景检测结果进行逻辑与操作。
步骤5.4:填补空洞:
对第二次相与得到的手势图像,计算出最大轮廓中空洞的像素点,即像素值为0的像素点,补充其像素值为1,从而得到最终的完整手势二值图。
实施效果
依据上述步骤,对由Logitech C710网络摄像头拍摄的视频序列进行手势分割。图4、图5、图6给出不同场景下的手势分割的结果图,可以看出在复杂场景下,即使场景中有光照影响,背景中含有类肤色的物体,人脸、手臂等身体部位出现在图像中,该发明都能输出较准确的手势分割图像。
所有实验均在PC上实现,计算机参数为:中央处理器Intel(R)Core(TM)i5CPU750@2.67GHz,内存4.00GB。
Claims (1)
1.一种复杂场景下基于多信息融合的手势分割方法,其特征在于,包括以下步骤:
步骤1):图像预处理:对视频图像序列的每一帧图像,进行平滑滤波的预处理,去除图像中存在的噪声;
步骤2):预检测:通过事先训练一种分类器,用于检测图像中与手势颜色特征、大小特征、运动特征相似,会被误判定为手势的区域,通过该分类器定位到这些区域,并筛除;
步骤3):肤色检测:采用多颜色空间分量的肤色检测方法,建立一个新的颜色空间HLS-CbCr颜色空间,通过事先提取的肤色样本建立肤色模型,根据在HLS-CbCr颜色空间上的肤色模型分布情况,检测出图像中的肤色区域;
步骤4):前景检测:采用基于时空信息改进的混合高斯建模方法进行前景检测,通过混合高斯建模方法提取出前景区域,并根据肤色检测的结果设置检测区R(x,y),为检测区和非检测区分配不同的学习率,并且记录每个像素被判定为背景次数,根据该次数分配不同的学习率,从而更快速地检测出图像中的前景区域;
步骤5):融合多种检测结果进行手势分割:采用一种验证补充机制将多种检测结果融合,从而得到最终完整的手势分割结果;
步骤2)中所述的预检测,其具体检测过程如下:
步骤2.1):特征提取:
将样本分为两类,一类为与手势颜色特征、大小特征、运动特征相似的样本,一类为非相似样本,对所有样本进行特征提取;
步骤2.2):分类器训练:
通过不断的调整每个样本的权重创建不同的训练集,初始时,每个样本的权重相同,并且在此类样本下训练出第一个弱分类器h1,对h1中分类错误的样本加大其权重,分类正确的样本减小其权重;通过这种方式,新的训练集中,分错的样本比重增加,并再次利用新的训练集对弱分类器进行训练,得到弱分类器h2,以此类推,当循环一定次数之后,将所有弱分类器按权重组合在一起,得到最终的强分类器;
步骤2.3):在线检测:
使用训练得到的强分类器对步骤1)得到的去噪图像进行预检测,当检测到类手势区域,将该区域内像素值设为0;
步骤3)中所述的采用多颜色空间分量的肤色检测方法,其具体检测过程如下:
步骤3.1):颜色空间转换:
将原始图像中的RGB颜色空间转换为HLS颜色空间以及CbCr颜色分量;
步骤3.2):肤色模型建立:
事先提取一段时间内用户手势中不同位置的肤色值,并取每一块区域的中值作为肤色样本进行模型建立;
步骤3.3):多颜色空间分量检测:
根据步骤3.2)建立的肤色模型进行肤色分割,并将各颜色空间分量上的结果进行结合,得到多颜色空间分量的检测结果;
步骤3.4):形态学处理:
对多颜色空间分量检测的结果进行形态学处理,采用中值滤波方法去除图像中的多余噪声;
步骤4)中所述的采用基于时空信息改进的混合高斯建模方法进行前景检测,其具体检测过程如下:
步骤4.1):背景建模:
对连续若干帧的背景图像进行统计,计算背景中各个像素点的均值和方差,由多个高斯分布的加权平均来表示像素的分布情况;
步骤4.2):前景检测:
前景检测过程中,将新像素点与各高斯分布逐一匹配,当该像素点与任一高斯模型都不匹配时,则判定为前景,此时需要根据该像素灰度值构造一个新的高斯分布模型;新高斯分布模型中,将当前像素值作为分布的期望,同时分配一个较大的方差和较小的权重值;
步骤4.3):背景更新:
当像素被判定为背景时,则需要根据新像素对原有各个高斯分布进行权重的调整,对该像素匹配的高斯模型分布也要做期望和方差的相应更新;
步骤4.4):空间域设置学习率:
在空间上设置检测区R(x,y),设置检测区为一段时间内所有存在过肤色区域的最大外围矩形,对于检测区R(x,y)分配一个较大的学习率,对于一段时间内没有出现过肤色的区域分配一个较小的学习率;
步骤4.5):时间域设置学习率:
当前帧每个像素点与高斯模型分布进行匹配时,若被判定为背景时,记录该像素点被连续判为背景的次数,并将次数与阈值T进行比较,若大于阈值T,则说明该像素点长时间作为背景存在,当前帧时刻该像素点属于背景的可能性比较大,适当降低学习率;若被判定为前景,则建立一个新的高斯分布模型,新高斯分布模型中,将当前像素值作为分布的期望,并分配一个较大的方差和较小的权重值,同时将判为背景的次数记录设为0,并分配一个较大的学习率;
步骤5)中所述的采用一种验证补充机制将多种检测结果融合,其具体检测过程如下:
步骤5.1):第一次相与:
将步骤3)中肤色检测结果与步骤4)中前景检测结果进行逻辑与操作;
步骤5.2):提取最大轮廓和外接矩形:
对第一次相与结果提取出最大轮廓和外接矩形;
步骤5.3):第二次相与:
将提取出的外接矩形与步骤4)中的前景检测结果进行逻辑与操作;
步骤5.4):填补空洞:对第二次相与得到的手势图像,补充其空洞的位置,从而得到最终的完整手势二值图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410552532.6A CN104318558B (zh) | 2014-10-17 | 2014-10-17 | 复杂场景下基于多信息融合的手势分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410552532.6A CN104318558B (zh) | 2014-10-17 | 2014-10-17 | 复杂场景下基于多信息融合的手势分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104318558A CN104318558A (zh) | 2015-01-28 |
CN104318558B true CN104318558B (zh) | 2017-06-23 |
Family
ID=52373784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410552532.6A Active CN104318558B (zh) | 2014-10-17 | 2014-10-17 | 复杂场景下基于多信息融合的手势分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104318558B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104680519B (zh) * | 2015-02-06 | 2017-06-23 | 四川长虹电器股份有限公司 | 基于轮廓和颜色的七巧板识别方法 |
US9536136B2 (en) * | 2015-03-24 | 2017-01-03 | Intel Corporation | Multi-layer skin detection and fused hand pose matching |
CN105184771A (zh) * | 2015-08-12 | 2015-12-23 | 西安斯凯智能科技有限公司 | 一种自适应运动目标检测系统及检测方法 |
CN106611429B (zh) * | 2015-10-26 | 2019-02-05 | 腾讯科技(深圳)有限公司 | 检测皮肤区域的方法和检测皮肤区域的装置 |
CN105405143B (zh) * | 2015-11-13 | 2017-04-12 | 华中师范大学 | 一种基于全局期望最大算法的手势分割方法及系统 |
CN105893925A (zh) * | 2015-12-01 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 基于肤色的人手检测方法及装置 |
CN105740915B (zh) * | 2016-03-04 | 2019-05-24 | 浙江大学 | 一种融合感知信息的协同分割方法 |
CN106295639A (zh) * | 2016-08-01 | 2017-01-04 | 乐视控股(北京)有限公司 | 一种虚拟现实终端以及目标图像的提取方法和装置 |
CN107831894A (zh) * | 2017-11-06 | 2018-03-23 | 浙江工业大学 | 一种适用于移动终端的隔空手势板书方法 |
CN109146887B (zh) * | 2018-06-28 | 2021-09-24 | 广东技术师范大学 | 一种基于肤色模型和统计特征的手势分割方法 |
CN109376730B (zh) * | 2018-12-29 | 2021-07-16 | 龙岩学院 | 一种手势识别方法和装置 |
CN109766822B (zh) * | 2019-01-07 | 2021-02-05 | 山东大学 | 基于神经网络的手势识别方法及系统 |
CN111401141B (zh) * | 2020-02-25 | 2022-07-15 | 浙江大学 | 一种基于骨架的3d手势估计方法 |
CN111665934A (zh) * | 2020-04-30 | 2020-09-15 | 哈尔滨理工大学 | 一种基于zynq软硬件协同处理的手势识别系统及方法 |
CN111724352B (zh) * | 2020-05-30 | 2022-11-15 | 同济大学 | 一种基于核密度估计的贴片led瑕疵标注方法 |
CN111724353A (zh) * | 2020-05-30 | 2020-09-29 | 同济大学 | 一种基于One-Class SVM的贴片LED瑕疵标注方法 |
CN115022535B (zh) * | 2022-05-20 | 2024-03-08 | 深圳福鸽科技有限公司 | 图像处理方法、装置及电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1932847A (zh) * | 2006-10-12 | 2007-03-21 | 上海交通大学 | 复杂背景下彩色图像人脸检测的方法 |
CN102096823A (zh) * | 2011-02-12 | 2011-06-15 | 厦门大学 | 基于高斯模型和最小均方差的人脸检测方法 |
CN102103690A (zh) * | 2011-03-09 | 2011-06-22 | 南京邮电大学 | 一种自动的头发区域分割方法 |
CN102324019A (zh) * | 2011-08-12 | 2012-01-18 | 浙江大学 | 一种视频序列中自动提取手势候选区域的方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8861847B2 (en) * | 2012-12-21 | 2014-10-14 | Intel Corporation | System and method for adaptive skin tone detection |
-
2014
- 2014-10-17 CN CN201410552532.6A patent/CN104318558B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1932847A (zh) * | 2006-10-12 | 2007-03-21 | 上海交通大学 | 复杂背景下彩色图像人脸检测的方法 |
CN102096823A (zh) * | 2011-02-12 | 2011-06-15 | 厦门大学 | 基于高斯模型和最小均方差的人脸检测方法 |
CN102103690A (zh) * | 2011-03-09 | 2011-06-22 | 南京邮电大学 | 一种自动的头发区域分割方法 |
CN102324019A (zh) * | 2011-08-12 | 2012-01-18 | 浙江大学 | 一种视频序列中自动提取手势候选区域的方法及系统 |
Non-Patent Citations (2)
Title |
---|
基于监控视频的粘连人群分割研究;蔡丹平;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140615;第21-22页第3.2.1节,第23页第3.2.2节 * |
复杂背景下基于视觉的手势检测与识别算法研究;隋云衡;《中国优秀硕士学位论文全文数据库 信息科技辑》;20140515;第10页第2.2节,第13页第2.3.1节,第14-15页第2.3.2节,第17页第2.2.3节,第18页第1段、第19页倒数第1段、第20页第1段 * |
Also Published As
Publication number | Publication date |
---|---|
CN104318558A (zh) | 2015-01-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104318558B (zh) | 复杂场景下基于多信息融合的手势分割方法 | |
CN105139039B (zh) | 视频序列中人脸微表情的识别方法 | |
CN103942577B (zh) | 视频监控中基于自建立样本库及混合特征的身份识别方法 | |
Yu et al. | Vision-based hand gesture recognition using combinational features | |
CN106845351A (zh) | 一种用于视频的基于双向长短时记忆单元的行为识别方法 | |
Lin | Face detection in complicated backgrounds and different illumination conditions by using YCbCr color space and neural network | |
CN108647625A (zh) | 一种表情识别方法及装置 | |
Bilal et al. | A hybrid method using haar-like and skin-color algorithm for hand posture detection, recognition and tracking | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
Rao et al. | Sign Language Recognition System Simulated for Video Captured with Smart Phone Front Camera. | |
CN109325408A (zh) | 一种手势判断方法及存储介质 | |
Sakthimohan et al. | Detection and Recognition of Face Using Deep Learning | |
Chaudhary et al. | A vision-based method to find fingertips in a closed hand | |
Borah et al. | ANN based human facial expression recognition in color images | |
Chen et al. | Illumination processing in face recognition | |
Yang et al. | Footballer action tracking and intervention using deep learning algorithm | |
Phu et al. | Computer vision based hand gesture recognition using artificial neural network | |
Noreen et al. | Hand detection using HSV model | |
Wang et al. | Research on gesture recognition and classification based on attention mechanism | |
Xu et al. | Hand gesture recognition using improved hidden markov models | |
CN107977604B (zh) | 一种基于改进聚合通道特征的手部检测方法 | |
Umadevi et al. | Development of an Efficient Hand Gesture Recognition system for human computer interaction | |
Gobhinath et al. | Implementation of Real Time Static Hand Gestures Recognition for Sign Language | |
Devi et al. | Active facial tracking | |
Thakur | Robust hand gesture recognition for human machine interaction system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |