CN103034851A - 自学习的基于肤色模型的手部跟踪装置及方法 - Google Patents

自学习的基于肤色模型的手部跟踪装置及方法 Download PDF

Info

Publication number
CN103034851A
CN103034851A CN2012105661444A CN201210566144A CN103034851A CN 103034851 A CN103034851 A CN 103034851A CN 2012105661444 A CN2012105661444 A CN 2012105661444A CN 201210566144 A CN201210566144 A CN 201210566144A CN 103034851 A CN103034851 A CN 103034851A
Authority
CN
China
Prior art keywords
hand
self study
region
self
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105661444A
Other languages
English (en)
Other versions
CN103034851B (zh
Inventor
杨志博
袁博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen International Graduate School of Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201210566144.4A priority Critical patent/CN103034851B/zh
Publication of CN103034851A publication Critical patent/CN103034851A/zh
Application granted granted Critical
Publication of CN103034851B publication Critical patent/CN103034851B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种自学习的基于肤色模型的手部跟踪装置及方法,该装置包括:预处理单元,用于从本帧图像中提取手部候选区域,以及通过形态学检测,从手部候选区域获取初始手部区域hinit;自学习单元,用手部候选区域和初始手部区域hinit自学习,得到本帧自学习后的手部区域hfinal;以及后序处理单元,用于对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置;所述自学习单元包括手部跟踪器、手部识别器和P-N学习器。该方法包括预处理步骤、自学习及P-N分类步骤和后序处理步骤,所述自学习及P-N分类步骤包括手部跟踪步骤、手部识别步骤和P-N学习及分类步骤。本装置及方法鲁棒性好,在处理手部经过脸部等重干扰区域或者被遮挡时,能够稳定准确地跟踪手部。

Description

自学习的基于肤色模型的手部跟踪装置及方法
技术领域
本发明涉及人机交互领域中手势识别和手部跟踪,尤其涉及自学习的基于肤色模型的手部跟踪装置及方法。
背景技术
随着计算机技术的发展,人机交互关系技术也经历着巨大的变化,人们希望越来越方便的同电脑进行交流与互动。当前在人机交互技术领域,多媒体技术的相对成熟极大地改善了计算机信息表现能力,同时也更显出交互输入手段的严重不足,呈现出人与计算机输入输出通信带宽的严重脱节。多通道人机交互技术研究打破常规,突破传统交互设备,如鼠标、键盘、遥控器等的限制,力图使人全方位地与计算机进行通信,彻底解决计算机处理高维信息所要求的双向高通信带宽。近年来随着虚拟现实技术的迅猛发展,大大地促进了人们在人脸识别、表情解释、口形识别、头部方位检测、视线跟踪、三维定位、手势解释和人体姿势解释等方面研究工作的积极性和动力。
人的手臂和手掌及手指共有27个自由度(6个臂部自由度,21个掌部自由度),因而人的手势可以传达出非常丰富的信息,并且可以作为一种更为直观和自然的交流方式。可以为实现设备间的互联和完成无缝的数据交换提供“以人为本”的技术。随着智能手机和平板电脑等新移动终端的普及,智能手势识别技术正成为人们最期望的人机交互技术之一。
可见,基于视觉进行手势识别的外部条件已经基本成熟。目前,国内对于手势识别研究处于初步阶段,绝大部分的鲁棒性比较差,比如不能很好的区分手部和脸部区域,易受干扰等。动态手势识别是手势识别的主要方面,它包括的主要问题有识别和跟踪两个方面。跟踪是识别的基础,是重中之重。如何提供一种不易受光照影响,不因人种肤色差异而失效,能有效解决其他移动物体干扰情况下和手部被遮挡情况下跟踪丢失机率大等问题的方法,是研究手势识别所需的关键技术。
有鉴于此,本发明立足于提出一种系统鲁棒的手部跟踪的方法和装置,推动手部识别技术的发展,进而为人机交互添砖加瓦。
发明内容
针对现有手部跟踪方法应用于基于视觉的人机交互领域时,跟踪效果易受干扰,不稳定,在其他移动物体干扰情况下和手部被遮挡情况下跟踪丢失机率大的缺陷,提供一种自学习的基于肤色模型的手部跟踪装置及方法。
本发明提供的自学习的基于肤色模型的手部跟踪装置,包括:
预处理单元,包括背景模型和肤色模型,用于从本帧图像中提取手部候选区域,以及用于通过形态学检测,从手部候选区域获取初始手部区域hinit
自学习单元,用所述手部候选区域和初始手部区域hinit自学习,得到本帧自学习后的手部区域hfinal;以及
后序处理单元,用于对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置;
所述自学习单元包括手部跟踪器、手部识别器和P-N学习器,所述手部跟踪器用于对所述初始手部区域hinit和前一帧自学习后的手部区域hfinal跟踪;所述手部识别器用P-N学习器识别的前一帧的负样本在线训线,对所述手部候选区域识别;所述P-N学习器用手部跟踪器的跟踪结果和手部识别器的识别结果训练内部的P-N分类器,以及用P-N分类器对所述手部候选区域分类,获取本帧自学习后的手部区域hfinal
优选地,所述手部识别器包括离线分类器和在线分类器,二者依次级联,离线分类器用Haar特征进行分类,在线分类器用2bit Binary特征进行在线训练和分类。
优选地,所述手部跟踪器包括:
第一模块,用于对本帧的初始手部区域hinit和前一帧自学习后的手部区域hfinal合并,建立搜索窗;
第二模块,用于从搜索窗内选取跟踪的特征点;
第三模块,用于计算各个特征点的光流向量;
第四模块,用于计算光流向量的加权平均值;
第五模块,用于将算得的加权平均值作为搜索窗的移动矢量,更新搜索窗。
优选地,第三模块中采用Lucas-Kanada稀疏光流法计算光流向量;前一帧自学习后的手部区域hfinal特征点的权重大于本帧的初始手部区域hinit特征点的权重。
优选地,第二模块选取的特征点包括角点、亮度梯度变化大的点、和/或边缘点。
优选地,所述预处理单元中,形态学检测的特征包括圆形度、凸缺陷和/或轮廓。
优选地,所述P-N学习器在每次分类后用自学习后的手部区域hfinal和手部运动轨迹更新P-N分类器。
本发明提供的自学习的基于肤色模型的手部跟踪方法,包括:
预处理步骤:从本帧图像中提取手部候选区域,以及通过形态学检测,从手部候选区域获取初始手部区域hinit
自学习及P-N分类步骤:用所述手部候选区域和初始手部区域hinit自学习,得到本帧自学习后的手部区域hfinal;以及
后序处理步骤:对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置;
所述自学习及P-N分类步骤包括:
对所述初始手部区域hinit和前一帧自学习后的手部区域hfinal跟踪的手部跟踪步骤;
用P-N学习器识别的前一帧的负样本
Figure BDA00002637757300031
在线训线,对所述手部候选区域识别的手部识别步骤;以及
用手部跟踪器的跟踪结果和手部识别器的识别结果训练P-N分类器,以及用P-N分类器对所述手部候选区域分类,获取本帧自学习后的手部区域hfinal的P-N学习及分类步骤。
优选地,所述手部跟踪步骤包括:
对本帧的初始手部区域hinit和前一帧自学习后的手部区域hfinal合并,建立搜索窗;
从搜索窗内选取跟踪的特征点;
计算各个特征点的光流向量;
计算光流向量的加权平均值;
将算得的加权平均值作为搜索窗的移动矢量,更新搜索窗。
优选地,所述手部识别步骤包括:
提取手部候选区域的Haar特征,用离线分类器分类得到本帧的正样本
Figure BDA00002637757300041
对P-N分类器识别的前一帧的负样本
Figure BDA00002637757300042
和离线分类器输入的本帧的正样本提取2bit Binary特征,用在线分类器分类,得到正在跟踪的手部区域
Figure BDA00002637757300044
本发明手部跟踪装置及方法将P-N学习器识别的正负样本分别反馈给手部跟踪器和手部识别器,并结合手部跟踪器和手部识别器的输出对P-N学习器进行训练,鲁棒性好,在处理手部经过脸部等重干扰区域或者被遮挡时,能够稳定准确地跟踪手部。
附图说明
图1是一实施例自学习的基于肤色模型手部跟踪装置的原理框图;
图2是预处理单元实现预处理的流程图;
图3是手部跟踪器实现手部跟踪的流程图;
图4是手部识别器实现手部识别的流程图;
图5是P-N学习器实现学习及判定的流程图;
图6是后续处理单元实现后续处理的流程图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
图1示意性地表示了自学习的基于肤色模型手部跟踪装置的原理。
如图1所示,本自学习的基于肤色模型的手部跟踪装置包括:预处理单元1,自学习单元2,后序处理单元3。预处理单元1从本帧图像中提取手部候选区域,以及通过形态学检测,从手部候选区域获取初始手部区域hinit和手部识别器的输入对象∑(h1,h2…hm),自学习单元2用所述手部候选区域和初始手部区域hinit自学习,得到本帧自学习后的手部区域hfinal,后序处理单元3对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置,从而实现对手部的跟踪。
其中,自学习单元2包括手部跟踪器21、手部识别器22和P-N学习器23。手部跟踪器21对本帧的初始手部区域hinit和前一帧自学习后的手部区域hfinal跟踪;手部识别器22用P-N学习器23识别的前一帧的负样本
Figure BDA00002637757300045
在线训线,对本帧的手部候选区域识别;P-N学习器23用手部跟踪器21的跟踪结果和手部识别器22的识别结果训练内部的P-N分类器,以及用P-N分类器对本帧的手部候选区域分类,获取本帧自学习后的手部区域hfinal
预处理单元1采用高斯背景建模技术、肤色建模技术、形态学特征检测以及滤波技术,进行初步的识别处理得到初始的正负样本。
图2示意性地表示了预处理单元1实现预处理的方法。
如图2所示,在步骤201中,对输入的视频序列进行图像平滑处理。例如,可以对图像进行核大小为W=param1×param2的中值滤波,可表示为g(x,y)=med{f(x-k,y-1),(k,1∈W)},其中f(x,y),g(x,y)分别为图像输入和输出。
在步骤202中,通过高斯背景建模,提取前景。采用混合高斯背景建模,通常可以选择3到5个高斯模型,当有新的图像输入时更新混合高斯模型。匹配新图像中每个像素点和混合高斯模型,如果匹配成功则为背景点,否则为前景点。
例如,对于上述g(x,y),g(x,y)中的任何一个像素点Ix,y,在t时刻的概率为
Figure BDA00002637757300051
η为混合高斯分布密度,k是高斯分布的个数,η中方差∑t2I。选择B个fitness最高的高斯概率进行该像素的更新。
fitness=ωkk
h(x,y)=Gaussian(g(x,y))。
在步骤203中,将图像转换到YCbCr空间h(x,y)→h(x1,y1),(x,y)∈RGB,(x1,y1)∈YCbCr。因为肤色分布在Cb、Cr上有不错的集中效果,而且根据研究得知在各色人种的肤色分布上,其Cb、Cr上的差异也不大。
在步骤204中,对图像进行肤色前景建模,应用肤色模型抽出手部、脸部以及其他类肤色区域,即手部的候选区域∑(h1,h2…hn)=skin(h(x1,y1))。
在步骤205中,估计手部在画面中的面积大小,通过滤波去除那些面积过小的区域,以简化后续的计算。可表示为∑(h1,h2…hm)=filer(∑(h1,h2…hn))(m<n)。
在步骤206中,通过形态学检测,从手部候选区域获取初始手部区域hinit。形态学检测是初始化找到正样本和负样本的关键一环,形态学操作主要对剩余在图像中的类肤色区域(即手部候选区域)进行判断,确定初始手部区域hinit。优选地,形态学检测用圆形度、凸缺陷、轮廓等特征进行检测。优选地,根据下述几条约束条件,在∑(h1,h2…hm)中找到初始手部区域hinit:至少有4个凸缺陷的面积占该区域的比例为5%;手部的圆形度:0.1—0.25;霍夫变换后该区域的直线应在5条以上,而且每条长度占到该区域长度的30%以上。
手部跟踪器21采用lucas-kanada光流技术和median-shift技术进行跟踪和预测,提供自学习的正样本区域。
图3示意性地表示了手部跟踪器21实现手部跟踪的方法。其中的hfinal表示前一帧自学习后的手部区域。
如图3所示,在步骤301中,对本帧的初始手部区域hinit和前一帧自学习后的手部区域hfinal合并,建立搜索窗。
手部跟踪器21跟踪的手部区域有两部分,第一部分是预处理单元1处理后得到的初始手部区域hinit,第二部分是经过P-N学习器23确认后返回的前一帧自学习后的手部区域hfinal。开始阶段,没有P-N学习器23确认返回值时,输入仅仅包含第一部分。具体可以设计为,在t时刻的搜索窗Bt为两个区域hinit和hfinal(前一帧自学习后的手部区域)的并集的外接矩形,可表示为
B 0 &Superset; h init t = 0 , t = 0
B t &Superset; ( h init &cup; h final ) , t &NotEqual; 0
Tt=tB0,B1…Bt}Tt为运动轨迹。
在步骤302中,从搜索窗内选取跟踪的特征点。具体地,在t时刻在搜索窗Bt内初始化跟踪的特征点。其中,属于hfinal区域(前一帧自学习后的手部区域)的特征点赋予高的权重ωfinal,属于hinit区域的特征点赋予低的权重ωinit。将所有的特征点赋好权值之后,选择权值最高的一批特征点进行跟踪。
&Sigma; p n i , j = Harris ( h init &cup; h final ) , ( i , j ) &Subset; B t
&omega; n i , j = &omega; init if ( i , f ) only &Element; h init &omega; final if ( i , j ) only &Element; h final &omega; init + &omega; final if ( i , j ) &Element; h init &cap; h final
&Sigma; p m i , j = update ( &Sigma; p n i , j ) , ( i , j ) &Subset; B t
特征点并不局限于角点,可以选择角点、旋转不变性的sift特征点、边缘点等等作为跟踪的特征点。
在步骤303中,计算各个特征点的光流向量。具体地,用Lucas-Kanade光流法产生相邻两幅图像(It→It+1)的稀疏光流向量
Figure BDA00002637757300066
&Sigma; VEC m i , j = LK ( &Sigma; p m i , j ) , ( I t &RightArrow; I t + 1 ) , ( i , j ) &Subset; B t .
在步骤304中,计算光流向量的加权平均值。首先估计FB(Forward-back)误差,滤掉50%最差的光流向量,剩余的作为median-shift的输入,计算光流向量的平均值Vector,可表示为
&Sigma; VEC k i , j = FB ( &Sigma; VEC m i , j ) , ( k < m ) , ( i , j ) &Subset; B t
Vector = Median ( &Sigma; VEC k i , j ) , ( i , j ) &Subset; B t .
在步骤305中,将算得的加权平均值作为搜索窗的移动矢量,更新搜索窗
Bt+1=Vector+Bt
上述方法中,在计算光流向量前,即步骤302中,已经对各个特征点赋予了权值,步骤305中可以直接计算平均值。也可以在计算平均值时,即步骤305中赋予权值。权值的分配原则是:前一帧自学习后的手部区域hfinal特征点的权重应大于本帧的初始手部区域hinit特征点的权重,例如,前者的权重取1,后者的权重取0.5。
手部识别器22的识别与预处理时的识别不同,它要在后续复杂情况下准确无误的识别手部区域。手部识别器22采用级联分类器,包括离线分类器和在线分类器,二者依次级联,接受预处理单元1的输出和P-N学习器23的输出,分类确定最终的手部区域。离线分类器用Haar特征进行分类,在线分类器用2bitBinary特征进行在线训练和分类,用2bit Binary特征x=[x1,x2,……,xk]可以定量的描述物体和背景在边界上的梯度变化。2bit Binary特征在检测块内随机生成,它的优点是可以有效的评价一个复杂背景下的前景轮廓,同时它与光照相关度低。
线下采集手部的样本的Haar特征,训练Adaboost分类器得到离线分类器。离线分类器可以识别出画面中的任何手部区域,但是不能区分哪一只手才是正在跟踪的手,同时也不能识别正在跟踪的手被局部遮挡的情况。在线分类器解决的是离线分类器的不足部分。在线分类器的训练集来自于P-N学习器23给出的负样本,和离线分类器正确识别的手部。在线分类器采集正负样本的2-bitBP特征,不断训练1NN分类器(在线分类器)。当新画面中手部被局部遮挡时,离线分类器失效,进入在线分类器,发现1NN分类器判别后的置信度高于50%,依然把这个被遮挡的手部列为识别出来的手部区域。两个分类器协调工作,保证跟踪的准确性。
图4示意性地表示了手部识别器22实现手部识别的方法。其中的
Figure BDA00002637757300073
表示P-N学习器返回的前一帧的负样本
如图4所示,在步骤401中,提取本帧的手部候选区域∑(h1,h2…hm)的harr特征,训练离线分类器,从∑(h1,h2…hm)中找到所有手部的正样本(无论是否为当前跟踪的那一只)
Figure BDA00002637757300081
h r offline = Detect 1 ( &Sigma; ( h 1 , h 2 . . . h m ) )
在步骤402中,P-N学习器23返回前一帧的负样本
Figure BDA00002637757300083
离线分类器输入本帧的正样本
Figure BDA00002637757300084
提取2bit Binary特征,用F表示,特征间的相似度为S(fi,fj)。相似度公式中[.]是逻辑操作,输出0或1。可表示为
F=[f1,f2…fk]
S ( f i , f j ) = 1 K &Sigma; i = 1 K ( [ f i K = f j K ] )
在步骤403中,学习训练在线分类器,以及确定新图像(It→It+1)要跟踪的手部区域
Figure BDA00002637757300086
h r online = Detect 2 ( h w pn + h r offline )
在线分类器是1NN分类器,通过P-N学习器23不断提供错误识别的样本,达到排除干扰的识别效果。
P-N学习器23是P-N半监督学习器,通过分析样本数据在空间-时间维度的规律发现运动轨迹,根据P-N约束条件确定新的样本是P是N,然后更新这个P-N分类器(添加有标签的样本集)。对于新分类出来的正负样本有三个输出途径。第一,将P样本传递给跟踪部分,参与下轮跟踪,第二,将N样本作为训练集传递给识别部分,第三,输出最终确定的手部区域(融合后的整个跟踪框)。P-N半监督分类器能够记忆物体的运动轨迹,记忆P-N样本。这个分类相当于预测物体未来轨迹并提供最终确定的轨迹和正确错误的手部区域。在处理手部经过脸部等重干扰区域,或者被遮挡时,P-N半监督学习器起到的整合手部运动轨迹的作用巨大。
手部跟踪器21产生运动轨迹,手部识别器22产生正负样本。距离运动轨迹近的样本被标定为positive,距离远的样本被标定为negative,这就是P-N约束条件。
图5示意性地表示了P-N学习器23实现学习及判定的方法。其中的hfinal表示本帧自学习后的手部区域,
Figure BDA00002637757300088
表示P-N学习器识别的本帧的负样本
Figure BDA00002637757300089
如图5所示,在步骤501中,整合手部识别器22输入的样本信息
Figure BDA000026377573000810
和手部跟踪器21输入的轨迹信息Tt={B0,B1…Bt}。前者包含的是正确识别的手部样本,后者是实时更新的跟踪轨迹。
在步骤502中,在笛卡尔坐标系中绘制这些历史的手部信息和位置信息。手部信息是一个个离散的点,位置信息是一条曲线采用曲线拟合的办法计算出未来的手部可能出现的位置,达到预测手部位置的目的。
Trajectory=Struc{Dt,Tt}
在步骤503中,P-N学习器对于输入进来的要分类的目标进行P-N约束判定,符合P约束的输出给后序处理单元3,并返回给手部跟踪器21,符合N约束的返回给手部识别器22。分类准则是计算样本到Trajectory的距离。分好类后更新分类器。可表示为
hfinal=Pcon(∑(h1,h2…hm))
h w pn = N con ( &Sigma; ( h 1 , h 2 . . . h m ) )
update(hi,PN)→{hfinal,Trajectory}。
整个跟踪过程的输出就是,更新好的PN学习器的参数,正确识别的样本以及其轨迹位置。
经过上述自学习单元2的自学习处理后,已经确定了手部区域的搜索框(即本帧自学习后的手部区域hfinal)。该搜索框跟踪的是目标手部,不是类肤色区域,不是脸部,甚至不是另一只手。后序处理单元3对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置。
图6示意性地表示了后序处理单元3实现后序处理的方法。其中的hfinal表示本帧自学习后的手部区域。
如图6所示,在步骤601中,在本帧自学习后的手部区域hfinal提取手部的轮廓。可以通过形态学分析得到手部的轮廓。
在步骤602中,分析手部特征,根据轮廓点到手掌中心的距离,找到极值点。
在步骤603中,根据极值点及其临近区域的曲率信息定位出指尖。

Claims (10)

1.一种自学习的基于肤色模型的手部跟踪装置,其特征在于,包括:
预处理单元,包括背景模型和肤色模型,用于从本帧图像中提取手部候选区域,以及用于通过形态学检测,从手部候选区域获取初始手部区域hinit
自学习单元,用所述手部候选区域和初始手部区域hinit自学习,得到本帧自学习后的手部区域hfinal;以及
后序处理单元,用于对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置;
所述自学习单元包括手部跟踪器、手部识别器和P-N学习器,所述手部跟踪器用于对所述初始手部区域hinit和前一帧自学习后的手部区域hfinal跟踪;所述手部识别器用P-N学习器识别的前一帧的负样本在线训线,对所述手部候选区域识别;所述P-N学习器用手部跟踪器的跟踪结果和手部识别器的识别结果训练内部的P-N分类器,以及用P-N分类器对所述手部候选区域分类,获取本帧自学习后的手部区域hfinal
2.根据权利要求1所述的自学习的基于肤色模型的手部跟踪装置,其特征在于,所述手部识别器包括离线分类器和在线分类器,二者依次级联,离线分类器用Haar特征进行分类,在线分类器用2bit Binary特征进行在线训练和分类。
3.根据权利要求1所述的自学习的基于肤色模型的手部跟踪装置,其特征在于,所述手部跟踪器包括
第一模块,用于对本帧的初始手部区域hinit和前一帧自学习后的手部区域hfinal合并,建立搜索窗;
第二模块,用于从搜索窗内选取跟踪的特征点;
第三模块,用于计算各个特征点的光流向量;
第四模块,用于计算光流向量的加权平均值;
第五模块,用于将算得的加权平均值作为搜索窗的移动矢量,更新搜索窗。
4.根据权利要求3所述的自学习的基于肤色模型的手部跟踪装置,其特征在于,第三模块中采用Lucas-Kanada稀疏光流法计算光流向量;前一帧自学习后的手部区域hfinal特征点的权重大于本帧的初始手部区域hinit特征点的权重。
5.根据权利要求3所述的自学习的基于肤色模型的手部跟踪装置,其特征在于,第二模块选取的特征点包括角点、亮度梯度变化大的点、和/或边缘点。
6.根据权利要求1所述的自学习的基于肤色模型的手部跟踪装置,其特征在于,所述预处理单元中,形态学检测的特征包括圆形度、凸缺陷和/或轮廓。
7.根据权利要求1所述的自学习的基于肤色模型的手部跟踪装置,其特征在于,所述P-N学习器在每次分类后用自学习后的手部区域hfinal和手部运动轨迹更新P-N分类器。
8.一种自学习的基于肤色模型的手部跟踪方法,其特征在于,包括:
预处理步骤:从本帧图像中提取手部候选区域,以及通过形态学检测,从手部候选区域获取初始手部区域hinit
自学习及P-N分类步骤:用所述手部候选区域和初始手部区域hinit自学习,得到本帧自学习后的手部区域hfinal;以及
后序处理步骤:对本帧自学习后的手部区域hfinal处理,得到手部轮廓和指尖位置;
所述自学习及P-N分类步骤包括:
对所述初始手部区域hinit和前一帧自学习后的手部区域hfinal跟踪的手部跟踪步骤;
用P-N学习器识别的前一帧的负样本
Figure FDA00002637757200021
在线训线,对所述手部候选区域识别的手部识别步骤;以及
用手部跟踪器的跟踪结果和手部识别器的识别结果训练P-N分类器,以及用P-N分类器对所述手部候选区域分类,获取本帧自学习后的手部区域hfinal的P-N学习及分类步骤。
9.根据权利要求8所述的自学习的基于肤色模型的手部跟踪方法,其特征在于,所述手部跟踪步骤包括:
对本帧的初始手部区域hinit和前一帧自学习后的手部区域hfinal合并,建立搜索窗;
从搜索窗内选取跟踪的特征点;
计算各个特征点的光流向量;
计算光流向量的加权平均值;
将算得的加权平均值作为搜索窗的移动矢量,更新搜索窗。
10.根据权利要求8所述的自学习的基于肤色模型的手部跟踪方法,其特征在于,所述手部识别步骤包括:
提取手部候选区域的Haar特征,用离线分类器分类得到本帧的正样本
Figure FDA00002637757200031
对P-N分类器识别的前一帧的负样本
Figure FDA00002637757200032
和离线分类器输入的本帧的正样本
Figure FDA00002637757200033
提取2bit Binary特征,用在线分类器分类,得到正在跟踪的手部区域
Figure FDA00002637757200034
CN201210566144.4A 2012-12-24 2012-12-24 自学习的基于肤色模型的手部跟踪装置及方法 Active CN103034851B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210566144.4A CN103034851B (zh) 2012-12-24 2012-12-24 自学习的基于肤色模型的手部跟踪装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210566144.4A CN103034851B (zh) 2012-12-24 2012-12-24 自学习的基于肤色模型的手部跟踪装置及方法

Publications (2)

Publication Number Publication Date
CN103034851A true CN103034851A (zh) 2013-04-10
CN103034851B CN103034851B (zh) 2015-08-26

Family

ID=48021730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210566144.4A Active CN103034851B (zh) 2012-12-24 2012-12-24 自学习的基于肤色模型的手部跟踪装置及方法

Country Status (1)

Country Link
CN (1) CN103034851B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103389799A (zh) * 2013-07-24 2013-11-13 清华大学深圳研究生院 一种对手指尖运动轨迹进行跟踪的方法
CN103400155A (zh) * 2013-06-28 2013-11-20 西安交通大学 基于图半监督学习的色情视频检测方法
CN103426008A (zh) * 2013-08-29 2013-12-04 北京大学深圳研究生院 基于在线机器学习的视觉人手跟踪方法及系统
CN103530892A (zh) * 2013-10-21 2014-01-22 清华大学深圳研究生院 一种基于Kinect传感器的双手跟踪方法与装置
CN103985137A (zh) * 2014-04-25 2014-08-13 北京大学深圳研究院 应用于人机交互的运动物体跟踪方法及系统
WO2014201971A1 (zh) * 2013-06-17 2014-12-24 华为终端有限公司 在线训练的目标检测方法及装置
CN108647617A (zh) * 2018-05-02 2018-10-12 深圳市唯特视科技有限公司 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070242876A1 (en) * 2006-04-06 2007-10-18 Kohtaro Sabe Image Processing Apparatus, Image Processing Method, and Program
CN101350062A (zh) * 2008-08-05 2009-01-21 浙江大学 一种基于视频的快速人脸检测方法
CN102324025A (zh) * 2011-09-06 2012-01-18 北京航空航天大学 基于高斯肤色模型和特征分析的人脸检测与跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070242876A1 (en) * 2006-04-06 2007-10-18 Kohtaro Sabe Image Processing Apparatus, Image Processing Method, and Program
CN101350062A (zh) * 2008-08-05 2009-01-21 浙江大学 一种基于视频的快速人脸检测方法
CN102324025A (zh) * 2011-09-06 2012-01-18 北京航空航天大学 基于高斯肤色模型和特征分析的人脸检测与跟踪方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014201971A1 (zh) * 2013-06-17 2014-12-24 华为终端有限公司 在线训练的目标检测方法及装置
CN103400155A (zh) * 2013-06-28 2013-11-20 西安交通大学 基于图半监督学习的色情视频检测方法
CN103389799A (zh) * 2013-07-24 2013-11-13 清华大学深圳研究生院 一种对手指尖运动轨迹进行跟踪的方法
CN103389799B (zh) * 2013-07-24 2016-01-20 清华大学深圳研究生院 一种对手指尖运动轨迹进行跟踪的方法
CN103426008A (zh) * 2013-08-29 2013-12-04 北京大学深圳研究生院 基于在线机器学习的视觉人手跟踪方法及系统
CN103426008B (zh) * 2013-08-29 2017-04-05 北京大学深圳研究生院 基于在线机器学习的视觉人手跟踪方法及系统
CN103530892A (zh) * 2013-10-21 2014-01-22 清华大学深圳研究生院 一种基于Kinect传感器的双手跟踪方法与装置
CN103530892B (zh) * 2013-10-21 2016-06-22 清华大学深圳研究生院 一种基于Kinect传感器的双手跟踪方法与装置
CN103985137A (zh) * 2014-04-25 2014-08-13 北京大学深圳研究院 应用于人机交互的运动物体跟踪方法及系统
CN103985137B (zh) * 2014-04-25 2017-04-05 深港产学研基地 应用于人机交互的运动物体跟踪方法及系统
CN108647617A (zh) * 2018-05-02 2018-10-12 深圳市唯特视科技有限公司 一种基于卷积神经网络的驾驶员手部定位和抓握分析方法

Also Published As

Publication number Publication date
CN103034851B (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
Konstantinidis et al. Sign language recognition based on hand and body skeletal data
CN103034851B (zh) 自学习的基于肤色模型的手部跟踪装置及方法
CN106778664B (zh) 一种虹膜图像中虹膜区域的分割方法及其装置
CN111460962B (zh) 一种口罩人脸识别方法及系统
Khan et al. Hand gesture recognition: a literature review
Gu et al. Human gesture recognition through a kinect sensor
CN102831439B (zh) 手势跟踪方法及系统
CN105678297A (zh) 一种基于标签转移及lstm模型的人像语义分析的方法及系统
CN102902986A (zh) 自动性别识别系统及方法
Pandey et al. Hand gesture recognition for sign language recognition: A review
Rao et al. Sign Language Recognition System Simulated for Video Captured with Smart Phone Front Camera.
Sajanraj et al. Indian sign language numeral recognition using region of interest convolutional neural network
CN108846359A (zh) 一种基于皮肤颜色区域分割和机器学习算法相融合的手势识别方法及其应用
CN109558855B (zh) 一种基于手掌轮廓特征与模版匹配法相结合的空间手势识别方法
CN102194108A (zh) 一种聚类线性鉴别分析特征选择的笑脸表情识别方法
CN104299004A (zh) 一种基于多特征融合和指尖检测的手势识别方法
CN109325408A (zh) 一种手势判断方法及存储介质
CN108073851A (zh) 一种抓取手势识别的方法、装置及电子设备
CN110046544A (zh) 基于卷积神经网络的数字手势识别方法
Lei et al. Geometric feature based facial expression recognition using multiclass support vector machines
Hu et al. Temporal interframe pattern analysis for static and dynamic hand gesture recognition
CN105701486A (zh) 一种在摄像机内实现人脸信息分析及提取的方法
Zamora-Mora et al. Real-time hand detection using convolutional neural networks for costa rican sign language recognition
CN103996207A (zh) 一种物体跟踪方法
CN109508720A (zh) 一种车辆颜色识别方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili of Tsinghua

Patentee after: Shenzhen International Graduate School of Tsinghua University

Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili of Tsinghua

Patentee before: GRADUATE SCHOOL AT SHENZHEN, TSINGHUA University

CP01 Change in the name or title of a patent holder