CN102073878B - 非穿戴指势视觉识别方法 - Google Patents
非穿戴指势视觉识别方法 Download PDFInfo
- Publication number
- CN102073878B CN102073878B CN2010105437882A CN201010543788A CN102073878B CN 102073878 B CN102073878 B CN 102073878B CN 2010105437882 A CN2010105437882 A CN 2010105437882A CN 201010543788 A CN201010543788 A CN 201010543788A CN 102073878 B CN102073878 B CN 102073878B
- Authority
- CN
- China
- Prior art keywords
- pointing
- area
- gesture
- image
- finger
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000000007 visual effect Effects 0.000 title abstract description 29
- 241000282414 Homo sapiens Species 0.000 claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 16
- 230000008859 change Effects 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 230000009471 action Effects 0.000 abstract description 2
- 230000003993 interaction Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000011496 digital image analysis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000002243 precursor Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种非穿戴指势视觉识别方法。本方法是根据小波变换在时域和空域均具有优异的局部化特征,采用背景差分法,利用小波多尺度特性,提取指势用户对象,根据指势手指空间几何特征与人眼特征,确定手指尖与人眼的位置,通过对不同指势用户手指不同目标的样本学习与训练,对指势用户在指向不同目标时的指势视觉特征进行分类,确定所指目标。本发明方法不需要特定的硬件支持以及限定用户活动范围等约束,方法简便、灵活、易实现。
Description
技术领域
本发明涉及一种非穿戴指势视觉识别方法,用于视频数字图像分析与理解。属于智能信息处理技术领域。
背景技术
指势是人们日常生活中用手指对空间感兴趣目标的反映,是人类语系发展和个体发生学的重要先驱,可揭示人类社会智力,是一种理想的自然人机交互模式。应用指势进行人机交互,则可充分利用人类的日常技能,摆脱目前使用常规输入设备(如键盘、鼠标器和触摸屏等)进行输入的束缚,其中,有效进行指势人机交互的关键是指势识别。
指势识别分为穿戴式和非穿戴式两类。前者基于数据头盔、数据手套和身体标记等,这类方法虽可获得较准确的用户位置和用户行动,但该类方法为侵入式,用户需专门训练,操作不便;后者基于非接触传感器(如摄像机)进行指势识别,支持自然的人机交互。由于在人类的日常生活中,人类习惯并大量使用非精确的信息交流,允许使用模糊的表达手段,避免不必要的认识负荷,以提高交互活动的自然性和高效性,且在人类信息的获取中,80%以上来自于视觉,因此,非穿戴的指势视觉识别方法倍受青睐。有效的非穿戴指势视觉识别,在教育、影视、娱乐、制造、医学、商业、军事等领域,具有重要的实用意义和价值。
虽然人类在日常生活中频繁地使用指势进行信息交流,且可以很容易地识别出所指目标,但对计算机而言,却是一个难题。目前,已经提出了许多非穿戴指势视觉识别方法。主要有基于立体匹配方法和基于特征分析方法。前者通过二个或二个以上摄像机获取图像,采用立体匹配方法,进行指势视觉识别,确定所指目标。但由于立体匹配存在歧义性,且计算量大、运算复杂,需特定的硬件支持以实现实时处理。后者通过指势对象特征提取,进行指势视觉识别,确定所指目标。但这类方法要求用户站立于事先指定的范围内,用户周围无遮挡或障碍物,且要求背景简单、单一。该类方法在很大程度上制约了用户活动的自由性,不符合人类自然交流习惯。
发明内容
本发明的目的在于针对现有非穿戴指势视觉识别方法要求用户站立于事先指定的范围,其周围无遮挡或障碍物,背景简单、单一等假设信息,以及对动态场景变化敏感、噪声干扰大、运算复杂,提供一种非穿戴指势视觉识别方法,根据指势视觉特征与所指目标存在对应关系,基于指势特征与指向目标的样本学习与训练的机器学习方法进行指势视觉识别,可在多种条件下,实现指向目标的确定。
为达到上述目的,本发明的构思是:基于小波变换在时域和空域均具有优异的局部化特征,采用背景差分法,利用小波多尺度特性,提取指势用户对象,根据指势手指空间几何位置关系与人眼分布特征,提取手指与人眼等指势视觉特征,基于指势视觉特征与所指目标的样本学习与训练,对指势视觉特征进行模式分类,确定所指目标。
根据上述发明构思,本发明采用下述技术方案:
一种非穿戴指势视觉识别方法,其特征在于具体步骤如下:
1) 启动指势图像采集系统:采集视频图像;
2)获取背景图像
连续采集不包含指势用户的场景图像,当某设定时间间隔内两图像差小于某个设定阈值时,则将该时间间隔内的某一幅图像作为背景图像,否则重新采集,直到满足设定的时间间隔内的两图像差小于某个设定阈值;
3) 指势用户对象分割
由摄像机采集的当前帧图像与步骤2)获取的背景图像相减,采用小波变换方法分割出指势用户对象区域;
4)确定指势用户对象的人眼位置与指势手指尖位置;
5)样本学习与训练;
6)指向目标确定。
上述步骤3)的具体操作步骤如下:
(1)当前帧图像I 1(x,y)与背景图像I 2(x,y)相减,得到差分图像D(x,y):
D(x,y)=I 1(x,y)-I 2(x,y);
(2)差分图像多尺度小波变换:
(3)指势用户对象区域的确定:确定差分图像多尺度小波变换E的阈值T,将E值高于T的所有像素组成的区域,确定为指势用户对象区域。
上述步骤4)的具体操作步骤如下:
(1)肤色区域提取:根据RGB色彩空间中的R/G、R/B的比值具有较好的肤色聚类特性,分别确定R/G以及R/B的阈值T 1,T 2,T 3,T 4,将满足下式的所有像素组成的区域,确定为肤色区域S:
(2)候选人脸区域与手部区域提取:将同时满足步骤3)与步骤(1)的图像区域,作为候选的指势用户的肤色区域;
(3)人脸区域提取:对步骤(2)的二值图像进行连通区域搜索,计算连通区域高S l 与宽S w 的比值,以及连通区域中的孔洞数H和连通区域大小W,将满足下式的所有像素组成的区域视为人脸区域:
其中,T 5,T 6,T 7为阈值;
(4)人眼定位:基于步骤(3)所得区域进行Haar人眼特征检测,确定人眼位置;
(5)指势手部区域提取:根据指势过程中,指势手部区域高于非指势手部区域,从经步骤(2)所得的肤色区域中,剔除人脸区域以及因噪声引起的面积较小的肤色区域,确定指势手部区域;
(6)指势手指尖定位:计算经步骤(5)所得的指势手部区域的曲率,根据手指尖具有大的曲率变化特性,确定手指尖位置。
上述步骤5)的具体操作步骤如下:
(1)按照步骤4),通过采集不同指势用户对象在指向不同目标T i 时的人眼位置E i 和指势手指尖位置H i ,构成训练样本的数据集合D i ={E i ,H i }和指向目标的标记集合C i ={T i };
(2)选择分类器,对上述数据集合D i 和标记集合C i 构成的样本集合(D i ,C i )进行监督学习,并调整分类器中参数,使分类效果达到最佳。
上述步骤6)的具体操作步骤如下:
(1)按照步骤4),采集指势用户对象在指向目标时的人眼位置AE i 和指势手指尖位置AH i ,构成测试数据集合AD i ={AE i ,AH i };
(2)根据步骤5)所确定的分类器及其参数,对测试数据集合AD i 进行分类判别,根据判别函数的最大值确定指向目标。
本发明的原理如下:在本发明的技术方案中,基于指势进行人机交互时,所指目标由指势手指尖与人眼视线的连线与所指目标所在平面的交点确定,根据背景差分法能提供较完全的特征数据,基于场景中任何可察觉的目标运动都会体现在场景图像序列的变化中,利用当前图像与背景图像之间的差分,根据小波变换在时域和频域均具有局部化特征,从视频图像中分割出指势用户对象,并提取相应的手指尖和人眼等指势视觉特征。根据指势视觉特征与所指目标存在对应关系,基于指势视觉特征与指向目标的样本学习与训练的机器学习方法,确定指向目标。
设时间间隔Dt内,分别获得t n-1与t n 两时刻的两帧图像f(t n-1, x, y),f(t n , x, y),将两幅图像逐象素求差值,得差分图像Diff(x, y):
其中,DiffR,DiffG,DiffB分别对应差分图像红、绿、蓝三分量,|f|为f的绝对值。
若时间间隔内的两序列图像f(t n-1, x, y),f(t n , x, y)的差值,其中,T为阈值,|为“逻辑或”运算符,表明时间间隔内没有变化物体,从而可将t n ~t n-1之间某一时刻的图像,作为背景图像。
利用所得背景图像,根据当前获取的当前帧图像,采用背景差分法和小波变换,分割出指势用户区域。根据二维图像I(x, y)在尺度2 j 和k方向上的小波变换:
则在x,y方向上的小波函数可表示为:
据此,可确定不同尺度下的边缘点。由于噪声对尺度变化敏感,因此,采用上述寻求局部幅度极大值,不能有效压制噪声。为有效克服这一影响,通过寻求梯度幅度高于某阈值方法,替代寻求局部幅度极大值,确定不同尺度的边缘点。
同时,尽管人类肤色因人而异,且千差万别,但在RGB色彩空间中的R/G以及R/B的分布上,处在一个稳定的范围内,并呈现良好的聚类特性,且对姿态变化不敏感,可克服旋转、表情等变化影响,具有强的鲁棒性。在RGB色彩空间中,R,G,B分别表示红、绿、蓝三色的强度分量。
在当前获取的图像中,将满足条件的像素,作为当前图像的肤色区域,其中,T 1,T 2,T 3,T 4为阈值,为“逻辑与”操作符。为克服当前图像中类肤色信息(如木地板、木柜等)的影响,将同时满足该肤色条件所提取的肤色区域和上述采用背景差分法和小波变换分割出的指势用户区域,作为指势用户肤色区域。
由于人眼、眉毛、嘴唇等色彩特征区别于人脸肤色,因此,在提取的人脸区域中将存在孔洞,且人脸肤色区域的高、宽的比值,分布在一个稳定的范围内,从而将满足条件的像素,作为人脸区域,其中,S l ,S w 分别为人脸连通区域的高与宽,H为人脸连通区域的孔洞数,W为人脸连通区域的大小,T 5,T 6,T 7为阈值,为“逻辑与”操作符。根据在指势过程中,指势手部区域高于非指势手部区域,且具有一定大小,基于已提取的指势用户肤色区域和已确定的人脸区域,确定指势手部区域。
基于已确定的人脸区域和指势手部区域,分别根据人眼具有明显的Haar特征和手指尖具有最大的曲率变化特征,确定人眼位置和手指尖位置。
通过采集不同指势用户对象在指向不同目标T i 时的人眼位置E i 和指势手指尖位置H i ,构成训练样本的数据集合D i ={E i ,H i }和指向目标的标记集合C i ={T i }。对这些数据进行机器学习和训练,通过反复修正判决规则及参数,得到一种分类器模型,使之正确识别率达到设计要求。
利用所得分类器模型,通过对由指势用户指向不同目标时的人眼位置AE i 和指势手指尖位置AH i 构成的数据集合AD i ={AE i ,AH i },进行分类判别,根据判别函数的最大值确定对应的指向目标。
本发明与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:本发明根据小波变换在时域和空域均具有优异的局部化特征,采用背景差分法,利用小波多尺度特性,提取指势用户对象,根据指势手指空间几何位置关系与人眼分布特征,提取手指尖与人眼等指势视觉特征,基于指势视觉特征与所指目标的样本学习与训练,对指势视觉特征进行模式分类,确定指向目标,运算简便、灵活,容易实现,解决了进行非穿戴指势视觉识别时,要求背景简单,对动态场景变化敏感、噪声干扰大、运算复杂,以及要求用户站立于事先指定范围,用户周围无遮挡或障碍物的不足;提高了非穿戴指势视觉识别的鲁棒性,可适应复杂背景条件下的非穿戴指势视觉识别。
附图说明
图1是本发明方法的操作程序框图。
图2是本发明一个实施例的视频原始背景图像。
图3是本发明一个实施例的视频原始当前帧图像。
图4是图2示例中分割出的二值指势用户区域图像。
图5是图2示例中分割出的指势用户区域图像。
图6是图2示例中分割出的二值指势用户肤色区域图像。
图7是图2示例中的指势用户人眼与手指尖定位图像。
图8是本发明一个实施例的指势用户未手指前方目标时的场景图像。
图9 是图8示例指势用户徒手指向前方一目标时(前方目标被点亮—方框)的场景图像。
具体实施方式
本发明的一个具体实施例是:本非穿戴指势视觉识别方法的操作程序如图1所示。本例的原始背景图像如图2所示,当前帧图像如图3所示。对图3与图2所示的图像进行差分,对所得差分图像进行小波多尺度变换,进行前景对象区域分割,提取指势用户对象,根据指势手指空间几何位置关系与人眼分布特征,提取手指与人眼等指势视觉特征,基于指势视觉特征与所指目标的样本学习与训练,对指势视觉特征进行模式分类,确定指向目标;具体步骤如下:
1) 启动指势图像采集系统:采集视频图像;
2) 获取背景图像:连续采集不包含指势用户的场景图像,当某设定时间间隔内两图像差小于某个设定阈值时,则将该时间间隔内的某一幅图像作为背景图像,否则重新采集,直到满足设定的时间间隔内的两图像差小于某个设定阈值;
3)指势用户对象分割:具体操作步骤如下:
(1)背景差分:由摄像机采集的如图3的当前帧图像I 1(x,y)与如图2的背景图像I 2(x,y)相减,得到差分图像D(x,y)。
D(x,y)=I 1(x,y)-I 2(x,y)
(2)差分图像多尺度小波变换:
(3)指势用户对象区域的确定:确定差分图像多尺度小波变换E的阈值T,将E值高于T的所有像素组成的区域,确定为指势用户对象区域。
图4为经上述所得的二值指势用户对象区域,图5为分割出的指势用户对象。
4)确定指势用户对象的人眼位置与指势手指尖位置
具体操作步骤如下:
(1)肤色区域提取:根据RGB色彩空间中的R/G、R/B的比值具有较好的肤色聚类特性,分别确定R/G以及R/B的阈值范围,将满足下式的所有像素组成的区域,确定为肤色区域S:
(2)候选人脸区域与手部区域提取:将同时满足步骤3)与步骤(1)的图像区域,作为候选的指势用户的肤色区域,如图6所示;
(3)人脸区域提取:对步骤(2)的二值图像进行连通区域搜索,计算连通区域高S l 与宽S w 的比值,以及连通区域中的孔洞数H和连通区域大小W,将满足下式的所有像素组成的区域视为人脸区域:
(4)人眼定位:基于步骤(3)所得区域进行Haar人眼特征检测,确定人眼位置;
(5)指势手部区域提取:根据指势过程中,指势手部区域高于非指势手部区域,从经步骤(2)所得的肤色区域中,剔除人脸区域以及因噪声引起的面积较小的肤色区域,确定指势手部区域;
(6)指势手指尖定位:计算经步骤(5)所得的指势手部区域的曲率,根据手指尖具有大的曲率变化特性,确定手指尖位置。图7中十字叉所示为经上述所得的人眼与手指尖位置。
5)样本学习与训练:采集多个不同指势用户对象在指向不同目标T i 时的视频图像,获取他们的人眼位置E i 和指势手指尖位置H i ,构成训练样本的数据集合D i ={E i ,H i }和指向目标的标记集合C i ={T i },采用支持向量机并选择径向基核函数,对上述数据集合D i 和标记集合C i 构成的样本集合(D i ,C i )进行学习和训练,不断修改径向基核函数中的惩罚因子参数γ,使正确识别率达到最高。
6)指向目标确定:通过采集指势用户在指势过程中指向不同目标时的视频图像,获取人眼位置AE i 和指势手指尖位置AH i ,构成指势视觉特征数据集合AD i ={AE i ,AH i },采用已确定的惩罚因子参数γ进行基于径向基核函数的支持向量机分类判别,根据判别函数的最大值确定指向目标。
Claims (1)
1.一种非穿戴指势视觉识别方法,其特征在于具体步骤如下:
1)启动指势图像采集系统,采集视频图像;
2)获取背景图像:连续采集不包含指势用户的场景图像,当某设定时间间隔内两图像差小于某个设定阈值时,则将该时间间隔内的某一幅图像作为背景图像,否则重新采集,直到满足设定的时间间隔内的两图像差小于某个设定阈值;
3)指势用户对象分割:由摄像机采集的当前帧图像与步骤2)获取的背景图像相减,采用小波变换方法分割出指势用户对象区域;
4)确定指势用户对象的人眼位置与指势手指尖位置;
5)样本学习与训练;
6)指向目标确定;
所述步骤3)指势用户对象分割的具体操作步骤如下:
(1)当前帧图像I 1(x,y)与背景图像I 2(x,y)相减,得到差分图像D(x,y):
D(x,y)=I 1(x,y)-I 2(x,y);
(2)差分图像多尺度小波变换:
(3)指势用户对象区域的确定:确定差分图像多尺度小波变换E的阈值T,将E值高于T的所有像素组成的区域,确定为指势用户对象区域;
所述步骤4)确定指势用户对象的人眼位置与指势手指尖位置的具体操作步骤如下:
(1)肤色区域提取:根据RGB色彩空间中的R/G、R/B的比值具有较好的肤色聚类特性,分别确定R/G以及R/B的阈值T 1,T 2,T 3,T 4,将满足下式的所有像素组成的区域,确定为肤色区域S:
(2)候选人脸区域与手部区域提取:将同时满足步骤3)与步骤(1)的图像区域,作为候选的指势用户的肤色区域;
(3)人脸区域提取:对步骤(2)的二值图像进行连通区域搜索,计算连通区域高S l 与宽S w 的比值,以及连通区域中的孔洞数H和连通区域大小W,将满足下式的所有像素组成的区域视为人脸区域:
其中,T 5,T 6,T 7为阈值;
(4)人眼定位:基于步骤(3)所得区域进行Haar人眼特征检测,确定人眼位置;
(5)指势手部区域提取:根据指势过程中,指势手部区域高于非指势手部区域,从经步骤(2)所得的肤色区域中,剔除人脸区域以及因噪声引起的面积较小的肤色区域,确定指势手部区域;
(6)指势手指尖定位:计算经步骤(5)所得的指势手部区域的曲率,根据手指尖具有大的曲率变化特性,确定手指尖位置;
所述步骤5)样本学习与训练的具体操作步骤如下:
(1)按照步骤4),通过采集不同指势用户对象在指向不同目标T i 时的人眼位置E i 和指势手指尖位置H i ,构成训练样本的数据集合D i ={E i ,H i }和指向目标的标记集合C i ={T i };
(2)选择分类器,对上述数据集合D i 和标记集合C i 构成的样本集合(D i ,C i )进行监督学习,并调整分类器中参数,使分类效果达到最佳;
所述步骤6)指向目标确定的具体操作步骤如下:
(1)按照步骤4),采集指势用户对象在指向目标时的人眼位置AE i 和指势手指尖位置AH i ,构成测试数据集合AD i ={AE i ,AH i };
(2)根据步骤5)所确定的分类器及其参数,对测试数据集合AD i 进行分类判别,根据判别函数的最大值确定指向目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105437882A CN102073878B (zh) | 2010-11-15 | 2010-11-15 | 非穿戴指势视觉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010105437882A CN102073878B (zh) | 2010-11-15 | 2010-11-15 | 非穿戴指势视觉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102073878A CN102073878A (zh) | 2011-05-25 |
CN102073878B true CN102073878B (zh) | 2012-11-07 |
Family
ID=44032412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010105437882A Expired - Fee Related CN102073878B (zh) | 2010-11-15 | 2010-11-15 | 非穿戴指势视觉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102073878B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102254194B (zh) * | 2011-07-19 | 2013-01-30 | 清华大学 | 基于监督流形学习的场景分类方法及装置 |
US20150213328A1 (en) * | 2012-08-23 | 2015-07-30 | Nec Corporation | Object identification apparatus, object identification method, and program |
CN103995586B (zh) * | 2014-05-12 | 2018-04-06 | 上海大学 | 基于虚拟触摸屏的非穿戴指势人机交互方法 |
CN109407831A (zh) * | 2018-09-28 | 2019-03-01 | 维沃移动通信有限公司 | 一种交互方法及终端 |
CN115476366B (zh) * | 2021-06-15 | 2024-01-09 | 北京小米移动软件有限公司 | 足式机器人的控制方法、装置、控制设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437124A (zh) * | 2008-12-17 | 2009-05-20 | 三星电子(中国)研发中心 | 面向电视控制的动态手势识别信号处理方法 |
CN101527092A (zh) * | 2009-04-08 | 2009-09-09 | 西安理工大学 | 特定会话场景下的计算机辅助手语交流方法 |
-
2010
- 2010-11-15 CN CN2010105437882A patent/CN102073878B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101437124A (zh) * | 2008-12-17 | 2009-05-20 | 三星电子(中国)研发中心 | 面向电视控制的动态手势识别信号处理方法 |
CN101527092A (zh) * | 2009-04-08 | 2009-09-09 | 西安理工大学 | 特定会话场景下的计算机辅助手语交流方法 |
Also Published As
Publication number | Publication date |
---|---|
CN102073878A (zh) | 2011-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mukherjee et al. | Fingertip detection and tracking for recognition of air-writing in videos | |
Zhou et al. | A novel finger and hand pose estimation technique for real-time hand gesture recognition | |
CN110221699B (zh) | 一种前置摄像头视频源的眼动行为识别方法 | |
CN109255324A (zh) | 手势处理方法、交互控制方法及设备 | |
CN108197534A (zh) | 一种人头部姿态检测方法、电子设备及存储介质 | |
CN104123007A (zh) | 一种多维加权的3d动态手势识别方法 | |
CN105739702A (zh) | 用于自然人机交互的多姿态指尖跟踪方法 | |
CN102073878B (zh) | 非穿戴指势视觉识别方法 | |
Kalsh et al. | Sign language recognition system | |
CN103995595A (zh) | 一种基于手势的游戏体感控制方法 | |
WO2013051681A1 (ja) | 手指形状推定装置、手指形状推定方法、及び手指形状推定プログラム | |
Weiyao et al. | Human action recognition using multilevel depth motion maps | |
Khan et al. | Multiple human detection in depth images | |
CN105335711A (zh) | 一种复杂环境下指尖检测方法 | |
Wu et al. | Recognition of Student Classroom Behaviors Based on Moving Target Detection. | |
CN104167006A (zh) | 一种任意手形的手势跟踪方法 | |
CN105975906B (zh) | 一种基于面积特征的pca静态手势识别方法 | |
CN105261038B (zh) | 基于双向光流和感知哈希的指尖跟踪方法 | |
CN108614988A (zh) | 一种复杂背景下的运动手势自动识别系统 | |
Gu et al. | Hand gesture interface based on improved adaptive hand area detection and contour signature | |
Hartanto et al. | Real time hand gesture movements tracking and recognizing system | |
CN108521594B (zh) | 一种基于体感相机手势识别的自由视点视频播放方法 | |
Yang et al. | 3D character recognition using binocular camera for medical assist | |
Shah et al. | Survey on vision based hand gesture recognition | |
Shitole et al. | Dynamic hand gesture recognition using PCA, Pruning and ANN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121107 Termination date: 20151115 |
|
EXPY | Termination of patent right or utility model |