CN103488294B - 一种基于用户交互习惯的非接触手势控制映射调整方法 - Google Patents
一种基于用户交互习惯的非接触手势控制映射调整方法 Download PDFInfo
- Publication number
- CN103488294B CN103488294B CN201310415704.0A CN201310415704A CN103488294B CN 103488294 B CN103488294 B CN 103488294B CN 201310415704 A CN201310415704 A CN 201310415704A CN 103488294 B CN103488294 B CN 103488294B
- Authority
- CN
- China
- Prior art keywords
- cursor
- user
- distance
- staff
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于用户交互习惯的非接触手势控制映射调整方法,包括以下步骤:识别用户初始状态时整个图像的绝对位置;计算用户脸部或手掌的区域面积,估计人到摄像头的距离;初始化人手移动速度与光标移动速度的初映射关系;将屏幕上光标移动距离划分为近中远三个距离等级;记录用户每次操作过程中人手移动速度以及对应的光标移动速度;比对相对距离S与近中远距离等级的大小,分别处理统计光标移动速度,调整近中远三个距离等级对应的映射关系,使映射关系符合该用户的使用习惯。本发明提出的方法将人手所在位置作为手操作距离的中心参考点,在人手移动的过程中,计算人手与光标的相对距离和人手移动速度,也将极大地提高识别效果。
Description
技术领域
本发明涉及非接触手势控制的技术领域,特别涉及一种基于用户交互习惯的非接触手势控制映射调整方法。
背景技术
目前存在的人机交互非接触手势控制系统可以完成对人手和身体的运动进行跟踪,完成自然的人机交互,能够通过视觉存贮设备将视觉信号(如手势的运动、姿势的变化)转换为命令,有望能全面代替键盘和显示器。其设备的摄像头能捕捉到手部运动,从而转换成对应的命令执行。人们可以利用该系统用手在空中画出各种图形,或选择空中不同的点来构型,此交互系统可以立即将这些手上动作转化成图形或操作命令,可以完成对计算机或其他系统的控制。现有的非接触手势控制具有如下缺点:1、在不同的光照条件下皮肤颜色变化较大,经常导致面部或其他人体区域不能够被有效识别;2、现有系统未能将用户的人脸面部特征与手势信息有机的结合在一起,这也导致其不能够有效地记忆用户的个性化信息,不能使系统更加符合该用户的使用习惯。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于用户交互习惯的非接触手势控制映射调整方法。
本发明的目的通过下述技术方案实现:
本发明一种基于用户交互习惯的非接触手势控制映射调整方法,包括以下步骤:
步骤1.开机;
步骤2.用户以自然状态伸出控制手并在舒适的位置上悬停,获取控制权;
步骤3.摄像头对手势、面部和躯干部位进行识别;
步骤4.根据步骤3的人脸识别,确定用户信息,记录用户的交互历史;
步骤5.以初始状态的控制手手掌所在位置作为手操作距离的中心参考点,划定用户在摄像头中舒适的人手移动范围;
步骤6.根据步骤3获得的用户脸部或手掌的面积大小,估计人到摄像头的距离;
步骤7.结合步骤5、6的数据,初始化人手移动速度与光标移动速度的初映射关系;
步骤8.将屏幕上光标移动距离划分为近中远三个距离等级;
步骤9.用户移动控制手,将用户两次目标点击的光标移动距离定义为相对距离S,将移动该段距离所用的时间定义为移动时间T;
步骤10.记录用户每次操作过程中人手移动速度Vhand以及对应的光标移动速度Vcursor;
步骤11.比对相对距离S与近中远距离等级的大小,确定S的距离等级,同时确定该次移动操作中,光标移动速度Vcursor为相应距离等级光标移动速度;
步骤12.重复步骤9~11,一段时间后,分别处理统计近中远各距离等级光标移动速度,并根据统计处理结果,调整近中远三个距离等级对应的映射关系,使映射关系符合该用户的使用习惯。
优选的,步骤3中,摄像头对手势、面部、躯干部位都进行识别后,获得手势、面部、躯干的图像识别数据。
优选的,步骤4中还包括:摄像头对用户进行人脸识别,确定用户信息,为用户建立独立文档,记录该用户的交互历史。
优选的,步骤5具体为:
结合控制手掌与面部,躯干部位的相对位置及在摄像头捕捉画面的绝对位置,确定出中心参考点,并规定距离参考中心点d距离范围内为人手移动的合适范围,将中心参考点以及人手移动范围记录为用户个人信息。
优选的,步骤7具体为:结合用户个性化信息以及估算得到的人到摄像头的距离,划定人手移动速度界限Vhand1、Vhand2,建立人手移动速度Vhand与光标移动速度Vcursor的初始映射关系:
其中Ax、Bx为映射参数。
优选的,步骤10还包括:根据跟踪算法和摄像头的参数得到人手移动速度Vhand,并通过系统获得屏幕上光标移动速度Vcursor。
优选的,步骤11具体为:
对记录的人手移动速度Vhand以及对应的光标移动速度Vcursor进行数据处理:
若S为近距离,则比较移动时间T与T0的大小,其中T0为用户每次移动适宜的移动时间;若此次移动时间T》T0,则修正光标移动速度V′cursor=
Vcursor*T0/T,修正后的光标移动速度V′cursor标记为新的光标移动速度;若此次移动时间不满足T》T0,则无需调整;根据统计的近距离移动中人手移动速度与光标移动速度,调整近距离移动的映射关系Vcursor=
A1*Vhand;
若S为中距离,则分别求人手移动速度Vhand以及光标移动速度Vcursor的平均速度根据近距离移动映射方程在Vhand=
Vhand1时的临界点与( )调整中距离移动的映射关系Vcursor=
A2*Vhand+B2;
若S为远距离,则比较远距离光标移动速度Vcursor与V0的大小,其中V0为远距离移动的临界移动速度,V0=2d/T0即人手移动的最大距离与每次移动的适宜移动时间的比值;若Vcursor《V0,则修正光标移动速度V′cursor=
Vcurs or*2d/S,将修正后的光标移动速度V′cursor标记为新的光标移动速度,和人手移动速度Vhand代入短距离移动的映射关系,调整映射参数A3、B3;若此次移动时间不满足Vcursor《V0,则无需调整;根据统计的远距离移动中人手移动速度与光标移动速度,调整远距离移动的映射关系Vcursor=
A3*Vhand+B3。
本发明相对于现有技术具有如下的优点及效果:
专利提出的基于用户交互习惯的非接触手势控制映射调整方法,利用了人脸识别,从而可以确定用户信息,调用出记录在系统中的用户的交互历史,从而避免了繁琐的学习步骤及过程,使得系统更加符合该用户的使用习惯。与此同时,本专利提出的方法将人手所在位置作为手操作距离的中心参考点,在人手移动的过程中,计算人手与光标的相对距离和人手移动速度,也将极大地提高识别效果。
附图说明
图1是本发明的流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示,本实施例一种基于用户交互习惯的非接触手势控制映射调整方法,该方法包括以下步骤:
步骤1.开机;
步骤2.用户以自然状态伸出控制手并在舒适的位置上悬停,获取控制权;
步骤3.摄像头对手势,面部,躯干等重要部位进行识别;
步骤4.根据步骤3的人脸识别,确定用户信息,记录用户的交互历史;
步骤5.以初始状态的控制手手掌所在位置作为手操作距离的中心参考点,划定用户在摄像头中舒适的人手移动范围;
步骤6.根据步骤3获得的用户脸部或手掌的面积大小,估计人到摄像头的距离;
步骤7.结合步骤5、6的数据,初始化人手移动速度与光标移动速度的初映射关系;
步骤8.将屏幕上光标移动距离划分为近中远三个距离等级;
步骤9.用户移动控制手,将用户两次目标点击的光标移动距离定义为相对距离S,将移动该段距离所用的时间定义为移动时间T;
步骤10.记录用户每次操作过程中人手移动速度Vhand以及对应的光标移动速度Vcursor;
步骤11.比对相对距离S与近中远距离等级的大小,确定S的距离等级,同时确定该次移动操作中,光标移动速度Vcursor为相应距离等级光标移动速度;
步骤12.重复步骤9~11,一段时间后,分别处理统计近中远各距离等级光标移动速度,并根据统计处理结果,调整近中远三个距离等级对应的映射关系,使映射关系符合该用户的使用习惯。
在所述步骤3中,摄像头会对手势,面部,躯干等重要部位都进行识别,获得手势,面部,躯干等的图像识别数据;
在所述步骤4中,摄像头对用户进行人脸识别,确定用户信息,为用户建立独立文档,记录该用户的交互历史;
在所述步骤5中,结合控制手手掌与面部,躯干等重要部位的相对位置及在摄像头捕捉画面的绝对位置,确定出中心参考点,并规定距离参考中心点d距离范围内为人手移动的合适范围,将中心参考点以及人手移动范围记录为用户个人信息;
在所述步骤6中,根据摄像头获得用户脸部、手掌相对面积大小,与实际人体脸部、手掌的面积大小进行相对计算,可大致获得人到摄像头的距离;
在所述步骤7中,结合用户个性化信息以及估算得到的人到摄像头的距离,划定人手移动速度界限Vhand1、Vhand2,建立人手移动速度Vhand与光标移动速度Vcursor的初始映射关系:
其中Ax、Bx为映射参数;
在所述步骤8中,根据屏幕大小以及实验得到的数据,合理划分光标移动近中远三个距离等级;
在所述步骤10中,根据跟踪算法和摄像头的参数得到人手移动速度Vhand,并通过系统获得屏幕上光标移动速度Vcurso r;
在所述步骤11中,比对相对距离S与近中远距离等级的大小,确定S的距离等级,并根据S的距离等级确定该次光标移动速度Vcursor为相应距离等级光标移动速度;
对记录的人手移动速度Vhand以及对应的光标移动速度Vcursor进行数据处理:
若S为近距离,则比较移动时间T与T0的大小,其中T0为用户每次移动适宜的移动时间。若此次移动时间T》T0,则修正光标移动速度V′cursor=
Vcursor*T0/T,修正后的光标移动速度V′cursor标记为新的光标移动速度;若此次移动时间不满足T》T0,则无需调整。根据统计的近距离移动中人手移动速度与光标移动速度,调整近距离移动的映射关系Vcursor=
A1*Vhand;
若S为中距离,则分别求人手移动速度Vhand以及光标移动速度Vcursor的平均速度根据近距离移动映射方程在Vhand=
Vhand1时的临界点与( )调整中距离移动的映射关系Vcursor=
A2*Vhand+B2;
若S为远距离,则比较远距离光标移动速度Vcursor与V0的大小,其中V0为远距离移动的临界移动速度,V0=2d/T0即人手移动的最大距离与每次移动的适宜移动时间的比值。若Vcursor《V0,则修正光标移动速度V′cursor=
Vcursor*2d/S,将修正后的光标移动速度V′cursor标记为新的光标移动速度,和人手移动速度Vhand代入短距离移动的映射关系,调整映射参数A3、B3;若此次移动时间不满足Vcursor《V0,则无需调整。根据统计的远距离移动中人手移动速度与光标移动速度,调整远距离移动的映射关系Vcursor=
A3*Vhand+B3;
具体而言,本实施例所述方法及该方法所采用的算法如下:
系统开机,此时系统处于用户搜索状态,即:
1、摄像头采集用户图像,在图像中根据人脸检测算法在图像中搜索人脸,通过检测图像中是否有人脸来判别是否有用户存在。
2、在检测到人脸之后对用户进行人脸识别,搜索系统中是否有该用户信息。若没有则建立用户个人档案,记录用户交互历史,若已具有该用户信息,则直接进入下一步骤。
3、在识别的人脸附近设立敏感区域,在敏感区域中搜索人手,摄像头在敏感区域中搜索是否有手掌面向摄像头,若无,系统处于待机状态,摄像头重新采集图像序列;当摄像头在敏感区域中搜索到有一只手的手掌面向摄像头,且为有效手势,则判定该手为控制手;当摄像头在敏感区域中同时搜索到有两只手的手掌面向摄像头,且均为有效手势,则默认判定用户的右手为控制手。
4、在确定控制手之后,系统进入用户控制状态。
如上所述的人脸检测算法,使用Harr-like特征表示人脸,使用积分图实现特征数值的快速计算;使用AdaBoost算法挑选出一些最能代表人脸的矩形特征的弱分类器,按照加权投票的方式将弱分类器构造成一个强分类器;将训练得到的若干强分类器串联组成一个级联结构的层叠分类器,级联结构能有效地提高分类器的检测速度;使用得到的分类器对图像中人脸区域与非人脸区域进行分类,并最终找出人脸区域,找到人脸区域后,记录人脸所在矩形,其左上角为(Xf,Yf),宽为af,高为bf。
如上所述的通过人脸位置建立的敏感区域为矩形,左上角坐标为(Xs,Ys),宽为as,高为bs。
在这里我们取值:
Xs=
Xf-af
Ys=
Yf+bf
as=
3×af
bs=
2.5×bf
在敏感区域内搜索人手的方法,使用基于肤色分割的快速手势检测方法,分为三个步骤:首先使用肤色提取方法,检测出敏感区域内的肤色区域;其次通过先验知识初步排除一些不可能是人手的区域。最后通过形态判断确认剩余的连通区域是否为人手。
所述的肤色分割方法,是基于YCbCr色彩空间的高斯概率概率模型肤色分割方法。首先用下面的公式将RGB色彩空间转换到YCbCr色彩空间。
Y=0.257R+0.504G+0.098B+16
Cb=-0.148R-0.219G+0.439B+128
Cr=0.439R-0.368G-0.071B+128
在YCbCr色彩空间中,采集不同条件下的肤色样本训练,得到肤色概率计算参数。通过肤色概率计算公式计算出像素点是肤色点的概率。肤色概率计算公式如下:
p(Cb,Cr)=exp[-0.5(x-m)ΓC-1(x-m)]
其中:
x=(Cb,Cr)Γ,为CbCr空间中的像素点
m=E{x},为CbCr空间中所有像素的均值
C=E{(x-m)(x-mΓ)},为CbCr空间中所有像素的方差
最终计算出p(Cb,Cr)的值,取0.6为阈值,其概率超过0.6就认为是肤色像素点。
在肤色检测过后,得到肤色检测区域的二值图像,对二值图像进行闭操作,填补空洞,消除噪点。对敏感区域内的每个肤色区域做初步判别,排除一些完全不可能为人手区域的联通区域。判断依据如下:
1、根据联通区域面积判断:面积小于300像素的联通区域必然不是有效人手区域。用户脸区域面积为afbf,那么在其对于的敏感区域内面积小于1/5afbf的联通区域必然不是有效人手区域。
2、根据联通区域长宽比判断:如果联通区域的长与宽的比值大于5或小于0.2,那么必然不是人手区域。
3、对联通区域使用Sobel算子进行边缘提取,搜索边缘并计算每一个点的曲率,曲率在一定区域内达到极大值的点可确定为指尖点,检测到五个手指时,系统识别为人手。
系统处于用户控制状态时:
1、识别用户初始状态时手掌所在整个图像的绝对位置,确定此绝对位置的质心为中心参考点,划定用户在摄像头中舒适的人手移动范围;
2、计算用户脸部或手掌的区域面积,估计人到摄像头的距离;
3、初始化人手移动速度与光标移动速度的初映射关系;
4、将屏幕上光标移动距离划分为近中远三个距离等级;
5、用户移动控制手,将用户两次目标点击的光标移动距离定义为相对距离S,将移动该段距离所用的时间定义为移动时间T;
6、记录用户每次操作过程中人手移动速度Vhand以及对应的光标移动速度Vcurso r;
7、比对相对距离S与近中远距离等级的大小,确定S的距离等级,同时确定该次移动操作中,光标移动速度Vcursor为相应距离等级光标移动速度;
8、重复步骤5~7,一段时间后,分别处理统计近中远各距离等级光标移动速度,并根据统计处理结果,调整近中远三个距离等级对应的映射关系,使映射关系符合该用户的使用习惯。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (5)
1.一种基于用户交互习惯的非接触手势控制映射调整方法,其特征在于,包括以下步骤:
步骤1.开机;
步骤2.用户以自然状态伸出控制手并在舒适的位置上悬停,获取控制权;
步骤3.摄像头对手势、面部和躯干部位进行识别;
步骤4.根据步骤3的人脸识别,确定用户信息,记录用户的交互历史;
步骤5.以初始状态的控制手手掌所在位置作为手操作距离的中心参考点,划定用户在摄像头中舒适的人手移动范围;
步骤6.根据步骤3获得的用户脸部或手掌的面积大小,估计人到摄像头的距离;
步骤7.结合步骤5、6的数据,初始化人手移动速度与光标移动速度的初映射关系:
结合用户个性化信息以及估算得到的人到摄像头的距离,划定人手移动速度界限Vhand1、Vhand2,建立人手移动速度Vhand与光标移动速度Vcursor的初始映射关系:
其中Ax、Bx为映射参数;
步骤8.将屏幕上光标移动距离划分为近中远三个距离等级;
步骤9.用户移动控制手,将用户两次目标点击的光标移动距离定义为相对距离S,将移动该段距离所用的时间定义为移动时间T;
步骤10.记录用户每次操作过程中人手移动速度Vhand以及对应的光标移动速度Vcursor;
步骤11.比对相对距离S与近中远距离等级的大小,确定S的距离等级,同时确定该次移动操作中,光标移动速度Vcursor为相应距离等级光标移动速度,具体为:
对记录的人手移动速度Vhand以及对应的光标移动速度Vcursor进行数据处理:
若S为近距离,则比较移动时间T与T0的大小,其中T0为用户每次移动适宜的移动时间;若此次移动时间T》T0,则修正光标移动速度V′cursor=Vcursor*T0/T,修正后的光标移动速度V′cursor标记为新的光标移动速度;若此次移动时间不满足T》T0,则无需调整;根据统计的近距离移动中人手移动速度与光标移动速度,调整近距离移动的映射关系Vcursor=A1*Vhand;
若S为中距离,则分别求人手移动速度Vhand以及光标移动速度Vcursor的平均速度根据近距离移动映射方程在Vhand=Vhand1时的临界点与 调整中距离移动的映射关系Vcursor=A2*Vhand+B2;
若S为远距离,则比较远距离光标移动速度Vcursor与V0的大小,其中V0为远距离移动的临界移动速度,V0=2d/T0即人手移动的最大距离与每次移动的适宜移动时间的比值;若Vcursor《V0,则修正光标移动速度V′cursor=Vcursor*2d/S,将修正后的光标移动速度V′cursor标记为新的光标移动速度,和人手移动速度Vhand代入短距离移动的映射关系,调整映射参数A3、B3;若此次移动时间不满足Vcursor《V0,则无需调整;根据统计的远距离移动中人手移动速度与光标移动速度,调整远距离移动的映射关系Vcursor=A3*Vhand+B3;
步骤12.重复步骤9~11,一段时间后,分别处理统计近中远各距离等级光标移动速度,并根据统计处理结果,调整近中远三个距离等级对应的映射关系,使映射关系符合该用户的使用习惯。
2.根据权利要求1所述基于用户交互习惯的非接触手势控制映射调整方法,其特征在于,步骤3中,摄像头对手势、面部、躯干部位都进行识别后,获得手势、面部、躯干的图像识别数据。
3.根据权利要求1所述基于用户交互习惯的非接触手势控制映射调整方法,其特征在于,步骤4中还包括:摄像头对用户进行人脸识别,确定用户信息,为用户建立独立文档,记录该用户的交互历史。
4.根据权利要求1所述基于用户交互习惯的非接触手势控制映射调整方法,其特征在于,步骤5具体为:
结合控制手掌与面部,躯干部位的相对位置及在摄像头捕捉画面的绝对位置,确定出中心参考点,并规定距离参考中心点d距离范围内为人手移动的合适范围,将中心参考点以及人手移动范围记录为用户个人信息。
5.根据权利要求1所述基于用户交互习惯的非接触手势控制映射调整方法,其特征在于,步骤10还包括:根据跟踪算法和摄像头的参数得到人手移动速度Vhand,并通过系统获得屏幕上光标移动速度Vcursor。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310415704.0A CN103488294B (zh) | 2013-09-12 | 2013-09-12 | 一种基于用户交互习惯的非接触手势控制映射调整方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310415704.0A CN103488294B (zh) | 2013-09-12 | 2013-09-12 | 一种基于用户交互习惯的非接触手势控制映射调整方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103488294A CN103488294A (zh) | 2014-01-01 |
CN103488294B true CN103488294B (zh) | 2016-08-17 |
Family
ID=49828582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310415704.0A Active CN103488294B (zh) | 2013-09-12 | 2013-09-12 | 一种基于用户交互习惯的非接触手势控制映射调整方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103488294B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104142730B (zh) * | 2014-07-04 | 2017-06-06 | 华南理工大学 | 一种手势跟踪结果映射成鼠标事件的方法 |
CN105353959A (zh) * | 2015-10-30 | 2016-02-24 | 小米科技有限责任公司 | 控制列表滑动的方法及装置 |
CN106909871A (zh) * | 2015-12-22 | 2017-06-30 | 江苏达科智能科技有限公司 | 手势指令识别方法 |
CN105630176B (zh) * | 2016-02-17 | 2018-08-24 | 天脉聚源(北京)传媒科技有限公司 | 一种智能体感控制的方法及装置 |
CN105912126B (zh) * | 2016-04-26 | 2019-05-14 | 华南理工大学 | 一种手势运动映射到界面的增益自适应调整方法 |
CN107960124B (zh) * | 2016-05-16 | 2021-02-26 | 深圳维盛半导体科技有限公司 | 一种dpi自动调节的鼠标及方法 |
CN106406524A (zh) * | 2016-09-05 | 2017-02-15 | 珠海格力电器股份有限公司 | 设备的控制方法及装置 |
CN106383583B (zh) * | 2016-09-23 | 2019-04-09 | 深圳奥比中光科技有限公司 | 用于隔空人机交互的控制虚拟物体精确定位的方法与系统 |
CN108175157A (zh) * | 2017-12-29 | 2018-06-19 | 杭州路享科技有限公司 | 一种支持与手机交互应用的智能雨伞 |
CN108616712B (zh) * | 2018-04-18 | 2020-11-10 | 深圳中电数码显示有限公司 | 一种基于摄像头的界面操作方法、装置、设备及存储介质 |
CN109582136B (zh) * | 2018-11-13 | 2022-05-03 | 深圳市创凯智能股份有限公司 | 三维窗口手势导航方法、装置、移动终端及存储介质 |
CN110276292B (zh) * | 2019-06-19 | 2021-09-10 | 上海商汤智能科技有限公司 | 智能车运动控制方法及装置、设备和存储介质 |
CN112748805B (zh) * | 2021-01-12 | 2023-07-04 | 深圳佑驾创新科技有限公司 | 手势控制方法、装置、计算机设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101714025A (zh) * | 2008-09-29 | 2010-05-26 | 株式会社日立制作所 | 输入装置 |
CN103019374A (zh) * | 2012-11-20 | 2013-04-03 | 四川虹微技术有限公司 | 一种基于对象跟踪的远程控制系统 |
CN103076874A (zh) * | 2011-10-26 | 2013-05-01 | 中国科学院声学研究所 | 一种改善计算机视觉体感输入设备高延迟的方法及系统 |
CN103294177A (zh) * | 2012-02-29 | 2013-09-11 | 株式会社理光 | 光标移动控制方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108664156B (zh) * | 2008-07-01 | 2022-02-25 | Idhl控股公司 | 3d定位器映射 |
-
2013
- 2013-09-12 CN CN201310415704.0A patent/CN103488294B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101714025A (zh) * | 2008-09-29 | 2010-05-26 | 株式会社日立制作所 | 输入装置 |
CN103076874A (zh) * | 2011-10-26 | 2013-05-01 | 中国科学院声学研究所 | 一种改善计算机视觉体感输入设备高延迟的方法及系统 |
CN103294177A (zh) * | 2012-02-29 | 2013-09-11 | 株式会社理光 | 光标移动控制方法和系统 |
CN103019374A (zh) * | 2012-11-20 | 2013-04-03 | 四川虹微技术有限公司 | 一种基于对象跟踪的远程控制系统 |
Non-Patent Citations (1)
Title |
---|
计算机指点装置的操作可控性和稳定性分析;张彤等;《浙江大学学报》;20061031;第40卷(第10期);第1732-1737页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103488294A (zh) | 2014-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103488294B (zh) | 一种基于用户交互习惯的非接触手势控制映射调整方法 | |
Mukherjee et al. | Fingertip detection and tracking for recognition of air-writing in videos | |
US9104242B2 (en) | Palm gesture recognition method and device as well as human-machine interaction method and apparatus | |
EP2344983B1 (en) | Method, apparatus and computer program product for providing adaptive gesture analysis | |
US9135503B2 (en) | Fingertip tracking for touchless user interface | |
CN101901052B (zh) | 双手互为参考的目标控制方法 | |
KR20200130440A (ko) | 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을 실행하기 위한 모바일 디바이스(method for identifying an object within an image and mobile device for executing the method) | |
US20160171293A1 (en) | Gesture tracking and classification | |
CN105160323B (zh) | 一种手势识别方法 | |
CN105912126B (zh) | 一种手势运动映射到界面的增益自适应调整方法 | |
JP5438601B2 (ja) | 人物動作判定装置およびそのプログラム | |
WO2015102527A1 (en) | Real-time 3d gesture recognition and tracking system for mobile devices | |
JP3657463B2 (ja) | 動作認識システムおよび動作認識プログラムを記録した記録媒体 | |
CN103793056A (zh) | 基于距离向量的空中手势漫游控制方法 | |
CN110717385A (zh) | 一种动态手势识别方法 | |
CN115527269A (zh) | 一种人体姿态图像智能识别方法及系统 | |
Wang et al. | A new hand gesture recognition algorithm based on joint color-depth superpixel earth mover's distance | |
CN105261038A (zh) | 基于双向光流和感知哈希的指尖跟踪方法 | |
JP6384167B2 (ja) | 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム | |
Li et al. | A new fingertip detection and tracking algorithm and its application on writing-in-the-air system | |
Ayumi et al. | A comparison of SVM and RVM for human action recognition | |
Elakkiya et al. | Intelligent system for human computer interface using hand gesture recognition | |
CN103400118B (zh) | 一种映射关系自适应调整的手势控制方法 | |
KR101350387B1 (ko) | 깊이 정보를 이용한 손 검출 방법 및 그 장치 | |
Brancati et al. | Robust fingertip detection in egocentric vision under varying illumination conditions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |