CN108846356A - 一种基于实时手势识别的手心追踪定位的方法 - Google Patents
一种基于实时手势识别的手心追踪定位的方法 Download PDFInfo
- Publication number
- CN108846356A CN108846356A CN201810596897.7A CN201810596897A CN108846356A CN 108846356 A CN108846356 A CN 108846356A CN 201810596897 A CN201810596897 A CN 201810596897A CN 108846356 A CN108846356 A CN 108846356A
- Authority
- CN
- China
- Prior art keywords
- palm
- area
- gesture
- point
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开一种基于实时手势识别的手心追踪定位的方法。该方法首先对输入视频进行分割视频帧和图像预处理,然后通过动态阈值背景法检测算法抽取部分视频帧建立背景模,在此基础上利用YCrCb色彩空间肤色分割算法分割出手势图像,最后通过采用生物学的优化手心定位方法对手势跟踪定位后实现手势识别。本发明方法避免了误检视频中类肤色区域,提高了手势跟踪准确度和鲁棒性。
Description
技术领域
本发明涉及通过有线技术将计算机系统与用户相互连接,使用户的手势信息完整无误地传送至识别系统中,并通过数学算法来识别人类手势,特别是基于实时手势识别的手心追踪定位算法,该算法是在现有手势识别技术基础上通过解决手心追踪定位问题来实现手势识别的实时性和高效性。
背景技术
随着现代科技的高速发展及生活方式的转变,人们越发追求生活、工作中的智能化,希望享有简便、高效、人性化的智能操作控制方式。而伴随计算机的微型化,人机交互需求越来越高,人机友好交互也日益成为研发的热点。目前,人们已不仅仅满足按键式的操作控制,其目光已转向利用人体动作、表情变化等更加方便、友好、直观地应用智能化交互控制体系方面。
手势是人们交互的重要信息,随着计算机视觉的发展,基于计算机视觉的手势识别方法已成为近些年来人机交互领域。将手势识别系统用于人机接口,从而
实现直接的、自然的人机交互方式,是手势识别的发展趋势和基本目标。根据手势的输入介质不同,可以将手势识别系统分为两种:一是利用数据手套,二是,基于计算机视觉。
近年来,手势识别方法主要有模变化来实现手势的检测与识别板匹配法(Template Matching)、神经网络法(Neural Network,NN)、动态时间规整法(Dynamic TimeWarping,DTW)及隐马尔可夫模型法(Hidden Markov Model,HMM)等。其中,模板匹配法多用于静态手势识别中而基于隐马尔可夫模型的识别和基于动态时间规整的识别则主要用于动态手势识。
发明内容
技术问题:本发明公开一种基于实时手势识别的手心追踪定位算法设计的方法,通过解决手心追踪定位来实现手势识别。本发明方法能够避免了将背景中接近肤色的区域误检测为手势区域的情况,解决手心追踪定位问题。
技术方案:本发明所述方法首先将平均背景法运动检测算法与采用YCrCb色彩空间肤色分割算法相结合,分割出手势图像,并通过解决手心追踪定位来实现手势识别。
本发明的一种基于实时手势识别的手心追踪定位的方法包括以下步骤:
步骤1、运动检测采用平均背景法进行运动检测,
步骤2、采用YCrCb色彩空间肤色分割,
步骤3、区域分割
步骤31、剔除与手势无关的脸部、另一只无效手部、以及其它类肤色背景的干扰,进而精确定位有效的目标手势区域;
步骤32、使用cvFind-Contours函数对已获取的二值化图像进行轮廓查找,可得到二值化图像中的轮廓总数,继而通过统计每一个轮廓区域占肤色区域总面积的百分比,并判断其百分比的大小,来认定其是否为干扰区域;
步骤33、剔除所有干扰区域后,即可得到若干块较大面积的肤色区域;
步骤34、为了在此若干块肤区域中确定目标手势区域,根据仿生学原理,提出“周积比”的概念并以此作为有效手势区域的判别标准;
步骤35、“周积比”概念来确定张开手指的手势区域,经实际测试,在肤色区域块正常识别的情况下,此种方法可以精确地将伸出手指的手势区域与脸部区域区分开来,从而有效确定出手势区域;
步骤4、利用“手心定位法”进行手势识别。
其中,
所述步骤1中,运动检测采用平均背景法进行运动检测,具体步骤如下:
步骤11、计算每个像素的平均值和标准差作为它的背景模型,首先对前K幅图像进行累计学习;
步骤12、用函数cvAbsDiff()计算每帧图像间的绝对差图像,累积到K帧图像后,用这个累计的图像除以输入图像累计的数目K,来计算平均原始图像和绝对差分图像;
步骤13、选取平均原始图像即初始背景与绝对差分图像的适当倍数作为分割的上、下限,将输入图像像素点与设定的阈值范围进行比较,阈值范围内的为背景,否则为前景。
所述步骤2中,采用YCrCb色彩空间肤色分割,具体步骤如下:
步骤21、YCrCb转换到RGB的公式如下,RGB取值范围均为0~255:
将其色彩空间由RGB转化到YCrCb;
步骤22、通常,当Cr和Cb满足:n1≤Cr≤m1,n2≤Cb≤m2时,即可认为是肤色区域;通过对当前时刻的Cr和Cb阈值进行经验性调整,便可更加精确地确定肤色区域,若将肤色区域像素点的像素分量调为X,非肤色区域像素点的像素分量调为Y,即可得到肤色区域的二值化图像。
所述步骤3中,所述的“周积比”即某孤立区域的周长与面积的比值,生态学特征理念之中,生物表面积与体重的比值越大,说明延展度越大。
所述步骤4中,具体步骤为:
步骤41、首先确定手掌最宽及上下沿位置;
步骤42、对手势所在区域进行初次扫描,确定区域之中最宽一行记为CD,并记录最宽像素个数Lmax所在行数iCD,而后再一次扫描,找出手掌上边沿AB和手掌下边沿EF;
步骤43、对手掌上下边沿的界定方法如下:手掌上沿:手势区域中首次满足行数不大于iCD且连续肤色像素点个数大于2*Lmax/3的像素行,记为AB,行数为iAB;手掌下沿:手势区域中满足行数不小于iCD且连续肤色像素点个数大于Lmax/2的像素行中肤色像素点变化率最大的一行,记为EF,行数为iEF;其中,系数AB/CD、EF/CD分别为正常人手五指张开时上沿与最宽部位、下沿与最宽部位的近似比值;
步骤44、中点圆弧曲线的确定AB、CD、EF后,分别取其中点,记为M、K、N,其坐标依次为:M(XM,YM)、K(XK,YK)、N(XN,YN);
步骤45、根据三角函数方法可求出经由三个中点的圆弧曲线中心及半径,即:首先求得MK和NK方程:
MK:(XN-YK)y-(YM-YK)x+XKYM-XMYK=0 (2)
NK:(XN-XK)y-(YN-YK)x+XKYN-XNYK=0 (3)
进而求得直线MK、NK的中垂线方程L1、L2:
L1:2(YM-YK)y-2(XM-XK)x+Y2 K-Y2 M+X2 K-X2 M (4)
L2:2(YN-YK)y-2(XN-XK)x+Y2 K+Y2 N+X2 K-X2 N (5)
随后求得L1与L2的交点,此交点即为由三点确定的唯一圆的圆心,其圆心坐标及半径的表达式分别如下:
R=(Xk-XO)2+(Yk-YO)2 (8)
步骤46、备选点及最大内接圆的确定,在圆O的圆弧MN中均匀选取若干备选手心点(本发明在此选取十个备选点)。设其中某备选点为P,而后分别计算P点到手掌的上、下、左、右四个边缘的距离Lp1、Lp2、Lp3、Lp4并取其中最小值Lp=MIN(Lp1,Lp2,Lp3,Lp4)作为P点在有效手势区域内的最大内接圆半径的近似值;通过对十个备选点分别计算近似最大内接圆的半径,而后取其最大者Rmax作为所需的手掌内最大内接圆半径,并令对应的圆心为Q。Q点即为所需确定的手心位置近似点;
步骤47、手指交割圆的确定,以近似手心位置的Q点为圆心,以H倍Rmax为半径做圆,并通过逐一检测此圆上像素点的突变情况,来判定是否交割于手指,由此得出具体伸出的那几根手指,进而获得该手势的实际含义。并在此基础上进行了传输速率分析,推导出传输速率的闭合表达式。
有益效果:本发明提出一种基于实时手势识别的手心追踪定位算法设计,具体有益效果如下:
1)本发明所述的基于实时手势识别的手心追踪定位算法设计,本发明方法能够避免了将背景中接近肤色的区域误检测为手势区域的情况,解决手心追踪定位问题,实现了定位部分被遮挡目标、解决了多个对象的胶着问题。
2)本发明首次采用将平均背景法运动检测算法与采用YCrCb色彩空间肤色分割算法相结合,分割出手势图像,并通过解决手心追踪定位来实现手势识别。
3)本发明中通过Monte Carlo仿真结果证明,通过设置不同的门限值,采用了增量中继技术的协作网络不仅可以达到很高的分集增益,同时也能够为系统节省一定量的资源。而且增量中继技术具有很大的灵活性,可以通过设置不同的中继判决门限值,来满足不同信道质量的QoS服务要求。
附图说明
图1是基于实时手势识别的手心追踪定位方法的流程图。
图2检测图像。
图3手心定位方法示意图。
具体实施方式
下面结合附图对本发明的技术方案做进一步的详细说明:
根据附图1所示基于实时手势识别的手心追踪定位方法的流程图,附图2所示检测到的图像,附图3所示手心定位方法示意图,本发明具体实施方式为:
步骤1、从所录含有手势变化的录像中,采用平均背景法进行运动检测,具体步骤如下:
步骤11、计算每个像素的平均值和标准差作为它的背景模型(首先对前35幅图像进行累计学习)。
步骤12、用函数计算每帧图像间的绝对差图像,累积到35帧图像后,用这个累计的图像除以输入图像累计的数目35,来计算平均原始图像和绝对差分图像。
步骤13、选取平均原始图像(初始背景)与绝对差分图像的适当倍数作为分割的上、下限,将输入图像像素点与设定的阈值范围进行比较,阈值范围内的为背景,否则为前景。如图3所示。
步骤2、采用YCrCb色彩空间肤色分割,具体步骤如下:
步骤21、YCrCb转换到RGB的公式如下(RGB取值范围均为0~255):
将其色彩空间由RGB转化到YCrCb。
步骤22、通常,当Cr和Cb满足:n1≤Cr≤m1,n2≤Cb≤m2时时,即可认为是肤色区域。通过对当前时刻的Cr和Cb阈值进行经验性调整,便可更加精确地确定肤色区域。若将肤色区域像素点的像素分量调为X,非肤色区域像素点的像素分量调为Y,即可得到肤色区域的二值化图像。
步骤3、区域分割
步骤31、剔除与手势无关的脸部、另一只无效手部、以及其它类肤色背景的干扰,进而精确定位有效的目标手势区域。
步骤32、使用cvFind-Contours函数对已获取的二值化图像进行轮廓查找,可得到二值化图像中的轮廓总数,继而通过统计每一个轮廓区域占肤色区域总面积的百分比,并判断其百分比的大小,来认定其是否为干扰区域。
步骤33、剔除所有干扰区域后,即可得到若干块较大面积的肤色区域。
步骤34、为了在此若干块肤区域中确定目标手势区域,根据仿生学原理,本发明尝试性地提出“周积比”的概念并以此作为有效手势区域的判别标准。(“周积比”即某孤立区域的周长与面积的比值,生态学特征理念之中,生物表面积与体重的比值越大,说明延展度越大)
步骤35、“周积比”概念来确定张开手指的手势区域。经实际测试,在肤色区域块正常识别的情况下,此种方法可以精确地将伸出手指的手势区域与脸部区域区分开来,从而有效确定出手势区域。
步骤4、利用“手心定位法”进行手势识别,步骤如下:
步骤41、首先确定手掌最宽及上下沿位置。
步骤42、对手势所在区域进行初次扫描,确定区域之中最宽一行记为CD,并记录最宽像素个数Lmax所在行数iCD,而后再一次扫描,找出手掌上边沿AB和手掌下边沿EF。
步骤43、本发明对手掌上下边沿的界定方法如下。手掌上沿:手势区域中首次满足行数不大于iCD且连续肤色像素点个数大于2*Lmax/3的像素行,记为AB,行数为iAB。手掌下沿:手势区域中满足行数不小于iCD且连续肤色像素点个数大于Lmax/2的像素行中肤色像素点变化率最大的一行,记为EF,行数为iEF。(其中,系数2/3、1/2分别为正常人手五指张开时上沿与最宽部位、下沿与最宽部位的近似比值)
步骤44、中点圆弧曲线的确定AB、CD、EF后,分别取其中点,记为M、K、N,其坐标依次为:M(XM,YM)、K(XK,YK)、N(XN、YN)。
步骤45、根据三角函数方法可求出经由三个中点的圆弧曲线中心及半径。即:首先求得MK和NK方程:
NK:(XN-XK)y-(YN-YK)x+XKYN-XNYK=0 (2)
NK:(XN-XK)y-(YN-YK)x+XKYN-XNYK=0 (3)
进而求得直线MK、NK的中垂线方程L1、L2:
L1:2(YM-YK)y-2(XM-XK)x+Y2 K-Y2 M+X2 K-X2 M (4)
L2:2(YN-YK)y-2(XN-XK)x+Y2 K-Y2 N+X2 K-X2 N (5)
随后求得L1与L2的交点,此交点即为由三点确定的唯一圆的圆心,其圆心坐标及半径的表达式分别如下:
R=(Xk-Xo)2+(Yk-Yo)2 (8)
步骤46、备选点及最大内接圆的确定。在圆O的圆弧MN中均匀选取若干备选手心点(本发明在此选取十个备选点)。设其中某备选点为P,而后分别计算P点到手掌的上、下、左、右四个边缘的距离Lp1,Lp2,Lp3,Lp4并取其中最小值Lp=MIN(Lp1,Lp2,Lp3,Lp4)作为P点在有效手势区域内的最大内接圆半径的近似值。通过对十个备选点分别计算近似最大内接圆的半径,而后取其最大者Rmax作为所需的手掌内最大内接圆半径,并令对应的圆心为Q。Q点即为所需确定的手心位置近似点。
步骤47、手指交割圆的确定。以近似手心位置的Q点为圆心,以HH倍Rmax为半径做圆,并通过逐一检测此圆上像素点的突变情况,来判定是否交割于手指,由此得出具体伸出的那几根手指,进而获得该手势的实际含义。并在此基础上进行了传输速率分析,推导出传输速率的闭合表达式。
Claims (5)
1.一种基于实时手势识别的手心追踪定位的方法,其特征在于,该方法包括以下步骤:
步骤1、运动检测采用平均背景法进行运动检测,
步骤2、采用YCrCb色彩空间肤色分割,
步骤3、区域分割
步骤31、剔除与手势无关的脸部、另一只无效手部、以及其它类肤色背景的干扰,进而精确定位有效的目标手势区域;
步骤32、使用cvFind-Contours函数对已获取的二值化图像进行轮廓查找,可得到二值化图像中的轮廓总数,继而通过统计每一个轮廓区域占肤色区域总面积的百分比,并判断其百分比的大小,来认定其是否为干扰区域;
步骤33、剔除所有干扰区域后,即可得到若干块较大面积的肤色区域;
步骤34、为了在此若干块肤区域中确定目标手势区域,根据仿生学原理,提出“周积比”的概念并以此作为有效手势区域的判别标准;
步骤35、“周积比”概念来确定张开手指的手势区域,经实际测试,在肤色区域块正常识别的情况下,此种方法可以精确地将伸出手指的手势区域与脸部区域区分开来,从而有效确定出手势区域;
步骤4、利用“手心定位法”进行手势识别。
2.根据权利要求1所述的一种基于实时手势识别的手心追踪定位的方法,其特征在于,所述步骤1中,运动检测采用平均背景法进行运动检测,具体步骤如下:
步骤11、计算每个像素的平均值和标准差作为它的背景模型,首先对前K幅图像进行累计学习;
步骤12、用函数cvAbsDiff()计算每帧图像间的绝对差图像,累积到K帧图像后,用这个累计的图像除以输入图像累计的数目K,来计算平均原始图像和绝对差分图像;
步骤13、选取平均原始图像即初始背景与绝对差分图像的适当倍数作为分割的上、下限,将输入图像像素点与设定的阈值范围进行比较,阈值范围内的为背景,否则为前景。
3.根据权利要求1所述的一种基于实时手势识别的手心追踪定位的方法,其特征在于,所述步骤2中,采用YCrCb色彩空间肤色分割,具体步骤如下:
步骤21、YCrCb转换到RGB的公式如下,RGB取值范围均为0~255:
将其色彩空间由RGB转化到YCrCb;
步骤22、通常,当Cr和Cb满足:n1≤Cr≤m1,n2≤Cb≤m2时,即可认为是肤色区域;通过对当前时刻的Cr和Cb阈值进行经验性调整,便可更加精确地确定肤色区域,若将肤色区域像素点的像素分量调为X,非肤色区域像素点的像素分量调为Y,即可得到肤色区域的二值化图像。
4.根据权利要求1所述的一种基于实时手势识别的手心追踪定位的方法,其特征在于,所述步骤3中,所述的“周积比”即某孤立区域的周长与面积的比值,生态学特征理念之中,生物表面积与体重的比值越大,说明延展度越大。
5.根据权利要求1所述的一种基于实时手势识别的手心追踪定位的方法,其特征在于,所述步骤41中,具体步骤为:
步骤41、首先确定手掌最宽及上下沿位置;
步骤42、对手势所在区域进行初次扫描,确定区域之中最宽一行记为CD,并记录最宽像素个数Lmax所在行数iCD,而后再一次扫描,找出手掌上边沿AB和手掌下边沿EF;
步骤43、对手掌上下边沿的界定方法如下:手掌上沿:手势区域中首次满足行数不大于iCD且连续肤色像素点个数大于2*Lmax/3的像素行,记为AB,行数为iAB;手掌下沿:手势区域中满足行数不小于iCD且连续肤色像素点个数大于Lmax/2的像素行中肤色像素点变化率最大的一行,记为EF,行数为iEF;其中,系数AB/CD、EF/CD分别为正常人手五指张开时上沿与最宽部位、下沿与最宽部位的近似比值;
步骤44、中点圆弧曲线的确定AB、CD、EF后,分别取其中点,记为M、K、N,其坐标依次为:M(XM,YM)、K(XK,YK)、N(XN,YN);
步骤45、根据三角函数方法可求出经由三个中点的圆弧曲线中心及半径,即:首先求得MK和NK方程:
MK:(XM-YK)y-(YM-YK)x+XKYM-XMYK=0 (2)
NK:(XN-XK)y-(YN-YK)x+XKYN-XNYK=0 (3)
进而求得直线MK、NK的中垂线方程L1、L2:
L1:2(YM-YK)y-2(XM-XK)x+Y2 K-Y2 M+X2 K-X2 M (4)
L2:2(YN-YK)y-2(XN-XK)x+Y2 K-Y2 N+X2 K-X2 N (5)
随后求得L1与L2的交点,此交点即为由三点确定的唯一圆的圆心,其圆心坐标及半径的表达式分别如下:
R=(Xk-Xo)2+(Yk-Yo)2 (8)
步骤46、备选点及最大内接圆的确定,在圆O的圆弧MN中均匀选取若干备选手心点设其中某备选点为P,而后分别计算P点到手掌的上、下、左、右四个边缘的距离Lp1、Lp2、Lp3、Lp4并取其中最小值Lp=MIN(Lp1,Lp2,Lp3,Lp4)作为P点在有效手势区域内的最大内接圆半径的近似值;通过对十个备选点分别计算近似最大内接圆的半径,而后取其最大者Rmax作为所需的手掌内最大内接圆半径,并令对应的圆心为Q。Q点即为所需确定的手心位置近似点;
步骤47、手指交割圆的确定,以近似手心位置的Q点为圆心,以H倍Rmax为半径做圆,并通过逐一检测此圆上像素点的突变情况,来判定是否交割于手指,由此得出具体伸出的那几根手指,进而获得该手势的实际含义。并在此基础上进行了传输速率分析,推导出传输速率的闭合表达式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810596897.7A CN108846356B (zh) | 2018-06-11 | 2018-06-11 | 一种基于实时手势识别的手心追踪定位的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810596897.7A CN108846356B (zh) | 2018-06-11 | 2018-06-11 | 一种基于实时手势识别的手心追踪定位的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108846356A true CN108846356A (zh) | 2018-11-20 |
CN108846356B CN108846356B (zh) | 2023-04-07 |
Family
ID=64211551
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810596897.7A Active CN108846356B (zh) | 2018-06-11 | 2018-06-11 | 一种基于实时手势识别的手心追踪定位的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108846356B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948461A (zh) * | 2019-02-27 | 2019-06-28 | 浙江理工大学 | 一种基于质心定位和距离变换的手语图像分割方法 |
CN111309149A (zh) * | 2020-02-21 | 2020-06-19 | 河北科技大学 | 一种手势识别方法及手势识别装置 |
CN112270220A (zh) * | 2020-10-14 | 2021-01-26 | 西安工程大学 | 一种基于深度学习的缝纫手势识别方法 |
CN112861641A (zh) * | 2021-01-15 | 2021-05-28 | 复旦大学 | 一种面向人机交互领域的动态手势识别硬件加速器 |
CN113792624A (zh) * | 2021-08-30 | 2021-12-14 | 河南林业职业学院 | 一种银行atm机预警安防监控的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102938060A (zh) * | 2012-12-07 | 2013-02-20 | 上海电机学院 | 动态手势识别系统及方法 |
US20140147035A1 (en) * | 2011-04-11 | 2014-05-29 | Dayaong Ding | Hand gesture recognition system |
CN104679242A (zh) * | 2015-02-05 | 2015-06-03 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于单目视觉复杂背景下的手势分割方法 |
US20170153711A1 (en) * | 2013-03-08 | 2017-06-01 | Fastvdo Llc | Visual Language for Human Computer Interfaces |
CN107330354A (zh) * | 2017-03-20 | 2017-11-07 | 长沙理工大学 | 一种自然手势识别方法 |
-
2018
- 2018-06-11 CN CN201810596897.7A patent/CN108846356B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140147035A1 (en) * | 2011-04-11 | 2014-05-29 | Dayaong Ding | Hand gesture recognition system |
CN102938060A (zh) * | 2012-12-07 | 2013-02-20 | 上海电机学院 | 动态手势识别系统及方法 |
US20170153711A1 (en) * | 2013-03-08 | 2017-06-01 | Fastvdo Llc | Visual Language for Human Computer Interfaces |
CN104679242A (zh) * | 2015-02-05 | 2015-06-03 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于单目视觉复杂背景下的手势分割方法 |
CN107330354A (zh) * | 2017-03-20 | 2017-11-07 | 长沙理工大学 | 一种自然手势识别方法 |
Non-Patent Citations (1)
Title |
---|
齐静等: "机器人视觉手势交互技术研究进展", 《机器人》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948461A (zh) * | 2019-02-27 | 2019-06-28 | 浙江理工大学 | 一种基于质心定位和距离变换的手语图像分割方法 |
CN111309149A (zh) * | 2020-02-21 | 2020-06-19 | 河北科技大学 | 一种手势识别方法及手势识别装置 |
CN111309149B (zh) * | 2020-02-21 | 2022-08-19 | 河北科技大学 | 一种手势识别方法及手势识别装置 |
CN112270220A (zh) * | 2020-10-14 | 2021-01-26 | 西安工程大学 | 一种基于深度学习的缝纫手势识别方法 |
CN112270220B (zh) * | 2020-10-14 | 2022-02-25 | 西安工程大学 | 一种基于深度学习的缝纫手势识别方法 |
CN112861641A (zh) * | 2021-01-15 | 2021-05-28 | 复旦大学 | 一种面向人机交互领域的动态手势识别硬件加速器 |
CN112861641B (zh) * | 2021-01-15 | 2022-05-20 | 复旦大学 | 一种面向人机交互领域的动态手势识别硬件加速器 |
CN113792624A (zh) * | 2021-08-30 | 2021-12-14 | 河南林业职业学院 | 一种银行atm机预警安防监控的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108846356B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108846356A (zh) | 一种基于实时手势识别的手心追踪定位的方法 | |
CN103226387B (zh) | 基于Kinect的视频人手指尖定位方法 | |
CN103971102B (zh) | 基于手指轮廓和决策树的静态手势识别方法 | |
CN112418095B (zh) | 一种结合注意力机制的面部表情识别方法及系统 | |
US9558455B2 (en) | Touch classification | |
WO2016023264A1 (zh) | 指纹识别方法及其指纹识别装置 | |
CN105759967B (zh) | 一种基于深度数据的手部全局姿态检测方法 | |
CN102270308B (zh) | 一种基于五官相关aam模型的面部特征定位方法 | |
CN114241548A (zh) | 一种基于改进YOLOv5的小目标检测算法 | |
CN106340023A (zh) | 图像分割的方法和装置 | |
CN105739702A (zh) | 用于自然人机交互的多姿态指尖跟踪方法 | |
CN105335719A (zh) | 活体检测方法及装置 | |
CN105005769A (zh) | 一种基于深度信息的手语识别方法 | |
CN102024156B (zh) | 彩色人脸图像中的唇部区域定位方法 | |
CN107330354B (zh) | 一种自然手势识别方法 | |
CN106971130A (zh) | 一种以人脸为参照的手势识别方法 | |
CN103440633B (zh) | 一种数字图像自动祛除斑点的方法 | |
CN110956099B (zh) | 一种动态手势指令识别方法 | |
CN103955950B (zh) | 一种利用关键点特征匹配的图像跟踪方法 | |
CN108983980A (zh) | 一种移动机器人基本运动手势控制方法 | |
CN105046199A (zh) | 基于像素分类器和椭圆拟合的指尖点提取方法 | |
CN102142085A (zh) | 一种林区监控视频中运动火焰目标的鲁棒跟踪方法 | |
CN106909884A (zh) | 一种基于分层结构和可变形部分模型的手部区域检测方法和装置 | |
CN104915009B (zh) | 手势预判的方法及系统 | |
CN113608663A (zh) | 一种基于深度学习和k-曲率法的指尖跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |