CN106845384A - 一种基于递归模型的手势识别方法 - Google Patents
一种基于递归模型的手势识别方法 Download PDFInfo
- Publication number
- CN106845384A CN106845384A CN201710031563.0A CN201710031563A CN106845384A CN 106845384 A CN106845384 A CN 106845384A CN 201710031563 A CN201710031563 A CN 201710031563A CN 106845384 A CN106845384 A CN 106845384A
- Authority
- CN
- China
- Prior art keywords
- gesture
- sequence
- dynamic
- image
- recursive models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000003068 static effect Effects 0.000 claims abstract description 38
- 210000000707 wrist Anatomy 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 2
- 238000007781 pre-processing Methods 0.000 claims description 2
- 210000004247 hand Anatomy 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 6
- 238000012545 processing Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 210000005224 forefinger Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于递归模型的手势识别方法,该方法的基本步骤包括:1.对静态、动态手势图像进行预处理;2.提取静态、动态手势空间序列;3.根据手势空间序列,构造手势递归模型;4.通过手势递归模型进行手势分类。本发明通过将手势空间序列转化为递归模型的形式,有效的解决了获取的手势空间序列长度不同和序列点数据值存在不可比所等引起的问题,提高了手势识别算法的鲁棒性。
Description
技术领域
本发明属于手势识别技术领域,涉及一种手势识别方法,具体涉及一种基于递归模型的手势识别方法。
背景技术
近年来,基于手势识别的人机交互以其自然、简洁、丰富和直接的方式受到青睐,尤其是基于视觉的手势控制以其灵活性、丰富的语义特征和较强的环境描述能力得到广泛应用。
现有的手势识别技术,常用手势空间序列进行匹配识别,但其普遍存在的问题是实用性和鲁棒性并不高,制约着手势识别技术的应用。比如神经网络方法需要大量手势训练数据,隐马尔科夫(HMM)方法需要用户佩戴额外设备,DTW方法无法解决手势空间序列不等长的问题。
发明内容
针对上述现有技术中存在的问题,本发明的目的在于,提供一种基于递归模型的手势识别方法,通过将手势空间序列转化为递归模型的形式,有效的解决了获取的手势空间序列长度不同和序列点数据值存在不可比所等引起的问题,从而提高手势识别算法的鲁棒性。
为了实现上述任务,本发明采用以下技术方案:
一种基于递归模型的手势识别方法,包括以下步骤:
步骤1,手势分割
对于静态手势:
获取静态手势图像并进行预处理,得到带有指尖点的手掌区域;
对于动态手势:
获取动态手势的深度图像序列,利用基于二维直方图的图像阈值分割法对深度图像序列进行处理,得到分割后的动态手势图像序列;
步骤2,提取手势空间序列
对于静态手势:
步骤2.1,获取手掌的外边缘信息,提取出手势边缘轮廓特征;
步骤2.2,确定手势的中心点,求出手势外边缘手腕位置处距离手势中心点的最远距离坐标,并将该坐标点记为起始点P;
步骤2.3,以P为原点,按照逆时针的方向,计算手势外边缘像素序列中的每一个点到手势中心点的距离,将计算得到的这些距离值构成序列A;
步骤2.4,将序列A进行归一化,归一化后的序列记为静态手势空间序列X={x(i1),x(i2),…,x(in)};
对于动态手势:
步骤2.1',从动态手势图像序列中取出一段作为处理序列,针对处理序列中的手势图像,将手势图像最小的外接矩形的中心点作为手心坐标点,其坐标记为ci(xi,yi);
步骤2.2',以手势图像所在的深度图像的左上角为初始点,计算手心坐标点与初始点间的相对角度并记为x(it);
步骤2.3',将处理序列中各帧的手心坐标按顺序组成一个动态手势轨迹序列C=(c1,c2,…,cn),将处理序列中各帧的手心坐标点相对于初始点的相对角度组成动态手势空间序列:X={x(i1),x(i2),…,x(in)};
步骤3,构建手势递归模型
将静态手势空间序列、动态手势空间序列X按照如下公式计算其递归模型:
R=ri,j=θ(ε-||x(ik)-x(im)||),ik,im=1…n
上式中,n表示动态或静态手势空间序列的维数,x(ik)和x(im)是在ik和im序列位置处观察到的动态或静态手势空间序列X上的值,||·||是指两个观察位置之间的距离,ε是一个阈值,ε<1;θ是一个赫维赛德阶跃函数,θ的定义如下:
步骤4,手势分类
按照下面的公式计算手势递归模型R与模板库中每一类手势的递归模型Ri之间的距离:
上式中,C(R|Ri)是按照MPEG-1压缩算法先压缩图像Ri之后再压缩图像R值的大小,从而求得R图像中去除和Ri图像共有的冗余信息后两者之间的最小近似值;
通过与模板库中每一类手势的递归模型之间进行计算,可得到当前待测手势的手势递归模型与模板库中每一类手势的递归模型之间的不同距离,将这些距离值进行排序,取最小的一个距离值对应的模板库中的手势作为识别出的手势。
进一步地,所述的步骤1中的预处理过程如下:
步骤1.1,获取静态手势图像,利用基于YcbCr空间的自适应肤色分割方法得到含有肤色区域的二值图像;
步骤1.2,通过计算肤色区域的连通域,得到手部区域;
步骤1.3,利用基于手腕厚度的手腕位置定位方法,获取带有指尖点的手掌区域。
进一步地,所述的步骤1中利用Kinect获取动态手势的深度图像序列。
进一步地,所述的步骤2.1中将手势图像的最小外接矩形的中心作为手势的中心点。
本发明与现有技术相比具有以下技术特点:
1.对于静态手势,本算法将带有指尖点的手掌边缘信息作为手势识别算法设计的重点,提高了手势识别的鲁棒性,并解决了手势在旋转、缩放、平移时手势识别实时性不足及对相近手形区分度不高的问题。其次,本算法提出将手掌的边缘序列转换为递归图模型,并使用一种基于信息压缩的递归图相似性检测算法完成手势识别任务,克服了边缘序列数据的不等长问题。
2.对于动态手势,本算法将动态手势轨迹序列作为研究手势分类的重点,提高了动态手势识别对空间和时间尺度的鲁棒性。其次,本算法提出将动态手势轨迹序列转化为基于时间序列的递归图模型,并使用一种基于信息压缩的递归图模型相似性检测算法完成手势识别,克服了不同用户操作同一手势快慢不同和不同手势的持续时间不同导致的手势轨迹序列不等长问题。
附图说明
图1是静态手势分割过程图;其中(a)为分割前的原图,(b)为肤色分割后的图像,(c)为提取出的手部区域的图像,(d)为手掌区域的图像;
图2是动态手势分割过程图;其中(a)为获取的手势深度图像,(b)为深度图像像素灰度分布直方图,(c)为手部区域图像;
图3是静态手势空间序列图;
图4是动态手势序列;
图5是动态手势轨迹序列;
图6是动态手势空间序列图;
图7是手势空间序列的递归模型;
图8为本发明方法的流程图;
具体实施方式
遵从上述技术方案,如图1至图8所示,本发明公开了一种基于递归模型的手势识别方法,包括以下步骤:
本方案提出的方法,适用于对静态手势、动态手势的识别,动态手势、静态手势的处理过程在步骤1、2时不相同,步骤3以后相同,在下面的步骤中,分别给出这两种手势的具体处理过程,需要说明的是,对于动态手势处理、静态手势处理是相对独立的过程,为了进行区分,在动态手势处理的分步骤后添加了上标“'”。
步骤1,手势分割
对于静态手势:
步骤1.1,利用摄像头采集静态手势图像,针对采集到的手势图像,利用基于YcbCr空间的自适应肤色分割方法得到含有肤色区域的二值图像;
步骤1.2,针对步骤1.1得到的二值图像,通过计算肤色区域的连通域,得到手部区域;二值图像的连通域标记和计算属于本领域常规的方法,在此不赘述;
步骤1.3,利用基于手腕厚度的手腕位置定位方法,针对步骤1.2得到的手部区域,获取带有指尖点的手掌区域,最终得到的处理结果如图1所示;这个步骤用到的“基于手腕厚度的手腕位置定位方法”,出自于论文:“Hand Gesture Recognition for Table-TopInteraction System”
对于动态手势:
步骤1.1',采用Kinect获取动态手势的深度图像序列;
步骤1.2',由于在手势交互任务中,用户的手掌始终处于Kinect的摄像头前方,根据这个特点,对步骤1.1'获取的手势深度图像序列,利用基于二维直方图的图像阈值分割法进行处理,得到分割后的动态手势图像序列;
图2给出的示例即为本步骤中针对动态手势深度图像序列中的一帧进行处理后得到的结果。
步骤2,提取手势空间序列
对于静态手势:
步骤2.1,对于步骤1.3得到的图像,使用Sobel算子获取手掌的外边缘信息,提取出手势边缘轮廓特征;这里提出的手势边缘轮廓特征主要是指手势外边缘像素序列,即构成外边缘轮廓的像素组成的序列;
步骤2.2,将手势图像的最小外接矩形的中心作为手势的中心点,求出手势外边缘手腕位置处距离手势中心点的最远距离坐标,并将该坐标点记为起始点P;
步骤2.3,以P为原点,按照逆时针的方向,计算手势外边缘像素序列中的每一个点到手势中心点的距离,将计算得到的这些距离值构成序列A;
步骤2.4,将序列A进行归一化,即把序列中所有的距离值映射到0~1的范围内,归一化后的序列记为静态手势空间序列X={x(i1),x(i2),…,x(in)},其中n表示序列空间的维数,x(in)表示某个距离值;如图3所示。
在图3中,横坐标为静态手势空间序列X中元素在序列X中的位置,纵坐标为序列X中的对应值。
对于动态手势:
步骤2.1',对于步骤1.2'得到的动态手势图像序列,指定序列的开始位置和结束位置,自开始位置到结束位置的序列记为处理序列,针对处理序列中的手势图像,将手势图像最小的外接矩形的中心点作为手心坐标点,其坐标记为ci(xi,yi);这里的序列开始位置和结束位置是由人为指定的,指定的这段序列中包含动态手势完成过程中的信息,后续的处理也是针对于这段序列进行的;
在图4中,为一个动态手势序列中的十帧,每一帧中手势图像外围的矩形就是其最小外接矩形,矩形的中心点记为手心坐标ci(xi,yi)。
步骤2.2',以手势图像所在的深度图像的左上角为初始点,计算手心坐标点与初始点间的相对角度并记为x(it);
步骤2.3',将处理序列中各帧的手心坐标按顺序组成一个动态手势轨迹序列C=(c1,c2,…,cn),如图5所示;将处理序列中各帧的手心坐标点相对于初始点的相对角度组成动态手势空间序列:X={x(i1),x(i2),…,x(in)},n表示序列空间的维数,x(in)表示某个距相对角度;如图6所示。
在本实施例中,图4为动态手势图像序列中,提取出的处理序列,图5为图4对应于步骤2.1'的轨迹序列,其中各点即为处理序列中每帧图像中的手心点;图6为对应于图4的动态手势空间序列,其中横坐标表示动态手势序列的帧号,纵坐标为手心坐标点对于初始点的相对角度。
步骤3,构建手势递归模型
将静态手势空间序列、动态手势空间序列X按照如下公式计算其递归模型:
R=ri,j=θ(ε-||x(ik)-x(im)||),ik,im=1…n
上式中,n表示(动态、静态)手势空间序列的维数,x(ik)和x(im)是在ik和im序列位置处观察到的(动态、静态)手势空间序列X上的值,||·||是指两个观察位置(ik和im序列位置)之间的距离(如:欧几里得距离),ε是一个阈值,ε<1;而θ是一个赫维赛德阶跃函数(Heaviside step function),θ的定义如下:
上式中,z即对应递归模型计算式中的(ε-||x(ik)-x(im)||)。
本步骤利用的是递归图原理,将手势空间序列转化成了递归模型,在计算过程中,如果一个n维手势空间序列i和j序列空间位置处的值非常接近,那么就在递归模型,即矩阵R坐标为(i,j)的地方ri,j标记一个值为1,否则,就在相应的位置标为0。
注:本方案中,对于静态手势、动态手势的步骤1、2处理过程不同,但在步骤2中最终得到的都是手势空间序列,即静态手势空间序列和动态手势空间序列,这两个序列的表达式X是一样的。步骤3之后的处理步骤是相同的,都是针对于手势空间序列进行处理的,为避免步骤上的重复,步骤3之后步骤不再分开写,即如果处理的是动态手势空间序列,步骤3及后续步骤中描述和参数部分涉及手势序列的,均指动态手势空间序列;如果处理的是静态手势空间序列,则描述和参数部分指的是静态手势空间序列。
步骤4,手势分类
按照下面的公式计算手势递归模型R与模板库中每一类手势的递归模型Ri之间的距离:
上式中,C(R|Ri)是按照MPEG-1压缩算法先压缩图像Ri之后再压缩图像R值的大小,从而求得R图像中去除和Ri图像共有的冗余信息后两者之间的最小近似值;其余的C(Ri|R)、C(R|R)和C(Ri|Ri)的含义解释同C(R|Ri),不再赘述。
通过与模板库中每一类手势的递归模型之间进行计算,可得到当前待测手势递归模型R与模板库中每一类手势的递归模型之间的不同距离,将这些距离值进行排序,取最小的一个距离值对应的模板库中的手势,作为待识别的手势进行识别后的手势。
该步骤提到的模板库,是指在进行手势识别之前,先采集各类标准的手势,按照步骤1至3的方法进行处理,得到标准手势的手势递归模型Ri,将这些手势的递归模型存储在一个模板库中;后续进行识别时,将待测手势的手势递归模型与模板库中的各个标准手势的手势递归模型进行对比,二者之间的距离越小,说明二者的相似度越高,就认为待测手势即为与之相似度最高的一个标准手势。模板库中存储有动态手势对应的标准手势的递归模型,也有静态手势对应的标准手势模型;这里的标准手势为在人机交互过程中,机器执行某个动作所需要给出的标准姿势,例如手部通过食指和中指摆出“V”字形姿势表示播放命令,那么就“V”字形姿势的手势对应的手势递归模型作为标准模型存储在手势库中;识别过程中,当待识别手势与该“V”字形姿势的手势递归模型之间的距离最小,则认为当前待识别手势即为“V”字形姿势。
为了验证本方法的有效性,本发明分别对静态手势和动态手势分别进行了实验验证:
对于静态手势,实验使用了帕多瓦大学提供的公共手势数据集,该方法比Marin等提出的基于手指方向和位置特征的多类SVM分类算法准确率高5.72%,比2014年Dominio等提出的基于几何特征的SVM算法准确率高4.2%。同时,实验还表明本文提出的算法对于不同角度放置的手势分类具有较高的鲁棒性。
对于动态手势,实验使用我们获取到的8种动态数据集上进行手势识别,实验结果表明,本发明提出的算法平均识别准确率高达97.48%,并且对于获取的手势轨迹序列长度不同和手势轨迹序列点数据值存在不可比等问题具有较高的鲁棒性。
Claims (4)
1.一种基于递归模型的手势识别方法,其特征在于,包括以下步骤:
步骤1,手势分割
对于静态手势:
获取静态手势图像并进行预处理,得到带有指尖点的手掌区域;
对于动态手势:
获取动态手势的深度图像序列,利用基于二维直方图的图像阈值分割法对深度图像序列进行处理,得到分割后的动态手势图像序列;
步骤2,提取手势空间序列
对于静态手势:
步骤2.1,获取手掌的外边缘信息,提取出手势边缘轮廓特征;
步骤2.2,确定手势的中心点,求出手势外边缘手腕位置处距离手势中心点的最远距离坐标,并将该坐标点记为起始点P;
步骤2.3,以P为原点,按照逆时针的方向,计算手势外边缘像素序列中的每一个点到手势中心点的距离,将计算得到的这些距离值构成序列A;
步骤2.4,将序列A进行归一化,归一化后的序列记为静态手势空间序列X={x(i1),x(i2),…,x(in)};
对于动态手势:
步骤2.1',从动态手势图像序列中取出一段作为处理序列,针对处理序列中的手势图像,将手势图像最小的外接矩形的中心点作为手心坐标点,其坐标记为ci(xi,yi);
步骤2.2',以手势图像所在的深度图像的左上角为初始点,计算手心坐标点与初始点间的相对角度并记为x(it);
步骤2.3',将处理序列中各帧的手心坐标按顺序组成一个动态手势轨迹序列C=(c1,c2,…,cn),将处理序列中各帧的手心坐标点相对于初始点的相对角度组成动态手势空间序列:X={x(i1),x(i2),…,x(in)};
步骤3,构建手势递归模型
将静态手势空间序列、动态手势空间序列X按照如下公式计算其递归模型:
R=ri,j=θ(ε-||x(ik)-x(im)||),ik,im=1…n
上式中,n表示动态或静态手势空间序列的维数,x(ik)和x(im)是在ik和im序列位置处观察到的动态或静态手势空间序列X上的值,||·||是指两个观察位置之间的距离,ε是一个阈值,ε<1;θ是一个赫维赛德阶跃函数,θ的定义如下:
步骤4,手势分类
按照下面的公式计算手势递归模型R与模板库中每一类手势的递归模型Ri之间的距离:
上式中,C(R|Ri)是按照MPEG-1压缩算法先压缩图像Ri之后再压缩图像R值的大小,从而求得R图像中去除和Ri图像共有的冗余信息后两者之间的最小近似值;
通过与模板库中每一类手势的递归模型之间进行计算,可得到当前待测手势的手势递归模型与模板库中每一类手势的递归模型之间的不同距离,将这些距离值进行排序,取最小的一个距离值对应的模板库中的手势作为识别出的手势。
2.如权利要求1所述的所述的基于递归模型的手势识别方法,其特征在于,所述的步骤1中的预处理过程如下:
步骤1.1,获取静态手势图像,利用基于YcbCr空间的自适应肤色分割方法得到含有肤色区域的二值图像;
步骤1.2,通过计算肤色区域的连通域,得到手部区域;
步骤1.3,利用基于手腕厚度的手腕位置定位方法,获取带有指尖点的手掌区域。
3.如权利要求1所述的所述的基于递归模型的手势识别方法,其特征在于,所述的步骤1中利用Kinect获取动态手势的深度图像序列。
4.如权利要求1所述的基于递归模型的手势识别方法,其特征在于,所述的步骤2.1中将手势图像的最小外接矩形的中心作为手势的中心点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710031563.0A CN106845384B (zh) | 2017-01-17 | 2017-01-17 | 一种基于递归模型的手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710031563.0A CN106845384B (zh) | 2017-01-17 | 2017-01-17 | 一种基于递归模型的手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106845384A true CN106845384A (zh) | 2017-06-13 |
CN106845384B CN106845384B (zh) | 2019-12-13 |
Family
ID=59123148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710031563.0A Expired - Fee Related CN106845384B (zh) | 2017-01-17 | 2017-01-17 | 一种基于递归模型的手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106845384B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376257A (zh) * | 2018-02-10 | 2018-08-07 | 西北大学 | 一种燃气表不完整码字识别方法 |
CN108629272A (zh) * | 2018-03-16 | 2018-10-09 | 上海灵至科技有限公司 | 一种基于单目摄像头的嵌入式手势控制方法及系统 |
CN108985242A (zh) * | 2018-07-23 | 2018-12-11 | 中国联合网络通信集团有限公司 | 手势图像分割的方法及装置 |
CN109190516A (zh) * | 2018-08-14 | 2019-01-11 | 东北大学 | 一种基于手掌边缘轮廓矢量化的静态手势识别方法 |
CN110046603A (zh) * | 2019-04-25 | 2019-07-23 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN110058688A (zh) * | 2019-05-31 | 2019-07-26 | 安庆师范大学 | 一种投影用动态手势翻页的系统及其方法 |
CN111091021A (zh) * | 2018-10-23 | 2020-05-01 | 中国海洋大学 | 基于随机森林的手语翻译系统 |
CN111626136A (zh) * | 2020-04-29 | 2020-09-04 | 惠州华阳通用电子有限公司 | 一种手势识别方法、系统及设备 |
CN112379779A (zh) * | 2020-11-30 | 2021-02-19 | 华南理工大学 | 一种基于迁移学习的动态手势识别虚拟交互系统 |
CN115981482A (zh) * | 2023-03-17 | 2023-04-18 | 深圳市魔样科技有限公司 | 面向智能戒指的手势视觉交互方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310233A (zh) * | 2013-06-28 | 2013-09-18 | 青岛科技大学 | 同类行为多视图间相似度挖掘方法及行为识别方法 |
CN105373785A (zh) * | 2015-11-30 | 2016-03-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN105930784A (zh) * | 2016-04-15 | 2016-09-07 | 济南大学 | 一种手势识别方法 |
CN106022227A (zh) * | 2016-05-11 | 2016-10-12 | 苏州大学 | 一种手势识别方法及装置 |
-
2017
- 2017-01-17 CN CN201710031563.0A patent/CN106845384B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310233A (zh) * | 2013-06-28 | 2013-09-18 | 青岛科技大学 | 同类行为多视图间相似度挖掘方法及行为识别方法 |
CN105373785A (zh) * | 2015-11-30 | 2016-03-02 | 北京地平线机器人技术研发有限公司 | 基于深度神经网络的手势识别检测方法与装置 |
CN105930784A (zh) * | 2016-04-15 | 2016-09-07 | 济南大学 | 一种手势识别方法 |
CN106022227A (zh) * | 2016-05-11 | 2016-10-12 | 苏州大学 | 一种手势识别方法及装置 |
Non-Patent Citations (2)
Title |
---|
NGUYEN DANG BINH ET AL: "Real-time Hand Tracking and Gesture Recognition System", 《GVIP 05 CONFERENCE,19-21 DECEMBER 2005,CICC》 * |
李新杰 等: "递归图法在径流时间序列非线性分析中的应用", 《武汉大学学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376257A (zh) * | 2018-02-10 | 2018-08-07 | 西北大学 | 一种燃气表不完整码字识别方法 |
CN108376257B (zh) * | 2018-02-10 | 2021-10-29 | 西北大学 | 一种燃气表不完整码字识别方法 |
CN108629272A (zh) * | 2018-03-16 | 2018-10-09 | 上海灵至科技有限公司 | 一种基于单目摄像头的嵌入式手势控制方法及系统 |
CN108985242A (zh) * | 2018-07-23 | 2018-12-11 | 中国联合网络通信集团有限公司 | 手势图像分割的方法及装置 |
CN108985242B (zh) * | 2018-07-23 | 2020-07-14 | 中国联合网络通信集团有限公司 | 手势图像分割的方法及装置 |
CN109190516A (zh) * | 2018-08-14 | 2019-01-11 | 东北大学 | 一种基于手掌边缘轮廓矢量化的静态手势识别方法 |
CN111091021A (zh) * | 2018-10-23 | 2020-05-01 | 中国海洋大学 | 基于随机森林的手语翻译系统 |
CN110046603B (zh) * | 2019-04-25 | 2020-11-27 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN110046603A (zh) * | 2019-04-25 | 2019-07-23 | 合肥工业大学 | 一种中国普乐手语编码的手势动作识别方法 |
CN110058688A (zh) * | 2019-05-31 | 2019-07-26 | 安庆师范大学 | 一种投影用动态手势翻页的系统及其方法 |
CN111626136A (zh) * | 2020-04-29 | 2020-09-04 | 惠州华阳通用电子有限公司 | 一种手势识别方法、系统及设备 |
CN111626136B (zh) * | 2020-04-29 | 2023-08-18 | 惠州华阳通用电子有限公司 | 一种手势识别方法、系统及设备 |
CN112379779A (zh) * | 2020-11-30 | 2021-02-19 | 华南理工大学 | 一种基于迁移学习的动态手势识别虚拟交互系统 |
CN112379779B (zh) * | 2020-11-30 | 2022-08-05 | 华南理工大学 | 一种基于迁移学习的动态手势识别虚拟交互系统 |
CN115981482A (zh) * | 2023-03-17 | 2023-04-18 | 深圳市魔样科技有限公司 | 面向智能戒指的手势视觉交互方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106845384B (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106845384A (zh) | 一种基于递归模型的手势识别方法 | |
CN109359538B (zh) | 卷积神经网络的训练方法、手势识别方法、装置及设备 | |
Kurakin et al. | A real time system for dynamic hand gesture recognition with a depth sensor | |
US20160171293A1 (en) | Gesture tracking and classification | |
Oprisescu et al. | Automatic static hand gesture recognition using tof cameras | |
Zhu et al. | Vision based hand gesture recognition using 3D shape context | |
CN106909909B (zh) | 一种基于共享卷积特征的人脸检测与对齐方法 | |
CN108182397B (zh) | 一种多姿态多尺度的人脸验证方法 | |
CN105118023A (zh) | 基于人脸特征点的实时视频人脸卡通化生成方法 | |
Gupta et al. | FPGA based real time human hand gesture recognition system | |
CN106446773A (zh) | 一种全自动、鲁棒的三维人脸检测方法 | |
CN107479693A (zh) | 基于rgb信息的实时手部识别方法、存储介质、电子设备 | |
Nath et al. | Real time sign language interpreter | |
Gamal et al. | Hand gesture recognition using fourier descriptors | |
CN111191569A (zh) | 人脸属性的识别方法及其相关装置 | |
Konrad et al. | Computationally Efficient Serial Combination of Rotation-invariant and Rotation Compensating Iris Recognition Algorithms. | |
Geetha et al. | Dynamic gesture recognition of Indian sign language considering local motion of hand using spatial location of Key Maximum Curvature Points | |
Pradhan et al. | A hand gesture recognition using feature extraction | |
CN103093211A (zh) | 基于深度核信息图像特征的人体运动跟踪方法 | |
CN110046603A (zh) | 一种中国普乐手语编码的手势动作识别方法 | |
Vieriu et al. | Background invariant static hand gesture recognition based on Hidden Markov Models | |
Vezzetti et al. | Application of geometry to rgb images for facial landmark localisation-a preliminary approach | |
Cui et al. | Eye detection with faster R-CNN | |
Wu et al. | Independent Gabor analysis of discriminant features fusion for face recognition | |
Rong et al. | RGB-D hand pose estimation using fourier descriptor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191213 |