CN104700088B - 一种基于单目视觉移动拍摄下的手势轨迹识别方法 - Google Patents
一种基于单目视觉移动拍摄下的手势轨迹识别方法 Download PDFInfo
- Publication number
- CN104700088B CN104700088B CN201510128959.8A CN201510128959A CN104700088B CN 104700088 B CN104700088 B CN 104700088B CN 201510128959 A CN201510128959 A CN 201510128959A CN 104700088 B CN104700088 B CN 104700088B
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mfrac
- hand
- mover
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000006073 displacement reaction Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 23
- 238000012549 training Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 239000003086 colorant Substances 0.000 claims description 2
- 238000012790 confirmation Methods 0.000 claims description 2
- 230000005484 gravity Effects 0.000 claims description 2
- 230000002123 temporal effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
一种基于单目视觉移动拍摄下的手势轨迹识别方法,其特征是通过指挥人员特征,进行指挥人员腿部和人脸检测,实现对指挥人员定位、确定尺度和手部相对位移的计算,最后通过相对位移方向特征进行手势轨迹识别。本发明能够实现在摄像头运动的情况下定位指挥人员和手势的识别,排除非指挥人员的干扰,提高效率,保证识别准确率,具有很好的鲁棒性。
Description
技术领域
本发明涉及一种图像识别技术,尤其是一种人体定位和手势轨迹识别技术,具体地说是一种基于单目视觉移动拍摄下的手势轨迹识别方法,它能被用于舰艇指挥人员的定位和识别。
背景技术
据报道,美国研究人员能使无人机识别76%的航空母舰上指挥人员的手势。目前常规舰载机通过地面指挥人员对机上人员进行起飞、出库、入库等一系列指挥。随着无人舰载机的应用,需要使其能对常规手势能够识别。
在基于视觉的手势交互方面,具有代表性的研究成果包括:1991年富士通实验室完成了对46种手语符号的识别(详见文献:TakahashiT,Shino FK.Hand gesture codingbased on experiments using a hand gesture interface device.SIGCHI Bulletin,1991,23(2):67-73);Davis和Shah将戴上指尖具有高亮标记的辅助手套的手势作为系统的输入,可识别7种手势(详见文献:Davis,ShahM.V isualgesture recognition.In:Proceedings of the IEEE Vision-Image SignalProcessing,1994.321-332);Grobel和Assam从视频录像中提取特征,采用HMM技术识别262个孤立词,正确率为91.3%(详见文献:G robelK,Assam M.Isolated sign language recognition using hiddenM arkovmodels.In:Proceedings of the IEEE International Symposium on Field-Progrrammable Custom Computing Machines,2007,pp.35-44)。
无人机对地面指挥人员的手势指挥的信号输入是基于机上摄像机的拍摄。由于整个背景随着摄像机的运动而运动,传统的基于背景建模的手势轨迹识别方法将产生如下困难:
(1)前景(指挥手势)、背景(周围环境)难以分割。
(2)背景在图像上产生运动。难以确定目标相对于背景的运动方向和大小。
基于上述原因,本发明提出一种先根据形态特征定位指挥人员腿部,通过腿部区域边长确定大小尺度,通过手势相对与人脸的相对位置作为研究对象,进行手势轨迹识别的方法。该方法能在单目视觉移动拍摄的情形下实现指挥人员的手势轨迹识别。
发明内容
本发明的目的是目前无人机着舰时对指挥人员手势判定难度较大,易出现差错的问题,发明一种基于单目视觉移动拍摄下的手势轨迹识别方法,以帮助无人机着舰过程中快速准确判定指挥人员的手势,以实现准确着舰。
本发明的技术方案:
一种基于单目视觉移动拍摄下的手势轨迹识别方法,其特征是它主要包括以下步骤:
(1)在一帧图像上进行指挥人员的腿部检测和定位,并利用HOG-SVM分类器对检测到的区域进一步匹配确认;
(2)在步骤(1)的基础上,根据位置关系,确定相应的人脸检测区域;
(3)在脸部检测区域内进行人脸检测和定位,从而判别该人员是否为指挥人员。若存在唯一腿部和对应的正脸则该人员即为唯一指挥人员,并进入下一步。如果不存在则结束此帧处理;
(4)根据人脸区域进一步确定手势检测区域。
(5)在连续帧上对人脸区域进行CamShift跟踪,若人脸在图像上产生位移大于给定的阈值,说明摄像机产生移动,重新检测腿部和脸部。
(6)利用HSV肤色模型对手部进行分割,计算手部位置;
(7)在连续帧上确定双手位置,利用HMM基于手部位移方向,完成手势轨迹识别。
所述的步骤(1)中采用的haar-Adaboost分类器,选取扩展的haar-like矩形特征。分类器训练所采用的正样本大小为20×20像素,正对摄像机,双腿呈25°~45°跨步站立的腿部图片,如图1。负样本为任意大小不含跨步站立腿部的背景或者行人的图片。针对haar-Adaboost算法虚警率高的问题,采用HOG-SVM分类器对检测到的腿部进行再次筛选,腿部筛选的训练和检测方法如下:
(1)采集正负样本。其中正样本为大小为64×64像素,同haar-Adaboost方法中的正样本。负样本为haar-Adaboost检测器检测到的错误正样本。
(2)使用正负样本对HOG-SVM分类器进行训练,训练参数为:窗口大小:64×64,block大小:8×8,cell大小4×4,bin为9。
(3)用训练好的HOG-SVM分类器对haar-adaboost方法检测到的候选腿部进行单尺度检测分类,判断是否为指挥人员腿部。
所述的步骤(2)脸部检测区域位置为腿部区域正上方1H为底,边长为0.5H。H为腿部区域边长。
所述的步骤(4)中手部检测区域是以检测到的人脸中心正下方0.25H为中心,2.2H为宽2H为高的矩形,H为腿部区域边长。
所述的步骤(5)中,把步骤(2)中检测到的人脸正方形作为搜索窗口进行人脸实时跟踪,并计算当前位置与初始位置的位移,若位移大于阈值0.2H,则需要根据步骤(1)~(4)重新检索腿部区域和人脸。
所述的步骤(6)中手部坐标提取方法如下:
(1)采用基于HSV肤色空间模型进行手部分割,得到双手的手部区域;对图像进行膨胀和腐蚀形态学处理;
(2)确定联通区域,计算联通却与在参考平面上的重心坐标作为双手的坐标。
所述的步骤(7)中基于手部位移方向的手势轨迹识别的具体方法如下:
(1)以头部中心点为原点,计算得手部向量。
X,Y为手部的像素,X0,Y0为头部中心像素位置,H为腿部区域边长。
(2)计算下相邻帧图像的手部位移向量。
(3)计算相邻帧图像的手部位移大小:
若处于上下阈值(0.1H~0.4H)之间,则作为特征点进行下面计算。若小于下阈值,说明手部移动不明显,舍弃该帧。若大于上阈值,说明出现噪点,舍弃该帧。
(4)定义方向角为位移向量与水平方向右方向的夹角,逆时针为正,计算特征点间的方向角:
(5)对手势方向进行编码,编码方式如图7-a所示。
(6)利用每种手势的方向序列采用Baum-Wellch算法对HMM模型进行训练。
(7)利用训练好的HMM模型根据检测到的手势相对方向观察序列进行手势轨迹识别。
本发明的有益效果是:
本发明通过先定位指挥人员,再识别手势轨迹,在复杂场景下能排除其他人员干扰,有很好的鲁棒性,同事提高了识别精度和效率。并且能够在摄像机运动情形下,图像中人体发生相对位移,大小发生变化情况下实现手势轨迹识别。能应用于舰载机手势指挥等场景。
附图说明
图1是本发明的舰载机指挥人员体势、手势示意图。
图2是本发明的指挥人员手势轨迹识别总体流程图。
图3是本发明的用来训练haar-adaboost检测器和HOG-SVM分类器正样本。
图4是本发明的手部向量计算流程示意图。
图4中:a为检测到的腿部区域,b为脸部检测区域确定示意图,c为手部检测区域确定示意图,d为肤色分割后手部,e为形态学处理(膨胀、腐蚀)后手部,f为确定的手部向量。
图5是本发明的摄像机运动情况下的手部位移向量计算示意图。
图6是本发明的摄像机移动情况下提取的一组手势位置序列。
图7是本发明的平面内手势位移方向示意图。
图7中:a为手势方向编码示意图,b为检测到的手势方向,c为得到的编码序列。
具体实施方式
下面结合附图和实施例对本发明作进一步的说明。
如图1-7所示。
一种基于单目视觉移动拍摄下的舰载无人机指挥人员手势轨迹识别方法,其整个过程如图2所示,具体步骤如下所述:
1.用训练好的haar-Adaboost分类器对视频中的第一帧图像进行扫描检测,检测到的窗口为正方形,计算正方形边长为H,如图4-a。
采用的haar-Adaboost分类器,选取扩展的haar-like矩形特征。分类器训练所采用的正样本大小为20×20像素,正对摄像机,双腿呈25°~45°跨步站立的腿部图片,如图1。负样本为任意大小不含跨步站立腿部的背景或者行人的图片。针对haar-Adaboost算法虚警率高的问题,采用HOG-SVM(梯度方向直方图特征结合支持向量机分类器)方法对检测到的腿部进行再次筛选,腿部筛选的训练和检测方法如下:
(1)采集正负样本。其中正样本为大小为64×64像素,同haar-Adaboost方法中的正样本。负样本为haar-Adaboost检测器检测到的错误正样本。
(2)使用正负样本对HOG-SVM分类器进行训练,训练参数为:窗口大小:64×64,block大小:8×8,cell大小4×4,bin为9。
(3)用训练好的HOG-SVM分类器对haar-adaboost方法检测到的候选腿部进行单尺度检测分类,判断是否为指挥人员腿部。
2.若不存在呈跨步的腿部区域,则进行下一帧检测。若存在,则确定相应的人脸检测区域,区域位置为腿部区域正上方1H~1.5H,边长为0.5H,如图4-b。
3.利用opencv库中训练好的基于LPB人脸检测,在头部检测区域中进行人脸检测,若存在人脸,则该人员为指挥人员进行下面步骤。若不存在正脸,则该人员很可能是侧面行走的其他人员,结束此帧处理。
4.确定手势检测区域:该区域是以检测到的人脸中心正下方0.25H为中心,2.2H为宽2H为高的矩形,H为腿部区域边长,如图4-c。
5.在手势检测区域中,建立肤色HSV模型进行颜色空间的肤色分割。分割后如图4-d所示。
6.对上述分割后的图像进行腐蚀和膨胀操作,进行联通区域分析,找出面积最大的两块联通区域,如图4-e,并计算两块(左右手)联通区域的重心,作为手部位置。
在连续帧中所检测到的脸部特征进行Camshift跟踪,计算头部位移大小,如发生头部位移大小大于阈值0.2H,此时可能由于摄像机发生位移,需重新检测腿部确定大小尺度,计算连续帧中手部位移向量。
基于手部相对位移方向识别手势轨迹的方法为:
(1)计算前一帧和当前帧中脸部中心位置(X01,Y01),(X02,Y02),手部位置为(X1,Y1),(X2,Y2),腿部区域边长为H,计算位移大小d(即)和位移方向角θ。
若d>0.4H或d<0.1H,则舍弃该帧,计算下一帧的参数作为当前帧参数。
(2)在一系列帧中重复上述步骤得到如图6中的手势序列,按图7-a对手势方向进行编码,得到一组观察序列,如图7-c。
(3)利用训练好的HMM模型对对应观察寻列对给定的几种手势进行概率计算,完成手势轨迹识别。
本发明未涉及部分均与现有技术相同或可采用现有技术加以实现。
Claims (7)
1.一种基于单目视觉移动拍摄下的手势轨迹识别方法,其特征是它主要包括以下步骤:
(1)在一帧图像上进行指挥人员的腿部检测和定位,并利用HOG-SVM分类器对检测到的区域进一步匹配确认;
(2)在步骤(1)的基础上,确定人脸检测区域;
(3)在脸部检测区域内进行人脸检测和定位,从而判别该人员是否为指挥人员;若存在腿部和对应的正脸则该人员即为指挥人员;如果不存在指挥人员则结束此帧处理;
(4)根据人脸区域进一步确定手势检测区域;
(5)在连续帧上对人脸区域进行CamShift跟踪,若人脸在图像上产生的位移大于给定的阈值,说明摄像机产生移动,重新检测腿部和脸部;
(6)利用HSV肤色模型对手部进行分割,计算手部位置;
(7)基于相对位移方向进行HMM手部轨迹训练和识别,确定手势轨迹,完成手势轨迹识别;
所述的基于相对位移方向的HMM手部轨迹识别方法如下:
(1)按时间序列提取各帧中手势重心位置;
(2)以头部中心点为原点,计算得手部向量(x,y);
<mrow>
<mi>x</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>X</mi>
<mo>-</mo>
<msub>
<mi>X</mi>
<mn>0</mn>
</msub>
</mrow>
<mi>H</mi>
</mfrac>
<mo>,</mo>
<mi>y</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>Y</mi>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mn>0</mn>
</msub>
</mrow>
<mi>H</mi>
</mfrac>
</mrow>
<mrow>
<mover>
<mi>l</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</mrow>
X,Y为手部位置,X0,Y0为头部中心位置,H为腿部区域边长;
(3)计算下相邻帧图像的手部位移向量
<mrow>
<mi>&Delta;</mi>
<mover>
<mi>l</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>=</mo>
<mfrac>
<msub>
<mover>
<mi>l</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<msub>
<mi>H</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mfrac>
<msub>
<mover>
<mi>l</mi>
<mo>&RightArrow;</mo>
</mover>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
<msub>
<mi>H</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mfrac>
</mrow>
(4)计算相邻帧图像的手部位移大小
<mrow>
<mo>|</mo>
<mo>|</mo>
<mi>&Delta;</mi>
<mover>
<mi>l</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>|</mo>
<mo>|</mo>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msub>
<mi>Y</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mrow>
<mn>0</mn>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Y</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mrow>
<mn>0</mn>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msub>
<mi>X</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mrow>
<mn>0</mn>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>X</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mrow>
<mn>0</mn>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
若处于上下阈值(0.1H~0.4H)之间,则作为特征点进行下面计算;若小于下阈值,说明手部移动不明显,舍弃该帧;若大于上阈值,说明出现噪点,舍弃该帧;
(5)定义方向角为位移向量与水平方向右方向的夹角,逆时针为正,计算特征点间的方向角:
<mrow>
<mi>&theta;</mi>
<mrow>
<mo>(</mo>
<mi>&Delta;</mi>
<mover>
<mi>l</mi>
<mo>&RightArrow;</mo>
</mover>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>&Delta;</mi>
<mi>y</mi>
</mrow>
<mrow>
<mi>&Delta;</mi>
<mi>x</mi>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<msub>
<mi>y</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>y</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>x</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>x</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>arctan</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mfrac>
<mrow>
<msub>
<mi>Y</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mrow>
<mn>0</mn>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>Y</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>Y</mi>
<mrow>
<mn>0</mn>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mfrac>
</mrow>
<mrow>
<mfrac>
<mrow>
<msub>
<mi>X</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mrow>
<mn>0</mn>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>c</mi>
<mi>u</mi>
<mi>r</mi>
</mrow>
</msub>
</mfrac>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>X</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
<mo>-</mo>
<msub>
<mi>X</mi>
<mrow>
<mn>0</mn>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mrow>
<msub>
<mi>H</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>e</mi>
</mrow>
</msub>
</mfrac>
</mrow>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
1
(6)对手势方向进行编码;
(7)进行HMM手势轨迹训练和识别。
2.如权利要求1所述的方法,其特征是:所述的指挥人员存在呈跨步站立,双脚角度为25°~45°,脸部面向目标的特征。
3.如权利要求1所述的方法,其特征是:所述的步骤(1)中采用基于haar-like特征的级联分类器对腿部进行检测定位。
4.权利要求1所述的方法,其特征是:所述的步骤(1)中采用的基于HOG-SVM单尺度检测方法对检测到的腿部区域进一步筛选。
5.权利要求1所述的方法,其特征是:所述的步骤(2)脸部检测区域位置为腿部区域正上方1H~1.5H,宽度为0.5H,H为腿部区域边长。
6.权利要求1所述的方法,其特征是:所述的步骤(4)中手部检测区域是以检测到的人脸中心正下方0.25H为中心,2.2H为宽2H为高的矩形,H为腿部区域边长。
7.权利要求1所述的方法,其特征是:所述的步骤(7)中手部位置提取方法如下:
(1)采用基于HSV肤色空间模型进行手部分割,得到双手的手部区域;
(2)对图像进行膨胀和腐蚀形态学处理;
(3)确定联通区域,选取面积最大两块联通区域重心作为双手的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510128959.8A CN104700088B (zh) | 2015-03-23 | 2015-03-23 | 一种基于单目视觉移动拍摄下的手势轨迹识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510128959.8A CN104700088B (zh) | 2015-03-23 | 2015-03-23 | 一种基于单目视觉移动拍摄下的手势轨迹识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104700088A CN104700088A (zh) | 2015-06-10 |
CN104700088B true CN104700088B (zh) | 2017-11-24 |
Family
ID=53347187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510128959.8A Expired - Fee Related CN104700088B (zh) | 2015-03-23 | 2015-03-23 | 一种基于单目视觉移动拍摄下的手势轨迹识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104700088B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106200657B (zh) * | 2016-07-09 | 2018-12-07 | 东莞市华睿电子科技有限公司 | 一种无人机控制方法 |
CN107688391B (zh) * | 2017-09-01 | 2020-09-04 | 广州大学 | 一种基于单目视觉的手势识别方法和装置 |
CN107846555A (zh) * | 2017-11-06 | 2018-03-27 | 深圳慧源创新科技有限公司 | 基于手势识别的自动拍摄方法、装置、用户终端及计算机存储介质 |
WO2019144296A1 (zh) * | 2018-01-23 | 2019-08-01 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置和可移动平台 |
CN109343565A (zh) * | 2018-10-29 | 2019-02-15 | 中国航空无线电电子研究所 | 一种基于手势感知识别的无人机智能地面引导控制方法 |
CN109542233B (zh) * | 2018-11-30 | 2020-04-10 | 哈尔滨拓博科技有限公司 | 一种基于动态手势和人脸识别的灯具控制系统 |
CN112506342B (zh) * | 2020-12-04 | 2022-01-28 | 郑州中业科技股份有限公司 | 基于动态手势识别的人机交互方法及系统 |
CN114527869A (zh) * | 2021-12-30 | 2022-05-24 | 中国航空工业集团公司沈阳飞机设计研究所 | 一种自主转运手势引导识别方法及装置 |
CN114998804B (zh) * | 2022-06-14 | 2024-06-18 | 湖南大学 | 一种基于两阶段的体势-手势整体姿态捕获方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101533467A (zh) * | 2009-04-28 | 2009-09-16 | 南京航空航天大学 | 一种基于决策树的多种人体姿态识别方法 |
CN102592112A (zh) * | 2011-12-20 | 2012-07-18 | 四川长虹电器股份有限公司 | 基于隐马尔科夫模型判断手势运动方向的方法 |
CN102609683A (zh) * | 2012-01-13 | 2012-07-25 | 北京邮电大学 | 一种基于单目视频的人体关节自动标注方法 |
CN103616025A (zh) * | 2013-12-05 | 2014-03-05 | 金陵科技学院 | 一种现场人员三维定位导航系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
-
2015
- 2015-03-23 CN CN201510128959.8A patent/CN104700088B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101533467A (zh) * | 2009-04-28 | 2009-09-16 | 南京航空航天大学 | 一种基于决策树的多种人体姿态识别方法 |
CN102592112A (zh) * | 2011-12-20 | 2012-07-18 | 四川长虹电器股份有限公司 | 基于隐马尔科夫模型判断手势运动方向的方法 |
CN102609683A (zh) * | 2012-01-13 | 2012-07-25 | 北京邮电大学 | 一种基于单目视频的人体关节自动标注方法 |
CN103616025A (zh) * | 2013-12-05 | 2014-03-05 | 金陵科技学院 | 一种现场人员三维定位导航系统 |
Non-Patent Citations (1)
Title |
---|
基于圆形梯度的手势分割算法的设计与实现;张国家 等;《机械设计与制造工程》;20130930;第42卷(第9期);1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104700088A (zh) | 2015-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104700088B (zh) | 一种基于单目视觉移动拍摄下的手势轨迹识别方法 | |
CN104282020B (zh) | 一种基于目标运动轨迹的车辆速度检测方法 | |
CN104008371B (zh) | 一种基于多摄像机的区域可疑目标跟踪与识别方法 | |
KR101355974B1 (ko) | 복수의 객체를 추적하는 객체 추적 방법 및 장치 | |
CN106707296A (zh) | 一种基于双孔径光电成像系统的无人机检测与识别方法 | |
CA3094424A1 (en) | Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator | |
CN102542289A (zh) | 一种基于多高斯计数模型的人流量统计方法 | |
CN103824070A (zh) | 一种基于计算机视觉的快速行人检测方法 | |
KR101551576B1 (ko) | 로봇 청소기, 제스쳐 인식 장치 및 방법 | |
CN104537689B (zh) | 基于局部对比显著性联合特征的目标跟踪方法 | |
KR100651034B1 (ko) | 대상 물체 검출 시스템 및 그 방법 | |
Choi et al. | Human body orientation estimation using convolutional neural network | |
CN102945554A (zh) | 基于学习和加速鲁棒surf特征的目标跟踪方法 | |
CN103530892A (zh) | 一种基于Kinect传感器的双手跟踪方法与装置 | |
KR101737430B1 (ko) | 동적 배경을 가진 영상의 대상 객체 검출 방법 | |
CN104102904A (zh) | 一种静态手势识别方法 | |
CN104200199A (zh) | 基于tof相机的不良驾驶行为检测方法 | |
Gong et al. | Tracking and grasping of moving target based on accelerated geometric particle filter on colored image | |
CN104331907B (zh) | 一种基于orb特征检测测量载体速度的方法 | |
CN106599873A (zh) | 基于三维姿态信息的人物身份识别方法 | |
CN103955673B (zh) | 一种基于头肩模型的人体识别方法 | |
CN110580708B (zh) | 一种快速移动检测方法、装置及电子设备 | |
Yang et al. | Method for building recognition from FLIR images | |
Li et al. | Sort with depth image based pedestrian tracking robots | |
Satake et al. | Stereo-based multi-person tracking using overlapping silhouette templates |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20171124 Termination date: 20180323 |