CN104317391B - 一种基于立体视觉的三维手掌姿态识别交互方法和系统 - Google Patents

一种基于立体视觉的三维手掌姿态识别交互方法和系统 Download PDF

Info

Publication number
CN104317391B
CN104317391B CN201410494445.XA CN201410494445A CN104317391B CN 104317391 B CN104317391 B CN 104317391B CN 201410494445 A CN201410494445 A CN 201410494445A CN 104317391 B CN104317391 B CN 104317391B
Authority
CN
China
Prior art keywords
palm
gesture
dimensional
posture
motion state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410494445.XA
Other languages
English (en)
Other versions
CN104317391A (zh
Inventor
葛俊锋
何源
叶林
刘伟
孙俊
黄文佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Fujitsu Ltd
Original Assignee
Huazhong University of Science and Technology
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology, Fujitsu Ltd filed Critical Huazhong University of Science and Technology
Priority to CN201410494445.XA priority Critical patent/CN104317391B/zh
Publication of CN104317391A publication Critical patent/CN104317391A/zh
Application granted granted Critical
Publication of CN104317391B publication Critical patent/CN104317391B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

本发明公开了一种基于立体视觉的三维手掌姿态识别方法和系统,属于计算机视觉和人机交互技术领域。本发明包括:使用立体视觉信息采集设备进行数据的采集,得到包括深度信息在内的三维数据;通过得到的三维数据对手掌进行分割,然后运用平面拟合,获得手掌在三维空间中的姿态;根据跟踪识别的手掌姿态,匹配预定义的标准手势,进行具体的三维应用,实现人机交互。本发明通过识别手掌的姿态,使得识别的精度更高,更少的出现误识别的操作,同时解决了一般基于指尖识别的高运算量的问题,实现了更加实时的人机互动功能,保证了交互的准确性和易用性。

Description

一种基于立体视觉的三维手掌姿态识别交互方法和系统
技术领域
本发明属于计算机视觉和人机交互技术领域,更具体地,涉及一种基于立体视觉的三维手掌姿态识别方法和系统。
背景技术
传统的基于鼠标、键盘、遥控器等人机交互技术虽然已经相对完善,但是在操作方式上并不人性化。且在某些场合,传统的鼠标键盘以及遥控器已经无法满足新的交互需求。
随着科技的发展,基于视觉的人机交互技术已经成为了一个主流技术。这种技术一般是采用手势控制,而手势识别又可以分为二维和三维。二维感测技术可直接透过相机的X轴及Y轴影像进行手势判断,但由于缺乏深度信息,仅能判断简单的肢体动作,在某些交互场景显得不足。
而三维手势交互方式,从信息表达能力上来看,能够表示复杂的多维关系。从交互方式上来看,三维人机交互方式模拟现实世界中人与物体的交互方式,更加清晰。但是现有的三维手势通常都还是基于对指尖检测识别手势进行匹配,无论从精度上还是适用性上都存在一定的局限性。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供一种基于立体视觉的三维手掌姿态识别交互方法和系统,通过探测手掌在三维空间中的运动姿态,同时匹配预定义的手势,实现人机交互。
为实现上述目的,按照本发明的一个方面,提供一种基于立体视觉的三维手掌姿态识别交互方法,包括以下步骤:
步骤1使用立体视觉信息采集设备采集图像作为立体视觉信息;
步骤2根据采集的所述立体视觉信息,获取其三维数据;
步骤3根据得到的所述三维数据,使用分割算法对手掌进行分割,分割得到所述手掌的点云以及手掌区域的轮廓信息,应用点云平面拟合方法,获得所述手掌在三维空间中的姿态;
步骤4根据所述姿态对所述手掌的运动状态进行识别,获得所述运动状态的特征值信息;
步骤5将得到的连续多帧的所述运动状态的特征值与预定义的标准手势的特征值时间序列进行匹配,得到与所述运动状态最接近的标准手势,将其作为手势匹配结果进行。
按照本发明的另一方面,提供一种基于立体视觉的三维手掌姿态识别交互系统,包括:
三维数据采集单元,通过立体视觉信息采集设备采集图像作为立体视觉信息,获取其三维数据;
手掌三维姿态识别单元,通过得到的所述三维数据对手掌进行分割,分割得到所述手掌的点云后,应用点云平面拟合方法,获得所述手掌在三维空间中的姿态;
手势匹配单元,根据所述姿态对所述手掌的运动状态进行识别,获得所述运动状态的特征值信息,将得到的连续多帧的所述运动状态的特征值与预定义的标准手势的特征值时间序列进行匹配,得到所述运动状态最接近的标准手势,将其作为手势匹配结果;
人机交互单元,根据所述手势匹配结果,进行三维交互应用,实现人机交互。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
相较于现有基于指尖识别的技术,本发明通过识别手掌的姿态,使得识别的精度更高,更少的出现误识别的操作。同时解决了一般基于指尖识别的高运算量的问题,减少了运算的时间,实现了更加实时的人机互动功能。对比基于手套的手势识别方法,本发明只需要一个深度信息采集设备,成本更低,也更加自然,保证了交互的准确性和易用性。
附图说明
图1为本发明基于立体视觉的三维手掌姿态识别交互方法的流程图;
图2为本发明获得三维数据之前的结构框图;
图3为本发明基于立体视觉的三维手掌姿态识别交互系统的结构框图;
图4为本发明基于立体视觉的三维手掌姿态识别系统使用的示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
图1所示为本发明基于立体视觉的三维手掌姿态识别交互方法的流程图,具体包括以下步骤:
步骤1采集图像作为立体视觉信息,立体视觉信息采集设备可包括:深度摄像机、双目摄像机、多目摄像机等。
步骤2根据采集的立体视觉信息,获取其三维数据。深度摄像机例如TOF摄像机、Kinect等可以直接获取原始图像的三维数据,双目或者多目摄像机可以通过三维重建方法获取深度等三维数据。在本发明一个实施例中,采用双目摄像机作为深度采集设备。利用Camera Calibration工具箱,对双目摄像机进行内外部参数的标定,其中定标参数包括单目的焦距、成像远点、畸变系数和双目相对位置即旋转矩阵和平移向量。利用上述对双目摄像机标定的结果,可以使用OpenCV中的函数库分别对双目摄像机采集的左右视图进行消除畸变和行对准,使得左右视图的成像原点坐标一致、两摄像头光轴平行、左右成像平面共面、对极线行对齐。再使用极性约束,将图像的二维匹配问题降为一维搜索,通过立体匹配,得到视差图。其中立体匹配方法有很多,例如BM算法、SGBM算法和GC算法。上述提到的算法速度依次递减,但是匹配得到视差的精度也依次提高。由于本发明最终是为了在视频中对手掌姿势进行匹配,因此优先采用速度快、效果能够达到要求的算法,即选择BM算法。具体BM算法参数的选择可通过实验获取。在获得了视差信息后,根据投影模型可以得到原始图像的深度信息和三维信息,即三维数据。在OpenCV中,直接调用其提供的reprojectImageTo3D()函数来完成三维信息的获取。在本发明另一实施例中,由于其他方式的深度信息采集设备例如深度摄像机可以直接得到三维数据,不需要进行上述处理。本发明步骤2的上述方法,均可以直接使用OpenCV中的函数实现。
步骤3得到摄像机拍摄区域的立体视觉信息的三维数据后,采用聚类的思想,再综合使用阈值分割、区域分割等方法对手掌进行分割,分割得到手掌的点云以及手掌区域的轮廓信息,应用点云平面拟合方法,识别手掌在三维空间中的姿态。
在本发明实施例中,可以综合使用多种分割算法进行手掌分割,例如自适应阈值分割、区域分割和边缘分割等。以选用OSTU自适应阈值分割算法进行分割为例,假设待分割图像的原始灰度级为M,其中灰度值为i(i=0,1,2,…,M-1)的像素点个数为ni,对灰度值i出现的概率进行归一化:设分割阈值为t,将灰度值分为了两类,每一类出现的概率分别为每一类的平均灰度值分别为其中则类间方差定义为:σ2=w0×(μ0(t)-μT(t))2+w1×(μ1(t)-μT(t))2,其中t从0到M-1之间变化,使得该类间方差σ2最大的值即为分割最佳阈值。这样就可以分割得到手掌所包含的点云以及手掌区域的轮廓信息。设定一个比例阈值Smin,例如1/10,如果分割所获得手掌区域与全图的比例小于比例阈值Smin,则判断不存在手掌。通过对手掌轮廓进行模板匹配分析,可以得到手指的位置、伸展状态,例如有几根手指伸展等。通过手指的朝向,可用于判断摆手等动作。分割得到手掌的点云后,应用点云平面拟合方法,获得手掌在三维空间中的姿态就是手掌的姿态。
手掌平面拟合可以采用最小二乘拟合,但该方法容易受野值点影响,本发明提出一种概率引导的随机采样算法,可以有效克服野值点对手掌平面拟合的影响,具体包括以下步骤:
(A)以相同的概率初始化经过分割得到的每个手掌区域的三维点集(即上述分割算法得到的点集);
(B)随机选取一组用于求解拟合平面参数的最小点集,在本发明实施例中,最小点集通常为3个点,计算相应的手掌拟合平面参数;
(C)计算该三维点集中所有点到该拟合平面的距离误差;
(D)根据每个点到该拟合平面的误差大小调整其采样概率,并将所有点的采样概率归一化,即p(xi)=p(xi)/Σp(xi)。假设原采样概率为p(xi),距离误差为ei,则新的采样概率为p(xi)′=p(xi)+1/ei,为了防止含有野值点的平面将野值点的采样概率也同时提高,每次更新点的采样概率时,参与本次平面拟合的点的采样概率保持不变;
(E)根据更新后的采样概率选取新的最小点集,依次迭代下去,直到每个点的采样概率不再变化。
步骤4根据上述得到的手掌在三维空间中的姿态对手掌运动状态进行识别,获得手掌运动状态的特征信息。在本发明实施例中,手掌运动状态可以根据相邻两帧或者多帧的手掌姿态的变化来获取,以相邻两帧计算方法为例,具体包括以下子步骤:
(4-1)将手掌的姿态用三维向量(x1,y1,z1)表示,相邻前一帧或后一帧中的手掌姿态用三维向量(x2,y2,z2)表示;
(4-2)手掌运动的速度向量V=(x2,y2,z2)-(x1,y1,z1);
(4-3)通过是否存在手掌、手掌姿态信息、以及手掌的运动速度,可以判断手势的开始及结束。其中,在本发明实施例中,设定一个速度阈值Vmin,当速度向量V的模大于Vmin并维持若干帧时,判断是手势开始;当速度向量V的模小于速度Vmin并维持若干帧时,判断是手势结束;如果检测到手掌,但手掌在若干帧内并没有运动,则判断是静态的手势。
手掌运动状态的特征值由每帧手掌姿态向量、速度向量等构成,对手掌运动状态的特征值进行归一化处理,消除尺度因素对特征的影响。
步骤5将得到的连续多帧的手掌运动状态的特征值传入已训练好的隐马尔科夫模型中,与预定义的标准手势的特征值时间序列进行匹配,得到待识别手势最接近的标准手势,将其作为手势匹配结果。
在本发明实施例中,预定义三维交互手掌姿势包括以下例子,但不以此为限:单手以手腕为支点进行手掌的摆动,控制待交互物体的上下或左右移动;单手在垂直于摄像头的平面内自由移动,控制待交互物体在平面内的移动;单手在前后方向上水平移动,控制待交互物体的放大或缩小;双手手掌进行相对移动,控制待交互物体的放大或缩小;双手手掌相对进行旋转,控制待交互物体的旋转。根据上述预定义的三维交互手掌姿态,建立一套基于手掌姿势跟踪的交互模型。
图2所示为本发明获得三维数据之前的数据处理流程图。在本发明实施例中,以双目摄像机为例,具体包括以下子步骤:
(2-1)使用MATLAB中的Camera Calibration工具箱分别对左右摄像头单独进行内部参数标定,其中定标参数包括左右摄像头的焦距、成像远点、畸变系数和双目相对位置即旋转矩阵和平移向量;
(2-2)根据得到的左右摄像头标定参数进行双目摄像机外部参数标定;
(2-3)使用双目摄像机采集左右图像,并利用OpenCV库和标定的外部参数对左右图像各自进行畸变校正,最后对两幅图像一起进行立体校正;
(2-4)对立体校正后的两幅图像进行立体匹配,得到视差图,即可根据视差图计算得到三维数据。
图3所示为本发明基于立体视觉的三维手掌姿态识别交互系统的结构框图,具体包括以下单元:
三维数据采集单元,通过立体视觉信息采集设备采集图像作为立体视觉信息,获取其三维数据;
手掌三维姿态识别单元,通过得到的三维数据对手掌进行分割,分割得到手掌的点云后,应用点云平面拟合方法,获得手掌在三维空间中的姿态;
手势匹配单元,根据姿态对手掌的运动状态进行识别,获得运动状态的特征值信息,将得到的连续多帧的运动状态的特征值传入已训练好的隐马尔科夫模型中,与预定义的标准手势的特征值时间序列进行匹配,得到待识别手势最接近的标准手势,将其作为手势匹配结果;
人机交互单元,根据手势匹配的结果,进行三维交互应用,实现人机交互。
图4所示为本发明基于立体视觉的三维手掌姿态识别系统使用的示意图,展示了如何使用本系统。显示器里面是待控制的物体,手掌在摄像头平面内进行移动,实现人机交互。具体的,单手以手腕为支点进行手掌的摆动,控制待交互物体的上下或左右移动;单手在垂直于摄像头的平面内自由移动,控制待交互物体在平面内的移动;单手在前后方向上水平移动,控制待交互物体的放大或缩小;双手手掌进行相对移动,控制待交互物体的放大或缩小;双手手掌相对进行旋转,控制待交互物体的旋转。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于立体视觉的三维手掌姿态识别交互方法,其特征在于,包括:
步骤1采集立体视觉信息:
使用立体视觉信息采集设备采集图像作为立体视觉信息;
步骤2得到三维数据:
根据采集的所述立体视觉信息,获取其三维数据;
步骤3手掌分割:
根据得到的所述三维数据,使用分割算法对手掌进行分割,分割得到所述手掌的点云以及手掌区域的轮廓信息;
步骤4手掌平面拟合:
应用点云平面拟合方法,具体包括以下步骤:
(4-1)以相同的概率初始化分割得到的每个手掌区域的三维点集;
(4-2)随机选取一组用于求解拟合平面参数的最小点集,计算相应的手掌拟合平面参数;
(4-3)计算所述三维点集中所有点到拟合平面的距离误差;
(4-4)根据每个点到所述拟合平面的误差大小调整其采样概率,并将所有点的采样概率归一化,每次更新点的采样概率时,参与本次平面拟合的点的采样概率保持不变;
(4-5)根据更新后的采样概率选取新的最小点集,依次迭代下去,直到每个点的采样概率不再变化;
步骤5获得所述手掌在三维空间中的姿态:
所述姿态包括是否存在手掌,手指的朝向和伸展状态,以及手掌的位置和运动速度;
步骤6识别手掌的运动状态:
根据所述姿态对所述手掌的运动状态进行识别,获得所述运动状态的特征值信息;
步骤7手势匹配:
将得到的连续多帧的所述运动状态的特征值传入已训练好的隐马尔科夫模型中,与预定义的标准手势的特征值时间序列进行匹配,得到与所述运动状态最接近的标准手势,将其作为手势匹配结果。
2.如权利要求1所述的方法,其特征在于,所述步骤1中使用的所述立体视觉信息采集设备包括:深度摄像机、双目摄像机或多目摄像机。
3.如权利要求2所述的方法,其特征在于,所述步骤2中采用双目摄像机获取所述三维数据,具体包括以下子步骤:
(2-1)使用MATLAB中的Camera Calibration工具箱分别对所述双目摄像机的左右摄像头单独进行内部参数标定,其中,标定参数包括所述左右摄像头的焦距、成像远点、畸变系数和双目相对位置;
(2-2)根据得到的所述标定参数进行所述双目摄像机的外部参数标定;
(2-3)使用所述双目摄像机采集左右图像,并利用OpenCV库和标定的所述外部参数对所述左右图像各自进行畸变校正,最后对两幅图像一起进行立体校正;
(2-4)对立体校正后的两幅图像进行立体匹配,得到视差图,根据所述视差图计算得到所述三维数据。
4.如权利要求1-3中任一项所述的方法,其特征在于,所述步骤3中对手掌进行分割具体包括以下步骤:
(3-1)设待分割图像的原始灰度级为M,灰度值为i的像素点的个数为ni,其中i=0,1,2,…,M-1,对灰度值i出现的概率进行归一化:
(3-2)设分割阈值为t,将灰度值分为了两类,每一类出现的概率分别为每一类的平均灰度值分别为其中
(3-3)定义类间方差为:σ2=w0×(μ0(t)-μT(t))2+w1×(μ1(t)-μT(t))2,其中t从0到M-1之间变化,使得所述类间方差σ2最大的值即为分割最佳阈值。
5.如权利要求1所述的方法,其特征在于,所述步骤3还包括:
比较分割所获得的所述手掌区域与所述图像的比例是否小于预设的比例阈值,是则判断所述图像内不存在手掌。
6.如权利要求1所述的方法,其特征在于,所述步骤6中对所述运动状态进行识别具体包括以下子步骤:
(6-1)将手掌的所述姿态用三维向量(x1,y1,z1)表示,相邻前一帧或后一帧中的手掌姿态用三维向量(x2,y2,z2)表示;
(6-2)手掌运动的速度向量V=(x2,y2,z2)-(x1,y1,z1);
(6-3)通过是否存在手掌、手掌姿态信息、以及手掌的运动速度,可以判断手势的开始及结束,其中,设定一个速度阈值,当所述速度向量V的模大于所述速度阈值并维持若干帧时,判断是手势开始;当所述速度向量V的模小于所述速度阈值并维持若干帧时,判断是手势结束;如果检测到手掌,但所述手掌在若干帧内并没有运动,则判断是静态的手势。
7.一种实现权利要求1所述方法的基于立体视觉的三维手掌姿态识别交互系统,其特征在于,包括:
三维数据采集单元,通过立体视觉信息采集设备采集图像作为立体视觉信息,获取其三维数据;
手掌三维姿态识别单元,通过得到的所述三维数据对手掌进行分割,分割得到所述手掌的点云及手掌区域的轮廓信息后,采用随机采样迭代算法拟合手掌平面,获得所述手掌在三维空间中包括位置及朝向在内的姿态;
手势匹配单元,根据所述姿态对所述手掌的运动状态进行识别,获得所述运动状态的特征值信息,将得到的连续多帧的所述运动状态的特征值与预定义的标准手势的特征值时间序列进行匹配,得到所述运动状态最接近的标准手势,将其作为手势匹配结果;
人机交互单元,根据所述手势匹配结果,进行三维交互应用,实现人机交互。
8.如权利要求7所述的基于立体视觉的三维手掌姿态识别交互系统,其特征在于,所述预定义的标准手势包括:
单手以手腕为支点进行手掌的摆动,控制待交互物体的上下或左右移动;
单手在垂直于摄像机的平面内自由移动,控制所述待交互物体在平面内的移动;
单手在前后方向上水平移动,控制所述待交互物体的放大或缩小;
双手手掌相对进行移动,控制所述待交互物体的放大或缩小;
双手手掌相对进行旋转,控制所述待交互物体的旋转。
CN201410494445.XA 2014-09-24 2014-09-24 一种基于立体视觉的三维手掌姿态识别交互方法和系统 Expired - Fee Related CN104317391B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410494445.XA CN104317391B (zh) 2014-09-24 2014-09-24 一种基于立体视觉的三维手掌姿态识别交互方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410494445.XA CN104317391B (zh) 2014-09-24 2014-09-24 一种基于立体视觉的三维手掌姿态识别交互方法和系统

Publications (2)

Publication Number Publication Date
CN104317391A CN104317391A (zh) 2015-01-28
CN104317391B true CN104317391B (zh) 2017-10-03

Family

ID=52372630

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410494445.XA Expired - Fee Related CN104317391B (zh) 2014-09-24 2014-09-24 一种基于立体视觉的三维手掌姿态识别交互方法和系统

Country Status (1)

Country Link
CN (1) CN104317391B (zh)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104915011A (zh) * 2015-06-28 2015-09-16 合肥金诺数码科技股份有限公司 开放式环境手势互动游戏系统
CN105488802B (zh) * 2015-12-07 2018-12-28 清华大学 一种指尖深度检测方法及系统
US10963063B2 (en) * 2015-12-18 2021-03-30 Sony Corporation Information processing apparatus, information processing method, and program
CN105371784A (zh) * 2015-12-24 2016-03-02 吉林大学 基于机器视觉的汽车检测全息人机交互系统
US9857881B2 (en) * 2015-12-31 2018-01-02 Microsoft Technology Licensing, Llc Electrical device for hand gestures detection
CN107368837B (zh) * 2016-05-13 2020-08-04 株式会社理光 对象检测方法和对象检测装置
CN106599812A (zh) * 2016-12-05 2017-04-26 苏州维盟韵联网络科技有限公司 一种用于智能家居系统的3d动态手势识别方法
CN107301656A (zh) * 2017-06-21 2017-10-27 王红军 一种基于纤维丛理论的物体运动的视觉感知方法
CN107316025B (zh) * 2017-06-27 2021-04-06 北京康邦科技有限公司 一种手部姿态识别方法及识别系统
CN107357427A (zh) * 2017-07-03 2017-11-17 南京江南博睿高新技术研究院有限公司 一种用于虚拟现实设备的手势识别控制方法
CN109388231A (zh) * 2017-08-14 2019-02-26 广东畅响源教育科技有限公司 基于标准模型实现vr物体或场景交互操控的系统及方法
CN107992820B (zh) * 2017-11-29 2021-08-03 北京伟景智能科技有限公司 基于双目视觉的货柜自助售货方法
CN108006898A (zh) * 2017-11-30 2018-05-08 奥克斯空调股份有限公司 电子设备、控制系统及方法
CN108256504A (zh) * 2018-02-11 2018-07-06 苏州笛卡测试技术有限公司 一种基于深度学习的三维动态手势识别方法
CN108665499B (zh) * 2018-05-04 2021-08-10 北京航空航天大学 一种基于视差法的近距飞机位姿测量方法
CN110555878B (zh) * 2018-05-31 2021-04-13 上海微电子装备(集团)股份有限公司 物体空间位置形态的确定方法、装置、存储介质及机器人
WO2020073245A1 (zh) * 2018-10-10 2020-04-16 深圳市道通智能航空技术有限公司 手势识别方法、vr视角控制方法以及vr系统
CN111125659A (zh) * 2018-10-31 2020-05-08 北京小米移动软件有限公司 输入组件、解锁方法、电子设备、机器可读存储介质
CN109725722B (zh) * 2018-12-29 2022-03-18 百度在线网络技术(北京)有限公司 有屏设备的手势控制方法和装置
CN110597112B (zh) * 2019-09-03 2023-03-24 珠海格力电器股份有限公司 一种烹饪电器的三维手势控制方法与烹饪电器
CN110688965B (zh) * 2019-09-30 2023-07-21 北京航空航天大学青岛研究院 基于双目视觉的ipt模拟训练手势识别方法
CN111639531A (zh) * 2020-04-24 2020-09-08 中国人民解放军总医院 一种基于手势识别的医学模型交互可视化方法及系统
CN111695420B (zh) * 2020-04-30 2024-03-08 华为技术有限公司 一种手势识别方法以及相关装置
CN111782041A (zh) * 2020-06-24 2020-10-16 Oppo广东移动通信有限公司 打字方法及装置、设备、存储介质
CN111815694A (zh) * 2020-09-14 2020-10-23 湖南大学 一种疲劳裂纹扩展寿命预测方法、装置、设备及存储介质
CN112215134A (zh) * 2020-10-10 2021-01-12 北京华捷艾米科技有限公司 手势跟踪方法及装置
CN113221953B (zh) * 2021-04-14 2023-01-31 上海交通大学宁波人工智能研究院 基于实例分割和双目深度估计的目标姿态识别系统与方法
CN113096193A (zh) * 2021-04-30 2021-07-09 维沃移动通信(杭州)有限公司 三维体感操作的识别方法、装置和电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344965A (zh) * 2008-09-04 2009-01-14 上海交通大学 基于双目摄像的跟踪系统
CN102184008A (zh) * 2011-05-03 2011-09-14 北京天盛世纪科技发展有限公司 互动投影系统及方法
CN102982557A (zh) * 2012-11-06 2013-03-20 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN103745228A (zh) * 2013-12-31 2014-04-23 清华大学 基于Fréchet距离的动态手势识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344965A (zh) * 2008-09-04 2009-01-14 上海交通大学 基于双目摄像的跟踪系统
CN102184008A (zh) * 2011-05-03 2011-09-14 北京天盛世纪科技发展有限公司 互动投影系统及方法
CN102982557A (zh) * 2012-11-06 2013-03-20 桂林电子科技大学 基于深度相机的空间手势姿态指令处理方法
CN103745228A (zh) * 2013-12-31 2014-04-23 清华大学 基于Fréchet距离的动态手势识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于最大类间方差的图像分割改进遗传算法;谭志存 等;《西南大学学报(自然科学版)》;CNKI中国期刊全文数据库;20090131;第31卷(第1期);第87-90页 *

Also Published As

Publication number Publication date
CN104317391A (zh) 2015-01-28

Similar Documents

Publication Publication Date Title
CN104317391B (zh) 一种基于立体视觉的三维手掌姿态识别交互方法和系统
US11749025B2 (en) Eye pose identification using eye features
US10198823B1 (en) Segmentation of object image data from background image data
US10380763B2 (en) Hybrid corner and edge-based tracking
US10671845B2 (en) Eyelid shape estimation using eye pose measurement
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
CN107688391B (zh) 一种基于单目视觉的手势识别方法和装置
CN107545302B (zh) 一种人眼左右眼图像联合的视线方向计算方法
US10055013B2 (en) Dynamic object tracking for user interfaces
US9869863B2 (en) Systems and methods for processing a 2D video
CN107004275B (zh) 确定实物至少一部分的3d重构件空间坐标的方法和系统
JP6456347B2 (ja) 平面固有の特徴のターゲットのinsitu生成
CN108229350A (zh) 一种机器人装置的面部检测、识别及跟踪方法和系统
CN104821010A (zh) 基于双目视觉的人手三维信息实时提取方法及系统
CN103927016A (zh) 一种基于双目视觉的实时三维双手手势识别方法及其系统
CN103839277A (zh) 一种户外大范围自然场景的移动增强现实注册方法
US9727776B2 (en) Object orientation estimation
CN104217192B (zh) 基于深度图像的手定位方法和设备
US10803604B1 (en) Layered motion representation and extraction in monocular still camera videos
CN106934351A (zh) 手势识别方法、装置及电子设备
WO2010144050A1 (en) Method and system for gesture based manipulation of a 3-dimensional image of object
CN103105924A (zh) 人机交互方法和装置
Perra et al. Adaptive eye-camera calibration for head-worn devices
Amrutha et al. Human Body Pose Estimation and Applications
CN106406507B (zh) 图像处理方法以及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171003

Termination date: 20180924