CN108256504A - 一种基于深度学习的三维动态手势识别方法 - Google Patents

一种基于深度学习的三维动态手势识别方法 Download PDF

Info

Publication number
CN108256504A
CN108256504A CN201810142141.5A CN201810142141A CN108256504A CN 108256504 A CN108256504 A CN 108256504A CN 201810142141 A CN201810142141 A CN 201810142141A CN 108256504 A CN108256504 A CN 108256504A
Authority
CN
China
Prior art keywords
gesture
camera
image
point
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810142141.5A
Other languages
English (en)
Inventor
周翔
王超
李欢欢
张冠良
孟强
杨若洋
徐文
香玫元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Cartesan Testing Technology Co Ltd
Original Assignee
Suzhou Cartesan Testing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Cartesan Testing Technology Co Ltd filed Critical Suzhou Cartesan Testing Technology Co Ltd
Priority to CN201810142141.5A priority Critical patent/CN108256504A/zh
Publication of CN108256504A publication Critical patent/CN108256504A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Abstract

本发明提出了一种基于深度学习和立体视觉的低成本,高精度,快速实时的动态三维手势识别方法。利用深度学习方法,能够快速的提取手势区域特征点,满足实时动态三维重建的要去,解决了立体视觉技术匹配难得问题。利用立体视觉技术,对比结构光,深度相机等方案,降低了成本。通过对于特征点的稀疏重建,在不损失精度的情况下大大减小了运算量。对于特征点的追踪方法提高了轨迹识别的速度与精度,基于特征点的轨迹定义方案也减小了轨迹识别与匹配的难度。

Description

一种基于深度学习的三维动态手势识别方法
技术领域:
本发明属于图像处理技术领域,特别是涉及一种动态手势光学三维重建及识别的方法及装置。
背景技术:
手势识别作为计算机视觉的一个重要部分,是沟通现实世界和虚拟的数字世界的桥梁,被广泛的应用于虚拟现实、增强现实、人机交互、数字娱乐、电子商务等诸多行业。传统用于人机交互的手势识别方法主要是基于触摸交互设备 (鼠标,触摸屏),这类交互方式无法完全模拟手势动作,只能进行二维的动作识别,而获取三维手势信息一般使用光学测量方法。
光学三维测量由于具有非接触、精度高、速度快的优势,已经发展成为三维检测领域最重要的技术。光学三维测量又可分为主动式和被动式两种。主动三维测量技术包括飞行时间法、结构光投影法、干涉法等。其中,由于结构光立体视觉系统简便,成本比较低,而且精度较高,因此应用最为广泛。
结构光立体视觉,通常向被测物体表面投影特定的编码光,包括数字光投影技术还是物理光栅投影的模拟图案,利用相机拍摄编码光在物体表面的调制信号,在进一步解调得到和深度信息有关的调制信号,最后经过标定得到物体表面的三维形貌。但是两种投影方法都是对底片的呈像,是一种成像关系,因此都存在着景深的限制。大大限制了三维测量的范围。另外,投影结构光需要增加额外的投影设备,大大增加了硬件成本。
被动式测量方法以立体视觉为代表。光学被动式测量不需要投射预设的光栅,而是在自然光(包括室内可控照明光)的条件下,通过相机等光学传感器采集二维图像,主要利用像素坐标信息以获取物体的三维信息,其典型代表就是立体视觉技术采用非结构光照明方式,从一个或多个角度观察系统中的二维信息来合成第三维信息(如物体的三维空间坐标),从而得到被测物体的三维数据;还可以通过多个观察系统中二维图像的相关或匹配运算来对物体进行三维重建。立体视觉技术模仿人类视觉原理,具有结构简单、不需要投影光、组建灵活等优点,但是立体视觉面临的最大挑战是“匹配难”问题。
发明内容:
鉴于现有技术的缺陷与不足,本发明提出了一种基于深度学习和立体视觉的低成本,高精度,快速实时的动态三维手势识别方法。该方法使用立体视觉系统,通过深度学习方法学习提取出左右相机采集图像上手势的关键特征点,解决“匹配难”的问题,使用预先标定好的立体视觉系统相机内外参数计算关键特征点的三维坐标,最终对多帧采集图像的关键点三维坐标轨迹进行跟踪,与预先定义好的轨迹模型进行对比,判断动态手势含义。
本发明的具体技术方案来如下:
一种基于深度学习的三维动态手势识别方法,由相对设置的两个相机和一个计算中心构成,两个相机都与计算中心连接,两个相机用于采集图像;计算中心用于对采集到的手势图像使用深度学习方法进行手势区域提取、手势在图像上的特征点提取、特征点匹配和三维重建、以及三维姿态分析与轨迹追踪、完成手势的动态识别。
两个相机构成双目立体视觉系统,双目立体视觉系统用于获取手势三维模型;两个相机之间光轴存在0°到120°夹角,保证存在足够重合视场。
双目立体视觉三维重建部分,采用相机标定方法获取相机内外参数,只重建相机采集图像上的手势特征点的三维坐标,用于后续手势动作的分析。
手势特征点提取部分,采用深度学习方法,预先训练深度识别模型a、b,模型a用于识别相机采集到的图像中手势区域ROI,模型b提取模型a识别到的手势区域ROI内的手势在图像上特征点。
三维姿态估计与轨迹追踪部分,根据双目立体视觉系统重建得到的手势特征点三维信息和其每一帧的变化,判断手势动作。
一种基于深度学习的三维动态手势识别方法,包括用于构建双目立体视觉系统的两个相机,用于数据处理的计算中心,按照如下步骤实现:
第一步:相机标定,两个相机构建双目立体视觉系统,标定相机内外参数 (相机有效焦距、光心、像元间距、两相机坐标系间平移矩阵和旋转矩阵),用于获取被测物体三维信息。
第二步,使用深度学习方法训练深度识别模型,通过大量预先标记好的手势区域图片训练深度识别模型,通过预先标记好手势特征点图片训练深度识别模型。
第三步,图像采集与手势特征点提取。使用双目立体视觉系统的相机采集图片,使用深度识别模型识别出采集图片中的手势区域和手势在图像上特征点。
第四步,根据双目立体视觉系统内外参数和第三步得到的两个相机拍摄到手势区域的在图像上特征点重建出特征点三维坐标。
第五步,取相机连续多帧的提取的手势特征点三维坐标,与预先定义好的手势动作对比,判读手势含义。
有益效果:
本发明提出了一种基于深度学习和立体视觉的低成本,高精度,快速实时的动态三维手势识别方法。利用深度学习方法,能够快速的提取手势区域特征点,满足实时动态三维重建的要去,解决了立体视觉技术匹配难得问题。利用立体视觉技术,对比结构光,深度相机等方案,降低了成本。通过对于特征点的稀疏重建,在不损失精度的情况下大大减小了运算量。对于特征点的追踪方法提高了轨迹识别的速度与精度,基于特征点的轨迹定义方案也减小了轨迹识别与匹配的难度。
附图说明:
图1为本发明的系统原理图;
图2为标准双目立体视觉原理图;
图3为手势特征点定义图。
图4为手势指尖特征点轨迹。
其中:1为计算中心;2为相机;3为相机;4为被测物体。
具体实施方式:
下面具体结合附图以动态手势识别为例对本发明做详细描述,硬件结构如图1所示。
技术方案为:
第一步,搭建双目立体视觉系统,标定相机内外参数。
1.双目立体视觉根据光学三角法获取物体的三维信息,其关键是精确标定双目系统获得内外参数,匹配空间点分别在两个相机成像面上的像素坐标,根据视差原理计算深度信息。
双目立体视觉利用视差原理,根据光学三角法获取被测物体的深度信息。最简单的双目立体视觉系统结构如图2所示,O1xwywzw是世界坐标系(与左摄像机坐标系重合),yw垂直纸面;C1U1V1是左摄像机成像平面坐标系,V1垂直于纸面,C2U2V2是右摄像机成像平面坐标系,V2垂直于纸面;f是主距,b是基线长度。一空间点P的世界坐标为(xW,yW,zW),P在左、右摄像机成像平面中的坐标分别为P1(u1,v1)和P2(u2,v2)。由于摄像机处在标准的双目立体视觉系统下,则 v1=v2=h,根据相似三角形可得:
令dw=u2-u1,则P的三维世界空间坐标:
由于主点是以像素为单位的,而dw的单位是世界单位,因此需要通过使用x 方向上的像素尺寸缩放dw,将其转换到像素坐标下:
dp=dw/sx
式中:
sx——x方向的缩放比例因子。
而在图像坐标系中:
dp=(cc1-cc2)+(c2-c1)
式中:
cc1,cc2——主点在图像坐标系下的列坐标;
c1,c2——点P1和P2在图像坐标系下的列坐标。
由于cc1-cc2对所有点都是常量,且通过摄像机标定及校正就可以得到,因此,P的世界坐标是与d=c2-c1相关的,这个差值d就是左、右图像的视差。因此,只要找出左、右图像中的匹配点,获取视差图,再经相机标定内外参数,就能重构出空间点的三维坐标。
2.相机内外参数标定
双目立体视觉系统是通过三角法计算物体的三维尺寸。而所谓三角是,两个相机的图像平面和被测物三者组成一个三角形,必须已知这三者之间的位置关系,才可以通过三角法求解出被测物的三维空间尺寸。为了获取被测物到两个相机图像平面的成像关系和两个相机之间的位置关系,需要在测量前对系统进行标定。求解相机参数的方法有很多,这类方法中,最主流的是美国微软研究院的张正友提出的利用旋转矩阵的正交条件以及非线性优化进行求解。标定图片拍摄过程中,相机和标标定都可以自由移动,且不需要知道运动参数。这种方法简单方便,柔性好,精度高,可以控制在0.5个Pixel以内。相机内外参数,完成了一点P从世界坐标系PW向图像坐标系(u,v)T的变换,即:
要完成空间点从世界坐标系向图像坐标系的转换,就要已知上述公式中的所有未知量,A和B分别表示内参矩阵和外参矩阵。其中,sx,sy,cx,cy和f是相机的内部参数,称作相机内参;R=R(α,β,γ)和T=(tx,ty,tz)T是相机在世界坐标系中的位姿,称作相机外参。
第二步,使用深度学习方法训练深度识别模型。深度学习就是一种特征学习方法,把原始数据通过一些简单的但是非线性的模型转变成为更高层次的,更加抽象的表达。通过足够多的转换的组合,非常复杂的函数也可以被学习。对于分类任务,高层次的表达能够强化输入数据的区分能力方面,同时削弱不相关因素。比如,一副图像的原始格式是一个像素数组,那么在第一层上的学习特征表达通常指的是在图像的特定位置和方向上有没有边的存在。第二层通常会根据那些边的某些排放而来检测图案,这时候会忽略掉一些边上的一些小的干扰。第三层或许会把那些图案进行组合,从而使其对应于熟悉目标的某部分。随后的一些层会将这些部分再组合,从而构成待检测目标。我们可以简单的理解成函数拟合的过程。
我们采集手势图片作为深度学习的训练输入,大量预先标记好的手势区域标签数据(在图片上手势所在框的位置),手势特征点标签数据(如指尖在图像上的位置)等作为深度学习训练的输出,通过训练学习网络得到用于识别手势特征区域和特征点的深度学习识别模型。
第三步,图像采集与手势特征点提取。使用双目立体视觉系统的相机采集图片,将其作为深度识别模型的输入,识别出采集图片中的手势区域和手势在图像上特征点。其中特征点的定义由标签数据定义,图3为两个相机识别到的五指及掌心特征点,a-1与b-1分别为两相机采集图片上的对应点,以此类推。我们可以得到多组手势上的特征对应点,再通过双目立体视觉系统得三维重建原理就可以得到特征点的三维坐标(如指尖)。
第四步,根据双目立体视觉系统内外参数和第三步得到的两个相机拍摄到手势区域的在图像上特征点重建出特征点三维坐标。由第二步可知,通过摄像机标定及校正,对于图像上任意一点,其三维坐标与d=c2-c1相关的,这个差值d就是左、右图像的视差。因此,只要找出左、右图像中的匹配点(即第三步深度学习方法提取出的两个相机采集到的特征对应点),获取视差,就能重构出空间点的三维坐标。
第五步,取相机连续多帧的提取的手势特征点三维坐标,与预先定义好的手势动作对比,判读手势含义。以图4所示的指尖点击操作为例,当点击操作进行时,点击的指尖点的三维坐标将在z向发生较大变化,x,y方向发生微小便宜,因此,我们可以依此来定义点击动作。设图4上A,B,C点分别为指尖进行点击操作时采集的三帧图像,通过上面方法求得三维坐标依次为P1(x1,y1,z1)、 P2(x2,y2,z2)、P3(x3,y3,z3),我们定义向量a=(x2-x1,y2-y1,z2-z1),向量b= (x3-x2,y3-y2,z3-z2),点击移动变化阈值t,向量夹角阈值n,只要指尖坐标变化满足条件{|x1-x2|<t,|x2-x3|<t,|y1-y2|<t,|y2-y3|<t,m=arccos(ab/|a||b|)>n},则我们认定发生点击操作。同理,只要我们定义合适约束条件,就能够根据相应特征点运动轨迹判断当前发生动作含义,实现人机交互等功能。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的方法及技术内容作出些许的更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,仍属于本发明技术方案的范围内。

Claims (7)

1.一种基于深度学习的三维动态手势识别方法,其特征在于:由相对设置的两个相机和一个计算中心构成,两个相机都与计算中心连接,两个相机用于采集图像;计算中心用于对采集到的手势图像使用深度学习方法进行手势区域提取、手势在图像上的特征点提取、特征点匹配和三维重建、以及三维姿态分析与轨迹追踪、完成手势的动态识别。
2.如权利要求1所述基于深度学习的三维动态手势识别方法,其特征在于:两个相机构成双目立体视觉系统,双目立体视觉系统用于获取手势三维模型;两个相机之间光轴存在0°到120°夹角,保证存在足够重合视场。
3.基于权利要求1、2所述基于深度学习的三维动态手势识别方法,其特征在于:双目立体视觉三维重建部分,采用相机标定方法获取相机内外参数,只重建相机采集图像上的手势特征点的三维坐标,用于后续手势动作的分析。
4.基于权利要求1、3所述基于深度学习的三维动态手势识别方法,其特征在于:手势特征点提取部分,采用深度学习方法,预先训练深度识别模型a、b,模型a用于识别相机采集到的图像中手势区域ROI,模型b提取模型a识别到的手势区域ROI内的手势在图像上特征点。
5.基于权利要求1、2、3、4所述基于深度学习的三维动态手势识别方法,其特征在于:三维姿态估计与轨迹追踪部分,根据双目立体视觉系统重建得到的手势特征点三维信息和其每一帧的变化,判断手势动作。
6.基于权利要求1所述基于深度学习的三维动态手势识别方法,其特征在于,按照如下步骤:
第一步:相机标定,两个相机构建双目立体视觉系统,分别标定两个相机内外参数,用于获取被测物体三维信息,两个相机内外参数包括相机有效焦距、光心、像元间距、两相机坐标系间平移矩阵和旋转矩阵;
第二步,使用深度学习方法训练深度识别模型,通过大量预先标记好的手势区域图像训练深度识别模型a,通过预先标记好手势特征点图像训练深度识别模型b;
第三步,图像采集与手势特征点提取,使用双目立体视觉系统的相机采集图像,使用深度识别模型a、b识别出采集图像中的手势区域和手势在图像上特征点;
第四步,根据双目立体视觉系统内外参数和第三步得到的两个相机拍摄到手势区域的在图像上特征点重建出特征点三维坐标;
第五步,取相机连续多帧的提取的手势特征点三维坐标,与预先定义好的手势动作对比,判读手势含义。
7.基于权利要求6所述基于深度学习的三维动态手势识别方法,其特征在于,按照如下步骤:
第一步,搭建双目立体视觉系统,标定相机内外参数:
(1)双目立体视觉根据光学三角法获取物体的三维信息,其关键是精确标定双目系统获得内外参数,匹配空间点分别在两个相机成像面上的像素坐标,根据视差原理计算深度信息;
双目立体视觉利用视差原理,根据光学三角法获取被测物体的深度信息;O1xwywzw是世界坐标系,O1xwywzw与左摄像机坐标系重合,yw垂直纸面;C1U1V1是左摄像机成像平面坐标系,V1垂直于纸面,C2U2V2是右摄像机成像平面坐标系,V2垂直于纸面;f是主距,b是基线长度;一空间点P的世界坐标为(xW,yW,zW),P在左、右摄像机成像平面中的坐标分别为P1(u1,v1)和P2(u2,v2);由于摄像机处在标准的双目立体视觉系统下,则v1=v2=h,根据相似三角形可得:
令dw=u2-u1,则P的三维世界空间坐标:
由于主点是以像素为单位的,而dw的单位是世界单位,因此需要通过使用x方向上的像素尺寸缩放dw,将其转换到像素坐标下:
dp=dw/sx
式中:
sx——x方向的缩放比例因子;
而在图像坐标系中:
dp=(cc1-cc2)+(c2-c1);
式中:
cc1,cc2——主点在图像坐标系下的列坐标;
c1,c2——点P1和P2在图像坐标系下的列坐标;
由于cc1-cc2对所有点都是常量,且通过摄像机标定及校正就可以得到,因此,P的世界坐标是与d=c2-c1相关的,这个差值d就是左、右图像的视差;因此,只要找出左、右图像中的匹配点,获取视差图,再经相机标定内外参数,就能重构出空间点的三维坐标;
(2)相机内外参数标定:
双目立体视觉系统是通过三角法计算物体的三维尺寸;而所谓三角是,两个相机的图像平面和被测物三者组成一个三角形,必须已知这三者之间的位置关系,通过三角法求解出被测物的三维空间尺寸;为了获取被测物到两个相机图像平面的成像关系和两个相机之间的位置关系,需要在测量前对系统进行标定;利用旋转矩阵的正交条件以及非线性优化进行求解;标定图片拍摄过程中,相机和标标定都可以自由移动,且不需要知道运动参数;控制在0.5个Pixel以内;相机内外参数,完成了一点P从世界坐标系PW向图像坐标系(u,v)T的变换,即:
要完成空间点从世界坐标系向图像坐标系的转换,就要已知上述公式中的所有未知量,A和B分别表示内参矩阵和外参矩阵;其中,sx,sy,cx,cy和f是相机的内部参数,称作相机内参;R=R(α,β,γ)和T=(tx,ty,tz)T是相机在世界坐标系中的位姿,称作相机外参;
第二步,使用深度学习方法训练深度识别模型;采集手势图片作为深度学习的训练输入,大量预先标记好的手势区域标签数据,手势区域标签数据为在图片上手势所在框的位置,手势特征点标签数据作为深度学习训练的输出,通过训练学习网络得到用于识别手势特征区域和特征点的深度学习识别模型;
第三步,图像采集与手势特征点提取;使用双目立体视觉系统的相机采集图片,将其作为深度识别模型的输入,识别出采集图片中的手势区域和手势在图像上特征点;其中特征点的定义由标签数据定义,a-1与b-1分别为两相机采集图片上的对应点,以此类推;得到多组手势上的特征对应点,再通过双目立体视觉系统得三维重建原理就可以得到特征点的三维坐标;
第四步,根据双目立体视觉系统内外参数和第三步得到的两个相机拍摄到手势区域的在图像上特征点重建出特征点三维坐标;由第二步可知,通过摄像机标定及校正,对于图像上任意一点,其三维坐标与d=c2-c1相关的,这个差值d就是左、右图像的视差;因此,只要找出左、右图像中的匹配点,所述匹配点即第三步深度学习方法提取出的两个相机采集到的特征对应点,获取视差,就能重构出空间点的三维坐标。
第五步,取相机连续多帧的提取的手势特征点三维坐标,与预先定义好的手势动作对比,判读手势含义;以图4所示的指尖点击操作为例,当点击操作进行时,点击的指尖点的三维坐标将在z向发生较大变化,x,y方向发生微小便宜,因此,我们可以依此来定义点击动作;设图4上A,B,C点分别为指尖进行点击操作时采集的三帧图像,通过上面方法求得三维坐标依次为P1(x1,y1,z1)、P2(x2,y2,z2)、P3(x3,y3,z3),我们定义向量a=(x2-x1,y2-y1,z2-z1),向量b=(x3-x2,y3-y2,z3-z2),点击移动变化阈值t,向量夹角阈值n,只要指尖坐标变化满足条件{|x1-x2|<t,|x2-x3|<t,|y1-y2|<t,|y2-y3|<t,m=arccos(ab/|a||b|)>n},则我们认定发生点击操作;同理,只要我们定义合适约束条件,就能够根据相应特征点运动轨迹判断当前发生动作含义,实现人机交互等功能。
CN201810142141.5A 2018-02-11 2018-02-11 一种基于深度学习的三维动态手势识别方法 Pending CN108256504A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810142141.5A CN108256504A (zh) 2018-02-11 2018-02-11 一种基于深度学习的三维动态手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810142141.5A CN108256504A (zh) 2018-02-11 2018-02-11 一种基于深度学习的三维动态手势识别方法

Publications (1)

Publication Number Publication Date
CN108256504A true CN108256504A (zh) 2018-07-06

Family

ID=62745085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810142141.5A Pending CN108256504A (zh) 2018-02-11 2018-02-11 一种基于深度学习的三维动态手势识别方法

Country Status (1)

Country Link
CN (1) CN108256504A (zh)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108858252A (zh) * 2018-09-11 2018-11-23 清研同创机器人(天津)有限公司 一种高压带电作业机器人系统及轨迹规划方法
CN109344701A (zh) * 2018-08-23 2019-02-15 武汉嫦娥医学抗衰机器人股份有限公司 一种基于Kinect的动态手势识别方法
CN109521774A (zh) * 2018-12-27 2019-03-26 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
CN109657634A (zh) * 2018-12-26 2019-04-19 中国地质大学(武汉) 一种基于深度卷积神经网络的3d手势识别方法及系统
CN109829947A (zh) * 2019-02-25 2019-05-31 北京旷视科技有限公司 位姿确定方法、托盘装载方法、装置、介质及电子设备
CN109858524A (zh) * 2019-01-04 2019-06-07 北京达佳互联信息技术有限公司 手势识别方法、装置、电子设备及存储介质
CN110070039A (zh) * 2019-04-23 2019-07-30 长讯通信服务有限公司 基于深度学习的机房机柜及主控板感知与坐标测量方法及装置
CN110297545A (zh) * 2019-07-01 2019-10-01 京东方科技集团股份有限公司 手势控制方法、手势控制装置和系统、以及存储介质
CN110487216A (zh) * 2019-09-20 2019-11-22 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法
CN110781886A (zh) * 2019-10-25 2020-02-11 福州米鱼信息科技有限公司 一种基于图像及ocr识别的关键词获取方法
CN110849627A (zh) * 2019-11-27 2020-02-28 哈尔滨理工大学 一种宽度迁移学习网络及基于宽度迁移学习网络的滚动轴承故障诊断方法
CN110865704A (zh) * 2019-10-21 2020-03-06 浙江大学 一种用于360°悬浮光场三维显示系统的手势交互装置和方法
CN111222401A (zh) * 2019-11-14 2020-06-02 北京华捷艾米科技有限公司 一种手部关键点三维坐标的识别方法及装置
CN111245688A (zh) * 2019-12-26 2020-06-05 的卢技术有限公司 一种基于室内智能控制电器设备的方法及系统
CN111338461A (zh) * 2018-12-18 2020-06-26 鸿合科技股份有限公司 一种手势操作方法及装置、电子设备
CN111435429A (zh) * 2019-01-15 2020-07-21 北京伟景智能科技有限公司 一种基于双目立体数据动态认知的手势识别方法及系统
CN111639531A (zh) * 2020-04-24 2020-09-08 中国人民解放军总医院 一种基于手势识别的医学模型交互可视化方法及系统
CN111736707A (zh) * 2020-08-14 2020-10-02 广州盈可视电子科技有限公司 一种画面切换方法和装置
CN112215134A (zh) * 2020-10-10 2021-01-12 北京华捷艾米科技有限公司 手势跟踪方法及装置
CN112287868A (zh) * 2020-11-10 2021-01-29 上海依图网络科技有限公司 一种人体动作识别方法及装置
WO2021022934A1 (zh) * 2019-08-05 2021-02-11 上海亨临光电科技有限公司 一种基于被动式毫米波/太赫兹成像技术的三维成像方法
CN112767536A (zh) * 2021-01-05 2021-05-07 中国科学院上海微系统与信息技术研究所 一种对象的三维重建方法、装置、设备及存储介质
CN114690900A (zh) * 2022-03-16 2022-07-01 中数元宇数字科技(上海)有限公司 一种虚拟场景中的输入识别方法、设备及存储介质
CN116401725A (zh) * 2023-06-05 2023-07-07 中交第一公路勘察设计研究院有限公司 基于双目视觉的混凝土实时3d打印路径规划方法及系统
CN116740334A (zh) * 2023-06-23 2023-09-12 河北大学 一种基于双目视觉和改进yolo的无人机入侵检测定位方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102799271A (zh) * 2012-07-02 2012-11-28 Tcl集团股份有限公司 一种基于人手手势的交互命令识别方法及系统
CN103179359A (zh) * 2011-12-21 2013-06-26 北京新岸线移动多媒体技术有限公司 控制视频终端的方法及装置、视频终端
CN104317391A (zh) * 2014-09-24 2015-01-28 华中科技大学 一种基于立体视觉的三维手掌姿态识别交互方法和系统
CN104821010A (zh) * 2015-05-04 2015-08-05 清华大学深圳研究生院 基于双目视觉的人手三维信息实时提取方法及系统
CN106339680A (zh) * 2016-08-25 2017-01-18 北京小米移动软件有限公司 人脸关键点定位方法及装置
US20170068849A1 (en) * 2015-09-03 2017-03-09 Korea Institute Of Science And Technology Apparatus and method of hand gesture recognition based on depth image
CN107168527A (zh) * 2017-04-25 2017-09-15 华南理工大学 基于区域卷积神经网络的第一视角手势识别与交互方法
CN107239728A (zh) * 2017-01-04 2017-10-10 北京深鉴智能科技有限公司 基于深度学习姿态估计的无人机交互装置与方法
CN107563494A (zh) * 2017-08-01 2018-01-09 华南理工大学 一种基于卷积神经网络和热图的第一视角指尖检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103179359A (zh) * 2011-12-21 2013-06-26 北京新岸线移动多媒体技术有限公司 控制视频终端的方法及装置、视频终端
CN102799271A (zh) * 2012-07-02 2012-11-28 Tcl集团股份有限公司 一种基于人手手势的交互命令识别方法及系统
CN104317391A (zh) * 2014-09-24 2015-01-28 华中科技大学 一种基于立体视觉的三维手掌姿态识别交互方法和系统
CN104821010A (zh) * 2015-05-04 2015-08-05 清华大学深圳研究生院 基于双目视觉的人手三维信息实时提取方法及系统
US20170068849A1 (en) * 2015-09-03 2017-03-09 Korea Institute Of Science And Technology Apparatus and method of hand gesture recognition based on depth image
CN106339680A (zh) * 2016-08-25 2017-01-18 北京小米移动软件有限公司 人脸关键点定位方法及装置
CN107239728A (zh) * 2017-01-04 2017-10-10 北京深鉴智能科技有限公司 基于深度学习姿态估计的无人机交互装置与方法
CN107168527A (zh) * 2017-04-25 2017-09-15 华南理工大学 基于区域卷积神经网络的第一视角手势识别与交互方法
CN107563494A (zh) * 2017-08-01 2018-01-09 华南理工大学 一种基于卷积神经网络和热图的第一视角指尖检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
罗庆生 等: "《仿生四足机器人技术》", 30 April 2016, 北京理工大学出版社 *

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344701A (zh) * 2018-08-23 2019-02-15 武汉嫦娥医学抗衰机器人股份有限公司 一种基于Kinect的动态手势识别方法
CN109344701B (zh) * 2018-08-23 2021-11-30 武汉嫦娥医学抗衰机器人股份有限公司 一种基于Kinect的动态手势识别方法
CN108858252A (zh) * 2018-09-11 2018-11-23 清研同创机器人(天津)有限公司 一种高压带电作业机器人系统及轨迹规划方法
CN111338461A (zh) * 2018-12-18 2020-06-26 鸿合科技股份有限公司 一种手势操作方法及装置、电子设备
CN109657634A (zh) * 2018-12-26 2019-04-19 中国地质大学(武汉) 一种基于深度卷积神经网络的3d手势识别方法及系统
CN109521774A (zh) * 2018-12-27 2019-03-26 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
CN109521774B (zh) * 2018-12-27 2023-04-07 南京芊玥机器人科技有限公司 一种基于强化学习的喷涂机器人轨迹优化方法
CN109858524B (zh) * 2019-01-04 2020-10-16 北京达佳互联信息技术有限公司 手势识别方法、装置、电子设备及存储介质
CN109858524A (zh) * 2019-01-04 2019-06-07 北京达佳互联信息技术有限公司 手势识别方法、装置、电子设备及存储介质
US11163373B2 (en) 2019-01-04 2021-11-02 Beijing Dajia Internet Information Technology Co., Ltd. Method and electronic device of gesture recognition
CN111435429A (zh) * 2019-01-15 2020-07-21 北京伟景智能科技有限公司 一种基于双目立体数据动态认知的手势识别方法及系统
CN111435429B (zh) * 2019-01-15 2024-03-01 北京伟景智能科技有限公司 一种基于双目立体数据动态认知的手势识别方法及系统
CN109829947A (zh) * 2019-02-25 2019-05-31 北京旷视科技有限公司 位姿确定方法、托盘装载方法、装置、介质及电子设备
CN110070039A (zh) * 2019-04-23 2019-07-30 长讯通信服务有限公司 基于深度学习的机房机柜及主控板感知与坐标测量方法及装置
US11609638B2 (en) 2019-07-01 2023-03-21 Boe Technology Group Co., Ltd. Recognizing and tracking gestures
CN110297545A (zh) * 2019-07-01 2019-10-01 京东方科技集团股份有限公司 手势控制方法、手势控制装置和系统、以及存储介质
CN110297545B (zh) * 2019-07-01 2021-02-05 京东方科技集团股份有限公司 手势控制方法、手势控制装置和系统、以及存储介质
WO2021022934A1 (zh) * 2019-08-05 2021-02-11 上海亨临光电科技有限公司 一种基于被动式毫米波/太赫兹成像技术的三维成像方法
CN110487216B (zh) * 2019-09-20 2021-05-25 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法
CN110487216A (zh) * 2019-09-20 2019-11-22 西安知象光电科技有限公司 一种基于卷积神经网络的条纹投影三维扫描方法
CN110865704A (zh) * 2019-10-21 2020-03-06 浙江大学 一种用于360°悬浮光场三维显示系统的手势交互装置和方法
CN110865704B (zh) * 2019-10-21 2021-04-27 浙江大学 一种用于360°悬浮光场三维显示系统的手势交互装置和方法
CN110781886A (zh) * 2019-10-25 2020-02-11 福州米鱼信息科技有限公司 一种基于图像及ocr识别的关键词获取方法
CN111222401B (zh) * 2019-11-14 2023-08-22 北京华捷艾米科技有限公司 一种手部关键点三维坐标的识别方法及装置
CN111222401A (zh) * 2019-11-14 2020-06-02 北京华捷艾米科技有限公司 一种手部关键点三维坐标的识别方法及装置
CN110849627A (zh) * 2019-11-27 2020-02-28 哈尔滨理工大学 一种宽度迁移学习网络及基于宽度迁移学习网络的滚动轴承故障诊断方法
CN111245688A (zh) * 2019-12-26 2020-06-05 的卢技术有限公司 一种基于室内智能控制电器设备的方法及系统
CN111639531A (zh) * 2020-04-24 2020-09-08 中国人民解放军总医院 一种基于手势识别的医学模型交互可视化方法及系统
CN111736707A (zh) * 2020-08-14 2020-10-02 广州盈可视电子科技有限公司 一种画面切换方法和装置
CN112215134A (zh) * 2020-10-10 2021-01-12 北京华捷艾米科技有限公司 手势跟踪方法及装置
CN112287868A (zh) * 2020-11-10 2021-01-29 上海依图网络科技有限公司 一种人体动作识别方法及装置
CN112767536A (zh) * 2021-01-05 2021-05-07 中国科学院上海微系统与信息技术研究所 一种对象的三维重建方法、装置、设备及存储介质
CN114690900A (zh) * 2022-03-16 2022-07-01 中数元宇数字科技(上海)有限公司 一种虚拟场景中的输入识别方法、设备及存储介质
CN116401725A (zh) * 2023-06-05 2023-07-07 中交第一公路勘察设计研究院有限公司 基于双目视觉的混凝土实时3d打印路径规划方法及系统
CN116740334A (zh) * 2023-06-23 2023-09-12 河北大学 一种基于双目视觉和改进yolo的无人机入侵检测定位方法
CN116740334B (zh) * 2023-06-23 2024-02-06 河北大学 一种基于双目视觉和改进yolo的无人机入侵检测定位方法

Similar Documents

Publication Publication Date Title
CN108256504A (zh) 一种基于深度学习的三维动态手势识别方法
JP7250709B2 (ja) 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム
US10109055B2 (en) Multiple hypotheses segmentation-guided 3D object detection and pose estimation
Aggarwal et al. Human activity recognition from 3d data: A review
CN100407798C (zh) 三维几何建模系统和方法
CN106780592A (zh) 基于相机运动和图像明暗的Kinect深度重建算法
CN111243093A (zh) 三维人脸网格的生成方法、装置、设备及存储介质
CN107357427A (zh) 一种用于虚拟现实设备的手势识别控制方法
CN107004275A (zh) 用于确定实物的至少一部分的处于绝对空间比例的3d重构件的空间坐标的方法和系统
CN103839277A (zh) 一种户外大范围自然场景的移动增强现实注册方法
KR20150121179A (ko) 실시간 스테레오 정합
CN106155299B (zh) 一种对智能设备进行手势控制的方法及装置
CN109974743A (zh) 一种基于gms特征匹配及滑动窗口位姿图优化的rgb-d视觉里程计
CN110555869A (zh) 提取增强现实系统中主要和次级运动的方法和系统
CN116682140A (zh) 基于注意力机制多模态融合的三维人体姿态估计算法
Angladon et al. The toulouse vanishing points dataset
CN103176606A (zh) 基于双目视觉识别的平面交互系统及方法
Sang et al. Inferring super-resolution depth from a moving light-source enhanced RGB-D sensor: a variational approach
McIlroy et al. Kinectrack: 3d pose estimation using a projected dense dot pattern
Xu et al. 3D joints estimation of the human body in single-frame point cloud
Al Ismaeil et al. Real-time enhancement of dynamic depth videos with non-rigid deformations
He Generation of human body models
Khan et al. A review of benchmark datasets and training loss functions in neural depth estimation
Yang et al. A hybrid 3D registration method of augmented reality for intelligent manufacturing
Song et al. SCE-SLAM: a real-time semantic RGBD SLAM system in dynamic scenes based on spatial coordinate error

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Chao

Inventor after: Li Huanhuan

Inventor after: Zhang Guanliang

Inventor after: Meng Qiang

Inventor after: Yang Ruoyang

Inventor after: Xu Wen

Inventor after: Fragrant rose

Inventor before: Zhou Xiang

Inventor before: Wang Chao

Inventor before: Li Huanhuan

Inventor before: Zhang Guanliang

Inventor before: Meng Qiang

Inventor before: Yang Ruoyang

Inventor before: Xu Wen

Inventor before: Fragrant rose

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180706