CN107423698B - 一种基于并联卷积神经网络的手势估计方法 - Google Patents

一种基于并联卷积神经网络的手势估计方法 Download PDF

Info

Publication number
CN107423698B
CN107423698B CN201710575403.2A CN201710575403A CN107423698B CN 107423698 B CN107423698 B CN 107423698B CN 201710575403 A CN201710575403 A CN 201710575403A CN 107423698 B CN107423698 B CN 107423698B
Authority
CN
China
Prior art keywords
hand
network
training
image
parallel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710575403.2A
Other languages
English (en)
Other versions
CN107423698A (zh
Inventor
胡友民
胡中旭
吴波
刘颉
肖玲
王诗杰
李雪莲
武敏健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huazhong University of Science and Technology
Original Assignee
Huazhong University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huazhong University of Science and Technology filed Critical Huazhong University of Science and Technology
Priority to CN201710575403.2A priority Critical patent/CN107423698B/zh
Publication of CN107423698A publication Critical patent/CN107423698A/zh
Application granted granted Critical
Publication of CN107423698B publication Critical patent/CN107423698B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于自动识别技术领域,并公开了一种基于并联卷积神经网络的手势估计方法,包括以下步骤:S1、采用RGB‑D相机获得彩色图像和深度图像;S2、根据预先训练得到的手部分类模块,在彩色图像上识别出手部所在的位置;S3、根据手部在彩色图像上对应的位置,找到其在深度图像上对应的位置,然后将手部深度图分离出来;S4、将分离出的深度图转化为灰度图,然后将灰度图输入并联卷积神经网络手势估计模块进行识别,从而获得能够表示手部姿态的多个关节点坐标;S5、输出手势结果。本发明提供了一种端到端的手势估计网络架构,降低了算法的复杂度,并联结构极大提高了网络收敛速度,极大节省了训练时间,提高了效率。

Description

一种基于并联卷积神经网络的手势估计方法
技术领域
本发明属于自动识别技术领域,更具体地,涉及一种手势估计方法。
背景技术
手势估计应用于诸多领域,如手语识别,人机交互,以及增强现实等,其目的在于通过图像的方式估计出手部若干个关节点坐标。与一般的手势识别不同,手势估计是估计手部若干个关节点的坐标,而不是简单的对手势进行分类,因此技术上难度更高。随着消费级深度相机的兴起,如Kinect等,引发了新一轮的基于深度传感器的研究热潮。但是对于手势估计仍然存在众多挑战,主要有以下几个原因:1.由于手部关节拥有多个自由度,因此手势姿态属于高维空间;2.手指之间相似性较高,且比较灵活容易相互遮挡;3.在手势追踪过程中由于移动速度较快容易产生噪声。
对于手势估计一种比较常用的做法是利用手部的3D模型去拟合输入的深度图像。然而这种方法比较复杂,一般需要多个假设。同时它也需要设计评估深度图与3d模型匹配程度的准则,然而建立该准则并不是简单的任务。
发明内容
针对现有技术的以上缺陷或改进需求,本发明提供了一种并联卷积神经网络的手势估计方法,能提高手势估计的精确度。
为实现上述目的,按照本发明,提供了一种基于并联卷积神经网络的手势估计方法,其特征在于,包括以下步骤:
S1、图像获取:采用RGB-D相机获得彩色图像和深度图像;
S2、图像分割:根据预先训练得到的手部分类模块,在彩色图像上识别出手部所在的位置;
S3、手部深度图获取:根据手部在彩色图像上对应的位置,找到其在深度图像上对应的位置,然后将手部深度图分离出来;
S4、手势估计:将分离出的深度图转化为灰度图,然后将灰度图输入并联卷积神经网络手势估计模块进行识别,从而获得能够表示手部姿态的多个关节点坐标;
S5、结果输出:输出手势结果。
优选地,步骤S2中,利用训练得到的手部分类模块的识别手部位置的过程具体如下:
1)、构建图像金字塔,从而获得多幅彩色图像,然后获取各彩色图像的梯度信息;
2)、固定选取框以固定步长分别扫描每幅彩色图像,每经过一处,计算统计当前框内的HOG特征;
3)、将得到的HOG特征输入训练好的手部分类模块中进行扫描识别,保存识别的手部特征;
4)、扫描识别完成后,得到一组选取框的坐标值,采用最大化抑制合并重叠的选取框,最终得到含有手部的扫描框,从而完成图像分割。
优选地,步骤S2中,手部分类模块通过以下步骤训练获得:
1)、收集含有手部的图片,且手部占图片的面积大约80%以上,然后再收集若干背景图片;
2)、计算收集到图片的HOG特征,然后含有手部的为正例,背景图为反例;
3)、采用支持向量机进行训练,求最优化的权重和偏置,最终得到训练好的手部分类模块。
优选地,步骤S4中,手势估计模块通过下述步骤获得:
1)、收集含有标注的手部深度图,采用了公开数据集,该公开数据集含有选定的标注好的手部深度图;
2)、采用数据增强的方式,扩充训练集;
3)、设计并联的深度卷积神经网络结构:该网络结构由深层网络和浅层网络并联形成,深层网络决定了网络的精确度,浅层网络决定网络的收敛速度;
4)、网络的目标函数J如式(1),训练目标是求解最优的网络权重值w,以使目标函数J的值最小;
其中xi为训练样本,yi为训练样本对应的标签值,N为训练样本的个数,λ为惩罚系数,f(xi)是训练样本xi对应的网络预测值,w是网络权重,||w||2为权重w的L2范数;
5)、网络训练算法采用随机梯度下降,将训练集分为多个小集合,每次随机无放回的抽取一个小集合的样本将其送入网络,求解目标函数得到的误差,然后利用反向传播算法将误差回传到每一层,再通过梯度下降算法更新权重,这样重复多次可将全部样本抽取一遍,称之为一个周期,最终训练多个周期;
6)、将最终训练得到的网络权重保存起来,即可得到训练好的手势估计模块。
优选地,步骤3)中网络结构的输出层采用的输出函数为:
其中,x为输入量,L为阈值常数,α和β分别为函数系数并且两者取值范围均为0到1,而且均随着训练过程而衰减。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
1)本发明提供了一种端到端的手势估计网络架构,降低了算法的复杂度,并联结构极大提高了网络收敛速度,极大节省了训练时间,提高了效率;
2)提高网络精确度,知道网络越深越关注局部特征,越浅越关注整体特征,因此采用并联结构,同时利用了输入图像的整体特征和局部特征,从而提高网络精确度;
3)提高网络泛化性和鲁棒性,通过采用数据增强的方式,扩充了数据集,提高了网络泛化能力,注意到现有的深度传感器得到的深度图往往含有噪声和信息缺失,利用数据增强的方式给训练集添加空洞和噪声,提高了网络的鲁棒性。
附图说明
图1是本发明的基于并联卷积神经网络的手势估计方法流程图;
图2是数据增强示意图;
图3是本发明设计的并联卷积神经网络的结构图;
图4是本发明设计的激活函数;
图5是本发明的实施效果;
图6是14个关节点位置示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
参照图1~图6,一种基于并联卷积神经网络的手势估计方法,包括以下步骤:
1)图像获取:通过RGB-D相机获取包含人手的彩色图和深度图;
2)图像分割:采用一个固定的选取框以固定步长扫描彩色图像金字塔,每经过一处计算当前框内的HOG特征,然后将该特征输入训练好的手部分类模块,得出是否包含人手,如果是则记录当前选取框的坐标,扫描完成后,统计确定的选取框,并将有重叠的进行合并。最终得到一个或几个含有手部的选取框。
3)手部深度图获取:在对应的深度图上选取上述含有手部的扫描框,并且加以固定深度,形成包围盒,该包围盒可以正确获取手部的深度信息;
4)手势估计:得到手部的深度信息后,将其转化为灰度图,并且归一化为固定大小128x128,输入训练好的基于并联卷积神经网络的手势估计模块中,然后得到14个手部关节点的三维坐标;
5)输出结果:利用得到的14个手部关节点坐标,即可恢复出手势的姿态。需要说明的是,本方法不仅限于输出该14个关节点,如需希望输出其他不同的关节点,只需按照权利要求4所述的方法重新训练手势估计模块即可。
进一步的,图像分割的具体过程分为
2.1)构建图像金字塔并计算图片的梯度信息;
2.2)固定选取框以固定步长扫描图像金字塔,即以固定大小的选取框分别扫描不同尺寸的彩色图像,每经过一处,计算统计当前框内的HOG特征;
2.3)将得到的HOG特征输入训练好的手部分类模块中,判断当前框内是否含有手部,如果是,则保存当前选取框的坐标;
2.4)扫描完成后,得到一组选取框的坐标值,采用最大化抑制合并重叠的选取框,最终得到若干个选取框。
所述步骤2.1中计算图片的梯度是这样计算的:
图像中像素点(x,y)的梯度为:
Gx(x,y)=H(x+1,y)-H(x-1,y)
Gy(x,y)=H(x,y+1)-H(x,y-1)
式中x,y分别表示像素点水平方向和垂直方向上的坐标值,Gx(x,y)和Gy(x,y)分别表示输入图像中像素点(x,y)处的水平方向和垂直方向上的梯度,H(x,y)表示(x,y)处的像素值。
则像素点(x,y)处的梯度幅值和梯度方向分别为:
式中G(x,y)表示梯度幅值,α(x,y)表示梯度方向。
进一步的,手部分类模块的制作过程为:
1)收集含有手部的图片,且手部占图片的面积大约80%以上,然后再收集若干背景图片;
2)计算收集到图片的HOG特征,然后含有手部的为正例,背景图为反例;
3)采用支持向量机(SVM)进行训练,求最优化的权重和偏置,最终得到训练好的手部分类模块。
进一步的手势估计模块是制作过程为:
1)收集含有标注的手部深度图,采用了公开数据集NYU,该数据集含有7万余张标注好的手部深度图;
2)手势估计属于高维空间,因此需要大量数据,采用数据增强的方式,如图2所示,扩充了训练集,将数据集扩充了30倍;
3)设计了一种并联的深度卷积神经网络结构,该结构如图3所示,其是方法的核心,该网络由深层网络和浅层网络并联形成,深层网络决定了网络的精确度,浅层网络决定网络的收敛速度,同时也会提高网络的精确度,该网络有几个特点:1.端到端的网络,直接输入手部深度图即可得到14个关节点坐标;2.没有传统的采样层,而是通过加大卷积核的步长来实现下采样,这样使下采样也可学习;3.网络为浅层和深层并联,这样可以同时利用局部信息和整体信息;4.输出层采用自己设计的输出函数。
4)网络的目标函数为下式,训练目标是求解最优的网络权重值w,以使目标函数J的值最小,为了提高泛化能力,采用了正则化技术和Dropout技术;
其中xi为训练样本,yi为训练样本对应的标签值,N为训练样本的个数,λ为惩罚系数,f(xi)是训练样本xi对应的网络预测值,w是网络权重,||w||2为权重w的L2范数。
5)网络训练算法采用随机梯度下降,将训练集分为一个个小集合(batch),每个集合大小为128,每次随机无放回的抽取一个batch的样本将其送入网络,求解目标函数得到的误差,然后利用反向传播算法将误差回传到每一层,再通过梯度下降算法更新权重,这样重复16000次可将全部样本抽取一遍,称之为一个周期,最终训练10个周期,共计约4天时间。
6)将最终训练得到的网络权重保存起来,即可得到训练好的手势估计模块。
进一步,设计的输出函数为:
其中x为输入量,L指阈值常数,α和β分别为函数系数,取值范围为0到1,而且均随着训练过程而衰减。如图4所示。
本发明不是局限于分类识别几种不同的手势,而是直接根据手部图像实时估计出当前的手势姿态,精度在公开数据集上达到了世界一流的水准,估计效果如图6所示,关键点坐标平均误差为6.9个像素,识别时间通过GPU加速可以达到30帧每秒。
本发明提供了一种算法框架以及深度神经网络配置,该网络配置可以在目前有限的计算条件下达到最优的精度,其它使用者可以采用该配置训练自己的手势估计器,并且可以修改最终输出关节点的个数,得到关节点坐标后,使用者可以根据自身需要使用这些信息。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (4)

1.一种基于并联卷积神经网络的手势估计方法,其特征在于,包括以下步骤:
S1、图像获取:采用RGB-D相机获得彩色图像和深度图像;
S2、图像分割:根据预先训练得到的手部分类模块,在彩色图像上识别出手部所在的位置;
S3、手部深度图获取:根据手部在彩色图像上对应的位置,找到其在深度图像上对应的位置,然后将手部深度图分离出来;
S4、手势估计:将分离出的深度图转化为灰度图,然后将灰度图输入并联卷积神经网络手势估计模块进行识别,从而获得能够表示手部姿态的多个关节点坐标,其中,手势估计模块通过下述步骤获得:
1)、收集含有标注的手部深度图,采用了公开数据集,该公开数据集含有选定的标注好的手部深度图;
2)、采用数据增强的方式,扩充训练集;
3)、设计并联的深度卷积神经网络结构:该网络结构由深层网络和浅层网络并联形成,深层网络决定了网络的精确度,浅层网络决定网络的收敛速度;
4)、网络的目标函数J如式(1),训练目标是求解最优的网络权重值w,以使目标函数J的值最小;
其中,xi为训练样本,yi为训练样本对应的标签值,N为训练样本的个数,λ为惩罚系数,f(xi)是训练样本xi对应的网络预测值,w是网络权重,||w||2为权重w的L2范数;
5)、网络训练算法采用随机梯度下降,将训练集分为多个小集合,每次随机无放回的抽取一个小集合的样本将其送入网络,求解目标函数得到的误差,然后利用反向传播算法将误差回传到每一层,再通过梯度下降算法更新权重,这样重复多次可将全部样本抽取一遍,称之为一个周期,最终训练多个周期;
6)、将最终训练得到的网络权重保存起来,即可得到训练好的手势估计模块;
S5、结果输出:输出手势结果。
2.根据权利要求1所述的一种基于并联卷积神经网络的手势估计方法,其特征在于,步骤S2中,利用训练得到的手部分类模块的识别手部位置的过程具体如下:
1)、构建图像金字塔,从而获得多幅彩色图像,然后获取各彩色图像的梯度信息;
2)、固定选取框以固定步长分别扫描每幅彩色图像,每经过一处,计算统计当前框内的HOG特征;
3)、将得到的HOG特征输入训练好的手部分类模块中进行扫描识别,保存识别的手部特征;
4)、扫描识别完成后,得到一组选取框的坐标值,采用最大化抑制合并重叠的选取框,最终得到含有手部的扫描框,从而完成图像分割。
3.根据权利要求1所述的一种基于并联卷积神经网络的手势估计方法,其特征在于,步骤S2中,手部分类模块通过以下步骤训练获得:
1)、收集含有手部的图片,且手部占图片的面积大约80%以上,然后再收集若干背景图片;
2)、计算收集到图片的HOG特征,然后含有手部的为正例,背景图为反例;
3)、采用支持向量机进行训练,求最优化的权重和偏置,最终得到训练好的手部分类模块。
4.根据权利要求1所述的一种基于并联卷积神经网络的手势估计方法,其特征在于,步骤3)中网络结构的输出层采用的输出函数为:
其中,x为输入量,L为阈值常数,α和β分别为函数系数并且两者取值范围均为0到1,而且均随着训练过程而衰减。
CN201710575403.2A 2017-07-14 2017-07-14 一种基于并联卷积神经网络的手势估计方法 Active CN107423698B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710575403.2A CN107423698B (zh) 2017-07-14 2017-07-14 一种基于并联卷积神经网络的手势估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710575403.2A CN107423698B (zh) 2017-07-14 2017-07-14 一种基于并联卷积神经网络的手势估计方法

Publications (2)

Publication Number Publication Date
CN107423698A CN107423698A (zh) 2017-12-01
CN107423698B true CN107423698B (zh) 2019-11-22

Family

ID=60426503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710575403.2A Active CN107423698B (zh) 2017-07-14 2017-07-14 一种基于并联卷积神经网络的手势估计方法

Country Status (1)

Country Link
CN (1) CN107423698B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108304806A (zh) * 2018-02-02 2018-07-20 华南理工大学 一种基于对数路径积分特征和卷积神经网络的手势识别方法
WO2019162241A1 (en) * 2018-02-21 2019-08-29 Robert Bosch Gmbh Real-time object detection using depth sensors
CN108520247B (zh) * 2018-04-16 2020-04-28 腾讯科技(深圳)有限公司 对图像中的对象节点的识别方法、装置、终端及可读介质
CN108594997B (zh) * 2018-04-16 2020-04-21 腾讯科技(深圳)有限公司 手势骨架构建方法、装置、设备及存储介质
CN108596256B (zh) * 2018-04-26 2022-04-01 北京航空航天大学青岛研究院 一种基于rgb-d物体识别分类器构造方法
CN108776773B (zh) * 2018-05-04 2022-03-29 华南理工大学 一种基于深度图像的三维手势识别方法及交互系统
CN108694386B (zh) * 2018-05-15 2021-08-10 华南理工大学 一种基于并联卷积神经网络的车道线检测方法
CN108983979B (zh) * 2018-07-25 2021-11-30 北京因时机器人科技有限公司 一种手势跟踪识别方法、装置和智能设备
CN111045511B (zh) * 2018-10-15 2022-06-07 华为技术有限公司 基于手势的操控方法及终端设备
CN111104820A (zh) * 2018-10-25 2020-05-05 中车株洲电力机车研究所有限公司 一种基于深度学习的手势识别方法
CN109717878A (zh) * 2018-12-28 2019-05-07 上海交通大学 一种用于孤独症共同注意诊断范式的检测系统及使用方法
CN111914595B (zh) * 2019-05-09 2022-11-15 中国科学院软件研究所 一种基于彩色图像的人手三维姿态估计方法和装置
CN110136130A (zh) * 2019-05-23 2019-08-16 北京阿丘机器人科技有限公司 一种检测产品缺陷的方法及装置
CN110399850B (zh) * 2019-07-30 2021-10-15 西安工业大学 一种基于深度神经网络的连续手语识别方法
CN110569817B (zh) * 2019-09-12 2021-11-02 北京邮电大学 基于视觉实现手势识别的系统和方法
CN110897865A (zh) * 2019-12-25 2020-03-24 中科彭州智慧产业创新中心有限公司 耳穴引导装置及方法
CN111507360A (zh) * 2020-04-13 2020-08-07 河南理工大学 一种基于深度学习的曲线特征描述方法
CN111597976A (zh) * 2020-05-14 2020-08-28 杭州相芯科技有限公司 一种基于rgbd相机的多人三维姿态估计方法
CN112487981A (zh) * 2020-11-30 2021-03-12 哈尔滨工程大学 基于双路分割的ma-yolo动态手势快速识别方法
CN113269089B (zh) * 2021-05-25 2023-07-18 上海人工智能研究院有限公司 基于深度学习的实时手势识别方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN105225226A (zh) * 2015-09-02 2016-01-06 电子科技大学 一种基于图像分割的级联可变形部件模型目标检测方法
CN105373785A (zh) * 2015-11-30 2016-03-02 北京地平线机器人技术研发有限公司 基于深度神经网络的手势识别检测方法与装置
CN106648103A (zh) * 2016-12-28 2017-05-10 歌尔科技有限公司 一种vr头戴设备的手势跟踪方法和vr头戴设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104598915A (zh) * 2014-01-24 2015-05-06 深圳奥比中光科技有限公司 一种手势识别方法与装置
CN105225226A (zh) * 2015-09-02 2016-01-06 电子科技大学 一种基于图像分割的级联可变形部件模型目标检测方法
CN105373785A (zh) * 2015-11-30 2016-03-02 北京地平线机器人技术研发有限公司 基于深度神经网络的手势识别检测方法与装置
CN106648103A (zh) * 2016-12-28 2017-05-10 歌尔科技有限公司 一种vr头戴设备的手势跟踪方法和vr头戴设备

Also Published As

Publication number Publication date
CN107423698A (zh) 2017-12-01

Similar Documents

Publication Publication Date Title
CN107423698B (zh) 一种基于并联卷积神经网络的手势估计方法
CN106056053B (zh) 基于骨骼特征点提取的人体姿势识别方法
CN105787439B (zh) 一种基于卷积神经网络的深度图像人体关节定位方法
CN104601964B (zh) 非重叠视域跨摄像机室内行人目标跟踪方法及系统
CN106909902B (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN105740945B (zh) 一种基于视频分析的人群计数方法
CN108830252A (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN107273905B (zh) 一种结合运动信息的目标主动轮廓跟踪方法
CN103020992B (zh) 一种基于运动颜色关联的视频图像显著性检测方法
CN104794737B (zh) 一种深度信息辅助粒子滤波跟踪方法
CN110046572A (zh) 一种基于深度学习的地标建筑物识别与检测方法
CN105160310A (zh) 基于3d卷积神经网络的人体行为识别方法
CN109543632A (zh) 一种基于浅层特征融合引导的深层网络行人检测方法
CN110135249A (zh) 基于时间注意力机制和lstm的人体行为识别方法
CN102609724B (zh) 一种基于双摄像头的周围环境信息提示方法
CN105740780A (zh) 人脸活体检测的方法和装置
CN109635726B (zh) 一种基于对称式深度网络结合多尺度池化的滑坡识别方法
CN106228569A (zh) 一种适用于水质监测的鱼体运动速度检测方法
CN102034247A (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN113762009B (zh) 一种基于多尺度特征融合及双注意力机制的人群计数方法
CN110046544A (zh) 基于卷积神经网络的数字手势识别方法
Zhao et al. Real-time sign language recognition based on video stream
CN110032932A (zh) 一种基于视频处理和决策树设定阈值的人体姿态识别方法
CN102063727A (zh) 一种基于协方差匹配的主动轮廓跟踪方法
CN110006444A (zh) 一种基于优化混合高斯模型的抗干扰视觉里程计构建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant