CN115223239B - 一种手势识别方法、系统、计算机设备以及可读存储介质 - Google Patents
一种手势识别方法、系统、计算机设备以及可读存储介质 Download PDFInfo
- Publication number
- CN115223239B CN115223239B CN202210717218.3A CN202210717218A CN115223239B CN 115223239 B CN115223239 B CN 115223239B CN 202210717218 A CN202210717218 A CN 202210717218A CN 115223239 B CN115223239 B CN 115223239B
- Authority
- CN
- China
- Prior art keywords
- gesture
- layer
- feature
- network
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 72
- 230000004927 fusion Effects 0.000 claims description 106
- 238000013527 convolutional neural network Methods 0.000 claims description 50
- 238000012549 training Methods 0.000 claims description 48
- 239000013598 vector Substances 0.000 claims description 39
- 238000012360 testing method Methods 0.000 claims description 31
- 238000011176 pooling Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 22
- 210000002569 neuron Anatomy 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 210000000707 wrist Anatomy 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 2
- 238000003709 image segmentation Methods 0.000 claims description 2
- 238000007500 overflow downdraw method Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 claims 1
- 238000002372 labelling Methods 0.000 claims 1
- 230000003993 interaction Effects 0.000 abstract description 6
- 238000010801 machine learning Methods 0.000 abstract description 2
- 210000003811 finger Anatomy 0.000 description 13
- 230000000694 effects Effects 0.000 description 5
- 210000004932 little finger Anatomy 0.000 description 4
- 210000003813 thumb Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000577395 Thenus Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明属于人机交互技术领域,具体公开了一种手势识别方法、系统、计算机设备以及可读存储介质。该方法通过创建一个基于MLP和CNN的手势识别模型,便于使用手势图片以及手部关键点特征数据作为混合输入,使得机器学习模型能够从手势图片以及手部关键点数据中获取和识别特征,本发明模型为通过输入手势图像和对应手部关键点特征数据来识别手势的多输入融合深度网络模型,该手势识别模型充分结合了MLP和CNN两种不同网络以及手势图片和手部关键点特征数据两种数据的优点,以提高手势识别网络的整体性能,有效地解决了当前手势识别中精度低、实时性差、鲁棒性差的问题,在模型中同时输入手势图片和手部关键点特征数据,获得了较高的手势识别精度。
Description
技术领域
本发明属于手势识别技术领域,涉及一种手势识别方法、系统、计算机设备以及可读存储介质。
背景技术
手势识别是人机交互和计算机视觉领域研究的热点,如虚拟现实、智能控制、娱乐游戏以及手语翻译等。手势识别应用领域的一个基本特征是实时性,因此,手势识别系统必须在用户输入手势的情况下提供实时结果。然而,由于设备条件、光照效果和背景的复杂程度不同,手势识别仍具挑战性。为了更好地实现人机交互,手势识别算法应该在各种光照强度、背景等复杂环境中具有良好的实时识别能力。目前手势识别方法主要分为两大类:
一是基于传感器的手势识别方法。此类方法的优点是手势识别不会被不同的背景分散注意力,但会造成佩戴笨重、不灵活且成本高的问题,违背了人机自然交互的初衷。
二是基于视觉的手势识别方法,此类方法需要通过摄像头获取手势的图像或视频。相比基于传感器的手势识别,基于视觉的手势识别系统,能够使用较低成本的摄像头可以让用户更自然地与计算机设备进行交互。在基于视觉的手势识别方法中,最常用的手势提取方法包括肤色检测、背景减法、边界建模、轮廓、手势分割以及手形估计等。
然而,这些传统的识别方法在进行手势识别过程中存在一些不足之处,如算法的鲁棒性不强,模型对数据集的依赖性大,样本数据受环境等因素影响,例如光照变化、背景问题、距离范围和多手势等问题,导致手势特征不明显,神经网络模型识别率低。
可见,基于视觉的手势识别方法,手势图像的预处理成为一个需要解决的问题。
随着深度学习算法的飞速发展,如YOLO(you only look once)(Redmon等,2016;Redmon和Farhadi,2017,2018)、SSD(single shot multibox detector)(Liu等,2016)、RCNN(region convolutional neural network)(Girshick等,2014)和Faster R-CNN(Ren等,2015)等算法在目标检测和分类问题中取得了较高的准确率,然而这些算法往往通过设计更深层次的网络结构来提取更多的深度特征,对硬件的计算能力和存储能力的要求很高,这些检测模型普遍存在模型较大和检测时间长等问题,难以在嵌入式设备中普及,也不能满足许多场合中对于实时性的要求。
发明内容
本发明的目的之一在于提出一种基于MLP和CNN的多输入融合深度网络的手势识别方法,以提高各种光照强度、背景等复杂环境下手势识别的准确性。
本发明为了实现上述目的,采用如下技术方案:
一种基于MLP和CNN的多输入融合深度网络的手势识别方法,包括如下步骤:
步骤1.获取原始手势图像数据,并构建原始手势图像数据集;
步骤2.对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
步骤3.搭建多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
其中,两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
步骤4.训练及测试多输入融合深度网络模型;
利用步骤2中训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
步骤5.对于待识别的手势图像,提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别,得到识别结果。
此外,本发明还提出了一种与上述基于MLP和CNN的多输入融合深度网络的手势识别方法相对应的基于MLP和CNN的多输入融合深度网络的手势识别系统,其技术方案如下:
一种基于MLP和CNN的多输入融合深度网络的手势识别系统,包括:
图像采集模块,用于获取原始手势图像数据并构建原始手势图像数据集;
数据预处理模块,用于对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
模型搭建及训练测试模块,用于搭建、训练以及测试多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
其中,两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
利用训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
预测模块,对于待识别的手势图像,用于提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别得到识别结果。
此外,本发明还提出了一种与上述多输入融合深度网络的手势识别方法相对应的计算机设备,该计算机设备包括存储器和一个或多个处理器。
所述存储器中存储有可执行代码,所述处理器执行所述可执行代码时,用于实现上面述及的基于MLP和CNN的多输入融合深度网络的手势识别方法。
此外,本发明还提出了一种与上述多输入融合深度网络的手势识别方法相对应的计算机可读存储介质,其上存储有程序;该程序被处理器执行时,
用于实现上面述及的基于MLP和CNN的多输入融合深度网络的手势识别方法。
本发明具有如下优点:
如上所述,本发明述及了一种多输入融合深度网络的手势识别方法,该方法通过创建一个基于MLP和CNN的手势识别模型,便于使用手势图片以及手部关键点特征数据作为混合输入,使得机器学习模型能够从手势图片以及手部关键点数据中获取和识别特征,本发明手势识别模型为通过输入手势图像和一些手部关键点特征数据来识别手势的多输入融合深度网络模型,该手势识别模型充分结合了MLP和CNN两种不同网络的优点,以提高手势识别网络的整体性能,有效地解决了当前手势识别中精度低、实时性差、鲁棒性差的问题,通过在模型中同时输入手势图片和手部关键点特征数据,获得了较高的手势识别精度。从应用对象看,本发明方法可以应用在单目相机采集的图像,所需设备简单方便,应用场景更为广泛。
附图说明
图1为本发明实施例中基于MLP和CNN双分支特征融合的手势识别方法的流程图;
图2为本发明实施例中基于MLP和CNN双分支特征融合的手势识别方法的模型框图;
图3为本发明实施例中提取的21个手部关键点位置分布图;
图4为本发明实施例中提取的手势图像示意图;
图5为本发明实施例中特征融合模块进行特征融合的示意图。
具体实施方式
下面结合附图以及具体实施方式对本发明作进一步详细说明:
本实施例述及了一种基于MLP和CNN的多输入融合深度网络的手势识别方法,以解决当前手势识别中存在的精度低、实时性差、鲁棒性差的技术问题。
如图1所示,基于MLP和CNN的多输入融合深度网络的手势识别方法,包括如下步骤:
步骤1.获取原始手势图像数据,并构建原始手势图像数据集。
本实施例中所使用的原始手势图像数据集从实际人机交互场景中收集而来。
在实际生活场景中使用摄像头获取不同光照强度以及不同背景下捕捉的手势图像,剔除模糊不清的手势图像,将收集好的手势图像进行分类打标签,建立原始手势图像数据集。
本实施例中总共收集了12种不同的手势,即类别总共有12种,例如握拳手势、伸大拇指手势、OK手势、五指全部伸开手势等等,代表了平时常用到的几种手势。
其中,每种手势包含1000张不同背景下的图片。
基于此,本实施例中建立了一个拥有12000张手势图片的原始手势图像数据集。
当然,本实施例中标签的数量或类别的数量并不局限于以上12种,例如,还可以根据适用场景的不同灵活增加一些手势,即扩充标签或类别的数量。
步骤2.对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据。
表1示出了从一幅原始手势图像中提取21个手部关键点的特征数据的过程。
其中,手部关键点的特征数据的提取方法如下:
首先利用目标检测框架(如openpose,mediapipe),从原始手势图像中实时准确地检测识别手部的21个手部关键点像素坐标,并输出每个关键点的像素坐标,如表1第2行所示。
识别出的21个手部关键点的具体位置如图3所示,各个手部关键点分别用0-20替代。
其中,0表示手腕,1表示拇指的CMC关节位,2表示拇指的MCP关节位,3表示拇指的IP关节位,4表示拇指的TIP关节位,5表示食指的MCP关节位,6表示食指的PIP关节位,7表示食指的DIP关节位,8表示食指的TIP关节位,9表示中指的MCP关节位,10表示中指的PIP关节位,11表示中指的DIP关节位,12表示中指的TIP关节位,13表示无名指的MCP关节位,14表示无名指的PIP关节位,15表示无名指的DIP关节位,16表示无名指的TIP关节位,17表示小指的MCP关节位,18表示小指的PIP关节位,19表示小指的DIP关节位,20表示小指的TIP关节位。
由于同一手势在手势图像中的不同位置、不同距离等因素影响下,得到的像素坐标是不同的,因此为了消除此影响,对原始手势图像采用欧几里得距离归一化处理。
欧几里得距离归一化处理的具体步骤如下:
定义手腕位置对应的手部关键点为基准手部关键点并将其设为原点,其余20个手部关键点与原点间的横、纵轴方向的距离绝对值作为对应手部关键点的新坐标,如表2第3行所示。
分别计算各个手部关键点的新坐标到原点坐标的欧几里得距离,如公式(1)所示。
其中,i=0,1,…,19,20。
ρi表示第i个手部关键点的新坐标(xi,yi)与原点坐标(x0,y0)之间的欧几里得距离。
计算出来的各个手部关键点的ρi值如表1中第4行所示。
根据公式(1)中得到的ρi,由公式(2)进一步归一化处理。
ki=(ρi-μ)/σ (2)
其中,ki为手部第i个手部关键点经过欧几里得归一化处理后的数值,即手部关键点特征数据,各个手部关键点的ρi值如表1中第5行所示。
μ、σ分别表示21个手部关键点经欧式距离处理后的均值和标准差。
μ、σ的计算方式如公式(3)、公式(4)所示。
其中,由于手部关键点的数量为21个,因此此处n取值为20。
表1
手部关键点 | 0 | 1 | 2 | … | 18 | 19 | 20 |
原始坐标 | [74,322] | [140,312] | [190,278] | … | [60,142] | [54,110] | [47,82] |
① | [0,0] | [66,-10] | [116,-44] | … | [-14,-180] | [-20,-212] | [-27,-240] |
② | 0.00 | 66.75 | 124.07 | … | 180.54 | 212.94 | 241.51 |
ki | -2.74 | -1.75 | -0.90 | … | -0.06 | 0.42 | 0.84 |
通过欧几里得距离归一化处理,将相同手势在不同位置、不同距离下的关键点像素坐标转换为无单位的数值,使得数据标准统一化,提高了数据可比性。
接着从同一幅原始手势图像中提取手势图片数据,提取过程如下:
利用图像分割显示目标检测框架(如openpose,mediapipe)检测的手势关键点及轮廓,然后进行膨胀操作,接着去除杂乱背景,并将手势图片调整为统一尺寸大小,例如64×64。
通过以上过程完成了对手势图片的提取,提取后的手势图像如图4所示。
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据。
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;其中训练数据集用于模型的训练,测试数据集用于模型的性能测试。
本实施例中的手势识别方法,用户无需佩戴任何辅助性设备或者其他标记物,将目标检测框架识别出来的手部关键点特征数据和对应手势图片数据结合起来,以获得更多更准确的特征信息,本发明方法在不同的人机交互场景下具有良好的识别鲁棒性和实时性。
步骤3.搭建多输入融合深度网络模型MIFD-Net(Multi-input fusion deepnetwork)。如图2所示,多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块。
本实施例中特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络。
在设计的MIFD-Net模型中,使用CNN提取手势图片特征信息的共包含九层网络:
本实施例CNN分支网络的输入是预处理后的手势图片,输入尺寸大小为64×64×3,包含一个输入层、三个卷积层、三个最大池化层以及两个全连接层。
定义三个卷积层分别为第一卷积层Conv1、第二卷积层Conv2以及第三卷积层Conv3。
定义三个最大池化层分别为第一最大池化层Pool1、第二最大池化层Pool2以及第三最大池化层Pool3,两个全连接层分别为第一全连接层Fc1以及第二全连接层Fc2。
输入层、第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第一全连接层以及第二全连接层依次连接。
第一卷积层Conv1、第二卷积层Conv2以及第三卷积层Conv3分别包含16、32、64个滤波器,第一卷积层、第二卷积层以及第三卷积层的卷积核的大小均为3×3。
其中,第一卷积层、第二卷积层以及第三卷积层后均设置一个ReLU激活函数。
第一最大池化层、第二最大池化层以及第三最大池化层采用最大池化,设置步长为2。
第一全连接层Fc1的神经元个数为32。
第二全连接层Fc2的神经元个数为类别的数量,在本实施例中例如为12个。
以上CNN分支网络的设计,可保证本实施例在针对预处理后的手势图像,所设计的CNN分支网络能够在保证准确率的同时拥有着更少的模型参数量,降低了计算量。
本实施例设计的MIFD-Net模型中,使用MLP提取手部关键点特征信息。
其中,MLP分支网络由三层全连接层构成。
定义三层全连接层分别为第三全连接层Fc3、第四全连接层Fc4以及第五全连接层Fc5;则第三全连接层、第四全连接层以及第五全连接层依次连接。
第三全连接层Fc3作为MLP分支网络的输入层,包含21个神经元,输入为预处理后得到的21个手部关键点特征数据;第四全连接层Fc4为隐藏层,包含16个神经元。
第五全连接层Fc5为输出层,第五全连接层中神经元的个数设置为类别的数量。在本实施例中类别的数量设定为12个,此处第五全连接层中神经元的数量也为12个。
本实施例中使用Relu函数作为各层全连接层之后的激活函数。
两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连。
本实施例设计的MIFD-Net模型中,分支网络MLP提取的特征向量Tout包含较多的手部关键点位置信息,分支网络CNN提取的特征向量Jout包含较多的语义信息。
图5展示了本发明设计的自适应权重特征融合模块C1。
特征融合模块对两个分支网络提取的特征信息合理融合,引入自适应的特征权重ω1、ω2,使模型根据数据的特征分布来自行决定权重参数,在特征融合模块以不同的权重来融合特征。
融合的手势特征Cf使用公式(5)计算得来:
其中,代表Sum Fusion融合方式,权重ω1、ω2由公式(6)得到。
其中,i=1,2,j=1,2,ωi为归一化的权重,且∑ωi=1,αi为初始化的权重参数,将αi添加到优化器更新的参数中,使αi向损失函数最小化的方向进行优化。
MIFD-Net中的特征融合模块引入了两个可训练的权重参数ω1、ω2。
伴随着迭代过程的进行,网络的Loss逐渐趋于稳定,ω1、ω2的值逐渐适应其特征,充分考虑不同特征间的互补信息,获得更好的融合效果,模型泛化能力增强。
最终经过特征融合模块融合后的手势特征信息经过两层全连接层完成最终的分类,分类模块包括两个全连接层,分别为第六全连接层Fc6以及第七全连接层Fc7。
第六全连接层Fc6包含32个神经元,第七全连接层Fc7作为输出层,使用Softmax分类函数,神经元的个数设置为类别的数量,在本实施例中例如为12个。
本实施例中模型的具体参数如表2所示,其中:
Input1为手势图片,Input2为对应的手势关键点的特征数据,Flatten层将数据展平。
一般将Flatten层放置在卷积层和全连接层中间,起到一个转换的作用。
卷积层的输出结果是二维张量,经过卷积层后会输出多个特征图,需要将这些特征图转换成向量序列的形式,才能与全连接层一一对应。
表2
层 | 卷积核大小 | 卷积核个数 | 步长 | 输出大小 | 参数数量 |
Input1 | - | - | - | 64×64×3 | - |
Conv1 | 3×3 | 16 | 1 | 64×64×16 | 448 |
Pool1 | 2×2 | - | 2 | 32×32×16 | - |
Conv2 | 3×3 | 32 | 1 | 32×32×32 | 4640 |
Pool2 | 2×2 | - | 2 | 16×16×32 | - |
Conv3 | 3×3 | 64 | 1 | 16×16×64 | 18496 |
Pool3 | 2×2 | - | 2 | 8×8×64 | - |
Flatten | 4096 | - | |||
FC1 | - | - | - | 32 | 131104 |
FC2 | - | - | - | 12 | 396 |
Input2 | - | - | - | 21 | |
FC3 | - | - | - | 21 | 462 |
FC4 | - | - | - | 16 | 352 |
FC5 | - | - | - | 12 | 204 |
C1 | - | - | - | 12 | 2 |
FC6 | - | - | - | 32 | 416 |
FC7 | - | - | - | 12 | 396 |
本发明搭建的多输入融合深度网络模型具有如下优势:
使用手势图片和对应的手部关键点特征作为混合输入,使用CNN和MLP分支网络模型分别提取其特征,通过进一步特征融合,从而获取更多信息,进而提高模型的准确率。
本发明同时采用手势图片数据以及手部关键点特征数据,是因为不同数据的表现方式不一样,看待事物的角度也会不一样,因此存在一些互补(所以比单特征更优秀)的现象。
其中,手部关键点特征数据中包含更精确的手部关键点位置信息,手势图片数据中则包含了更全面的手势全局信息,MIFD-Net联合手部关键点信息和图像视觉信息共同推理,通过使用自适应的权重,合理利用了不同信息的间的互补性,使得模型更具有普适性。
步骤4.训练及测试多输入融合深度网络模型。
利用步骤2中训练数据集中的样本数据训练多输入融合深度网络。
多输入融合深度网络的训练过程如下:
将步骤2得到的21个手部关键点的特征数据作为分支网络MLP的输入,经过隐藏层进行特征提取,在输出层得到一个第一特征向量,标记为特征向量Tout。
将步骤2得到的手势图片数据作为分支网络CNN的输入,经过CNN网络提取特征后,得到一个第二特征向量,标记为输出特征向量Jout。
为了获得更多特征信息增加识别准确率,本发明通过特征融合模块C1使用自适应特征融合的方法将两个分支模型的输出向量组合起来,然后进一步经过全连接神经网络使用softmax分类器进行预测分类。
在训练过程中使用了Dropout防止过拟合,使得模型收敛速度加快,本实施例中使用了分类交叉熵损失函数,计算方法如公式(2)所示:
其中,m是手势类别的数量,表示模型的预测输出,yi表示真实的标签。
本发明将模型训练的epoch设置为200,batchsize设置为32。该模型使用了Adam优化器进行训练,其中初始学习率设置为0.001,decay设置为1e-3/200。
根据预测输出与对应的分类标签进行计算,得出分类损失函数Loss值。
本发明通过使用EarlyStopping方法来监测模型训练的精度,在网络模型训练的过程中,记录每一次epoch的验证集Loss值,并记录其中的最小Loss值。
当连续20次Epoch验证集Loss值一直大于这个最小Loss值时,则认为验证集Loss值不再下降,停止模型训练更新,取整个训练过程中最小Loss值的epoch训练结果作为最终的模型权值,进而保存最优的模型以及权重参数。
从保存的模型权重中读取参数,得到训练好的多输入融合深度网络模型。
在训练过程中,本发明方法将原始手势图像数据集按照训练集:测试集:验证集=7:2:1的比例切分,在训练过程中epoch设置为200,batchsize设置为32。
该模型使用了Adam优化器进行训练,初始学习率设置为0.001,decay设置为1e-3/200。经过100次迭代训练得到的网络模型在测试集上的平均准确率可以达到99.65%。
步骤5.对于待识别的手势图像,提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别,得到识别结果。
为了验证本发明方法的有效性,本发明还进行了如下实验。
为了方便比较不同模型,将数据集按训练集:测试集:验证集=7:2:1的比例切分,保持输入到各模型的数据一致,在训练完模型后,本发明对模型的效果进行评价。
本发明采用的模型评价指标有准确率(Accuracy)、召回率(Recall)、精确率(Precision)、F值(F-Measure)。其中,各个模型评价指标的计算方法为:
其中,TP表示正例样本被标记为正例;FP表示假例样本被标记为正例;TN表示假例样本被标记为假例;FN表示正例样本被标记为假例。
针对21个手部关键点特征提取,本实施例将MLP分支网络模型与其他处理方式进行了对比。其中,手部关键点数据在不同模型下的实验结果对比如表3所示。
表3
名称 | 精确率 | 召回率 | F值 | 准确率 |
Logistic回归模型 | 0.96 | 0.96 | 0.96 | 0.9634 |
支持向量机模型 | 0.97 | 0.96 | 0.96 | 0.9631 |
1D-CNN模型 | 0.97 | 0.97 | 0.97 | 0.9705 |
本发明MLP模型 | 0.98 | 0.97 | 0.97 | 0.9725 |
由上述表3对比能够看出,本实施例采用的MLP获得了更好的分类性能。
此外,在针对预处理后的手势图像,本实施例与其他方式进行了对比,三种CNN模型在图片预处理后的数据集下的性能表现对比结果如表4所示。
表4
由表4能够看出,CNN网络在保证准确率的同时拥有着更少的模型参数量。
此外,本实施例还比较了MIFD-Net模型与其他用于手势识别的CNN的模型复杂度指标,即Parameters、FLOPs,如表5所示。其中,表5为手势识别模型复杂度对比。
模型的Parameters和FLOPs是衡量模型大小的主要指标,Parameters衡量神经网络中所包含参数的数量,参数数量越小,模型体积越小,更容易部署。
每个卷积层的参数量可以用公式(8)计算。
Parasconv=n×(k×k×c+1) (8)
全连接层的参数量可用公式(9)计算。
Parasfc=n×(c+1) (9)
其中,Parasconv、Parasfc分别代表卷积层、全连接层的参数量。
FLOPs衡量神经网络中前向传播的运算次数,FLOPs越小,则计算速度越快。每个卷积层的FLOPs可以用公式(10)计算。
FLsconv=2×h×w×(k×k×c+1)×n (10)
全连接层的参数量FLsfc可用公式(11)计算。
FLsfc=(2c-1)×n (11)
其中,FLsconv、FLsfc分别代表代表卷积层、全连接层的FLOPs。
卷积核的大小为k×k,c、n分别代表该层输入特征图和输出特征图的通道数。
表5
模型 | Parameters | FLOPs |
MIFD-Net | 0.157×106 | 0.84×106 |
MobileNet V2 | 2.3×106 | 320×106 |
AlexNet | 62×106 | 700×106 |
GoogleNet | 7×106 | 1510×106 |
VGG16 | 138×106 | 15500×106 |
SqueezeNet | 0.7×106 | 830×106 |
InceptionV3 | 23.9×106 | 2850×106 |
由上述表5能够看出,本实施例中的MIFD-Net的模型参数量和FLOPs更少。
通过在本实施例自建的12种手势共12000张图片的数据集中可以达到99.65%的准确率,识别距离最远可达到500cm,识别速度为32帧/秒。
在公开数据集The NUS hand posture datasets II中,本发明算法达到了98.89%的准确率。经过测试,在实际应用场景中可以达到很好的实时准确率。
本发明方法通过图像采集模块检测到手势后,经过设计的手势预处理模型,得到手部关键点数据和消除背景后的手势图像数据,送入MIFD-Net模型,得到预测结果。
本发明方法能够减少复杂背景的干扰,在强光、复杂背景中取得了良好的实时效果,实现在摄像头不同背景、不同距离下的实时手势识别。
本发明述及的多输入融合深度网络的手势识别方法,应用于静态手势识别中。
基于同样的发明构思,本发明实施例还提供了一种用于实现上述基于MLP和CNN的多输入融合深度网络的手势识别方法的识别系统,其包括如下几个模块:
图像采集模块,用于获取原始手势图像数据并构建原始手势图像数据集;
数据预处理模块,用于对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
模型搭建及训练测试模块,用于搭建、训练以及测试多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
其中,两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
利用训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
预测模块,对于待识别的手势图像,用于提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别得到识别结果。
需要说明的是,基于MLP和CNN的多输入融合深度网络的手势识别系统中,各个模块的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
本发明提出的MIFD-Net模型在保持精度的同时较少了模型参数,因此,在各种情况下,包括户外活动,可以使用配备该系统的便携式终端轻松识别常用手势。
此外,本发明还提出了一种用于实现上述多输入融合深度网络的手势识别方法的计算机设备。该计算机设备包括存储器和一个或多个处理器。
其中,在存储器中存储有可执行代码,处理器执行可执行代码时,用于实现上述多输入融合深度网络的手势识别方法。
本实施例中计算机设备为任意具备数据数据处理能力的设备或装置,此处不再赘述。
此外,本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,用于实现上述多输入融合深度网络的手势识别方法。
该计算机可读存储介质可以是任意具备数据处理能力的设备或装置的内部存储单元,例如硬盘或内存,也可以是任意具备数据处理能力的设备的外部存储设备,例如设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。
当然,以上说明仅仅为本发明的较佳实施例,本发明并不限于列举上述实施例,应当说明的是,任何熟悉本领域的技术人员在本说明书的教导下,所做出的所有等同替代、明显变形形式,均落在本说明书的实质范围之内,理应受到本发明的保护。
Claims (10)
1.一种基于MLP和CNN的多输入融合深度网络的手势识别方法,其特征在于,
包括如下步骤:
步骤1.获取原始手势图像数据,并构建原始手势图像数据集;
步骤2.对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
步骤3.搭建多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
步骤4.训练及测试多输入融合深度网络模型;
利用步骤2中训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
步骤5.对于待识别的手势图像,提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别,得到识别结果。
2.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤1具体为:
获取不同光照强度以及不同背景下捕捉的手势图像,剔除其中模糊不清的手势图像,将收集好的手势图像进行分类打标签,建立原始手势图像数据集。
3.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤2中,手部关键点的特征数据的提取方法如下:
首先利用目标检测框架从原始手势图像中检测识别手部的21个手部关键点像素坐标;
对原始数据集采用欧几里得距离归一化处理,具体步骤如下:
定义手腕位置对应的手部关键点为基准手部关键点并将其设为原点,其余20个手部关键点与原点间的横、纵轴方向的距离绝对值作为对应手部关键点的新坐标;
分别计算各个手部关键点的新坐标到原点坐标的欧几里得距离,如公式(1)所示;
其中,i=0,1,…,19,20;
ρi表示第i个手部关键点的新坐标(xi,yi)与原点坐标(x0,y0)之间的欧几里得距离;
根据公式(1)中得到的ρi,由公式(2)进一步归一化处理;
ki=(ρi-μ)/σ (2)
其中,ki为手部第i个手部关键点经过欧几里得归一化处理后的数值,即手部关键点特征数据;μ、σ分别表示21个手部关键点经欧式距离处理后的均值和标准差;
μ、σ的计算方式如公式(3)、公式(4)所示;
其中,n取值为20。
4.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤2中,手势图片数据的提取过程如下:
利用图像分割技术显示目标检测框架检测的手势关键点及轮廓,然后进行膨胀操作,接着去除杂乱背景,并将图片调整为统一尺寸大小,完成对原始手势图像的预处理。
5.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤3中,CNN分支网络的结构如下:
CNN分支网络包含九层网络结构,分别是一个输入层、三个卷积层、三个最大池化层以及两个全连接层;其中,各层网络结构的连接结构分别如下:
定义三个卷积层分别为第一卷积层、第二卷积层以及第三卷积层;
定义三个最大池化层分别为第一最大池化层、第二最大池化层以及第三最大池化层;
定义两个全连接层分别为第一全连接层以及第二全连接层;
其中,输入层、第一卷积层、第一最大池化层、第二卷积层、第二最大池化层、第三卷积层、第三最大池化层、第一全连接层以及第二全连接层依次连接;
输入层的输入为预处理后的手势图片,输入尺寸大小为64×64×3;
第一卷积层、第二卷积层以及第三卷积层分别包含16、32、64个滤波器,第一卷积层、第二卷积层以及第三卷积层的卷积核的大小均为3×3;
第一最大池化层、第二最大池化层以及第三最大池化层采用最大池化,设置步长为2;
第一全连接层的神经元个数为32,第二全连接层的神经元个数为类别的数量;
所述步骤3中,MLP分支网络的结构如下:
MLP分支网络由三层全连接层构成;
定义三层全连接层分别为第三全连接层、第四全连接层以及第五全连接层;则第三全连接层、第四全连接层以及第五全连接层依次连接;
第三全连接层作为MLP分支网络的输入层,包含21个神经元,输入为预处理后得到的21个手部关键点特征数据;第四全连接层为隐藏层,包含16个神经元;
第五全连接层为MLP分支网络的输出层,神经元的个数设置为类别的数量。
6.根据权利要求5所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤3中,定义第一特征向量为Tout,第二特征向量为Jout;
特征融合模块对两个分支网络提取的特征信息合理融合,引入自适应的特征权重ω1、ω2,使模型根据数据的特征分布来自行决定权重参数,在特征融合模块以不同的权重来融合特征;
融合的手势特征Cf使用公式(5)计算得来:
其中,代表Sum Fusion融合方式,权重ω1、ω2由公式(6)得到:
其中,i=1,2,j=1,2,ωi为归一化的权重,且∑ωi=1,αi为初始化的权重参数;
分类模块包括两个全连接层;
定义两个全连接层分别为第六全连接层以及第七全连接层;
最终经过特征融合模块融合后的手势特征Cf经过两层全连接层完成最终的分类;
其中,第六全连接层包含32个神经元;
第七全连接层作为输出层,使用Softmax分类函数,神经元的个数设置为类别的数量。
7.根据权利要求1所述的多输入融合深度网络的手势识别方法,其特征在于,
所述步骤4中,多输入融合深度网络的训练过程如下:
将步骤2得到的21个手部关键点的特征数据作为分支网络MLP的输入,经过三层全连接层进行特征提取,得到一个第一特征向量,标记为特征向量Tout;
将步骤2得到的手势图片数据作为分支网络CNN的输入,经过CNN网络提取特征后,得到一个第二特征向量,标记为输出特征向量Jout;
通过特征融合模块使用自适应特征融合的方法将两个分支网络的输出特征向量组合起来,然后进一步经过全连接神经网络使用softmax分类器进行预测分类;
在训练过程中使用Dropout防止过拟合,使得模型收敛速度加快;
使用分类交叉熵损失函数,计算方法如公式(2)所示:
其中,m是手势类别的数量,表示模型的预测输出,yi表示真实的标签;
设定模型训练次数,模型使用Adam优化器进行训练;
根据预测输出与对应的分类标签进行计算,得出分类损失函数Loss值;当Loss值不再下降时停止训练更新,保存模型以及权重参数;
最后从保存的模型权重中读取参数,得到训练好的多输入融合深度网络模型。
8.一种基于MLP和CNN的多输入融合深度网络的手势识别系统,其特征在于,包括:
图像采集模块,用于获取原始手势图像数据并构建原始手势图像数据集;
数据预处理模块,用于对原始手势图像数据集中各幅原始手势图像数据进行预处理,分别提取每幅原始手势图像中所包含的21个手部关键点的特征数据以及手势图片数据;
将从每幅原始手势图像中提取到的21个手部关键点的特征数据和手势图片数据,以及每幅原始手势图像对应的标签,共同组成一组样本数据;
将所有原始手势图像对应的样本数据组成样本数据集,并分为训练数据集和测试数据集;
模型搭建及训练测试模块,用于搭建、训练以及测试多输入融合深度网络模型;
多输入融合深度网络包括特征提取模块、特征融合模块以及分类模块;
所述特征提取模块包括两个分支网络,分别是针对21个手部关键点特征提取的MLP分支网络以及针对手势图片特征提取的CNN分支网络;
两个分支网络的输出分别与特征融合模块相连,特征融合模块与分类模块相连;
利用训练数据集中的样本数据训练多输入融合深度网络;
其中,MLP分支网络的输入为21个手部关键点的特征数据,MLP分支网络的输出为对应于手部关键点的特征数据的第一特征向量;
CNN分支网络的输入为手势图片,CNN分支网络的输出为第二特征向量;
特征融合模块用于将第一、第二特征向量组合起来,并经过分类模块预测输出预测结果;
利用测试数据集中的样本数据对训练好的多输入融合深度网络进行测试;
预测模块,对于待识别的手势图像,用于提取图像包含的21个手部关键点的特征数据以及手势图片数据,利用训练及测试好的多输入融合深度网络进行手势识别得到识别结果。
9.一种计算机设备,包括存储器和一个或多个处理器,所述存储器中存储有可执行代码,其特征在于,所述处理器执行所述可执行代码时,
实现如权利要求1至7任一项所述的多输入融合深度网络的手势识别方法。
10.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时,实现如权利要求1至7任一项所述的多输入融合深度网络的手势识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210717218.3A CN115223239B (zh) | 2022-06-23 | 2022-06-23 | 一种手势识别方法、系统、计算机设备以及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210717218.3A CN115223239B (zh) | 2022-06-23 | 2022-06-23 | 一种手势识别方法、系统、计算机设备以及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115223239A CN115223239A (zh) | 2022-10-21 |
CN115223239B true CN115223239B (zh) | 2024-05-07 |
Family
ID=83608966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210717218.3A Active CN115223239B (zh) | 2022-06-23 | 2022-06-23 | 一种手势识别方法、系统、计算机设备以及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115223239B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117292404B (zh) * | 2023-10-13 | 2024-04-19 | 哈尔滨工业大学 | 一种高精度手势数据识别方法、电子设备及存储介质 |
CN117523679A (zh) * | 2024-01-08 | 2024-02-06 | 成都运达科技股份有限公司 | 一种驾驶员手势识别方法、系统及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033978A (zh) * | 2018-06-28 | 2018-12-18 | 济南大学 | 一种基于纠错策略的cnn-svm混合模型手势识别方法 |
CN112836597A (zh) * | 2021-01-15 | 2021-05-25 | 西北大学 | 基于级联并行卷积神经网络的多手姿态关键点估计方法 |
CN113255602A (zh) * | 2021-06-29 | 2021-08-13 | 江南大学 | 基于多模态数据的动态手势识别方法 |
CN114120350A (zh) * | 2020-08-26 | 2022-03-01 | 华为技术有限公司 | 一种手势识别的方法及其相关设备 |
CN114360067A (zh) * | 2022-01-12 | 2022-04-15 | 武汉科技大学 | 一种基于深度学习的动态手势识别方法 |
-
2022
- 2022-06-23 CN CN202210717218.3A patent/CN115223239B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109033978A (zh) * | 2018-06-28 | 2018-12-18 | 济南大学 | 一种基于纠错策略的cnn-svm混合模型手势识别方法 |
CN114120350A (zh) * | 2020-08-26 | 2022-03-01 | 华为技术有限公司 | 一种手势识别的方法及其相关设备 |
CN112836597A (zh) * | 2021-01-15 | 2021-05-25 | 西北大学 | 基于级联并行卷积神经网络的多手姿态关键点估计方法 |
CN113255602A (zh) * | 2021-06-29 | 2021-08-13 | 江南大学 | 基于多模态数据的动态手势识别方法 |
CN114360067A (zh) * | 2022-01-12 | 2022-04-15 | 武汉科技大学 | 一种基于深度学习的动态手势识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115223239A (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110555481B (zh) | 一种人像风格识别方法、装置和计算机可读存储介质 | |
CN107633204B (zh) | 人脸遮挡检测方法、装置及存储介质 | |
CN107633207B (zh) | Au特征识别方法、装置及存储介质 | |
CN112597941B (zh) | 一种人脸识别方法、装置及电子设备 | |
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
CN111709311B (zh) | 一种基于多尺度卷积特征融合的行人重识别方法 | |
CN110532920B (zh) | 基于FaceNet方法的小数量数据集人脸识别方法 | |
CN107679448B (zh) | 眼球动作分析方法、装置及存储介质 | |
CN115223239B (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
CN108288051B (zh) | 行人再识别模型训练方法及装置、电子设备和存储介质 | |
CN112381104B (zh) | 一种图像识别方法、装置、计算机设备及存储介质 | |
CN109657533A (zh) | 行人重识别方法及相关产品 | |
CN109409994A (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN107633206B (zh) | 眼球动作捕捉方法、装置及存储介质 | |
CN111104911A (zh) | 一种基于大数据训练的行人重识别方法及装置 | |
CN111507285A (zh) | 人脸属性识别方法、装置、计算机设备和存储介质 | |
CN113869282A (zh) | 人脸识别方法、超分模型训练方法及相关设备 | |
Fan et al. | Improved ssd-based multi-scale pedestrian detection algorithm | |
CN117237547B (zh) | 图像重建方法、重建模型的处理方法和装置 | |
CN112861678A (zh) | 一种图像识别方法及装置 | |
CN112347965A (zh) | 一种基于时空图的视频关系检测方法和系统 | |
CN117315770A (zh) | 一种基于骨骼点的人体行为识别方法、设备与存储介质 | |
CN112686300B (zh) | 一种数据处理方法、装置及设备 | |
CN113553884A (zh) | 手势识别方法、终端设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |