CN109919057A - 一种基于高效卷积神经网络的多模态融合手势识别方法 - Google Patents
一种基于高效卷积神经网络的多模态融合手势识别方法 Download PDFInfo
- Publication number
- CN109919057A CN109919057A CN201910142252.0A CN201910142252A CN109919057A CN 109919057 A CN109919057 A CN 109919057A CN 201910142252 A CN201910142252 A CN 201910142252A CN 109919057 A CN109919057 A CN 109919057A
- Authority
- CN
- China
- Prior art keywords
- sequence
- frame
- convolutional neural
- image
- neural networks
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于高效卷积神经网络的多模态融合手势识别方法,利用帧差替代光流作为额外模态并在数据层进行融合,在精度相当的前提下,大幅提高运行速度;本发明方法能够对普通摄像头捕获的手势序列进行高精度分类,可以达到每秒处理33.2个视频序列的速度,分类精度可实现与目前该数据集上最佳算法相近的效果。在虚拟/增强现实、智能驾驶等多种任务中可以得到广泛应用。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于高效卷积神经网络的多模态融合手势识别方法。
背景技术
手势识别系统是人机交互领域中一项重要的研究议题,在虚拟/增强现实、智能驾驶、智能家居等领域有着广泛应用。考虑到价格和普及性,普通彩色摄像头是手势识别系统的主流设备。在实际使用过程中,由手型和运动轨迹混淆带来的错误分类不可避免的降低了手势分类的精度,对一些鲁棒性与精度要求极高的应用造成了诸多不便。因此在保证实时性的前提下,降低易混淆手势的错误率,提高手势分类的精度有着非常重要的应用前景。
目前的二维手势识别算法通常是从视频序列中提取特征并将视频序列对应到正确的类别。因此在一定程度上,手势识别也可视为视频分类问题。提取视频序列上的特征,该过程大致可分为传统方法和基于神经网络的方法。传统方法主要是从视频序列中提取一些手工特征,比如方向梯度直方图、密集轨迹算法等,但由于手势和周围环境的复杂性,这些方法很难满足于实际应用的需求。另一种方法主要基于神经网络,比如三维卷积神经网络、循环神经网络、双流卷积神经网络、时序分割卷积神经网络等。这些方法通常使用光流作为额外模态补充运动信息,然而在一些资源受限环境,无法实时提取光流。2018年提出的高效卷积神经网络使用二维卷积网络提取空间信息,并将特征融合输入到三维卷积网络提取运动信息,该网络每秒大约可处理35.3个视频序列。然而,由于仅使用彩色视频序列作为输入,高效卷积网络对于易混淆手势的分类精度不高。
发明内容
有鉴于此,本发明的目的是提供一种基于高效卷积神经网络的多模态融合手势识别方法,可以获得更好的手势识别分类效果,并提高运行速度。
一种基于高效卷积神经网络的多模态融合手势识别方法,包括如下步骤:
步骤1、视频序列预处理:将数据集中的一段手势视频序列V平均分割为多段片段,再从每段片段中随机选择一帧彩色图像形成新的彩色图像序列F;然后将视频序列V逐帧做帧差生成帧差序列M;
步骤2、数据层融合:针对彩色图像序列F中的各帧彩色图像,在帧差序列M找到相同索引值的帧差图像,将该帧差图像以及该帧差图像的前m-1帧的帧差图像并连同该彩色图像,按索引值次序组成一帧具有(3+m)通道数的多通道融合图像;m取值范围为1至4;遍历彩色图像序列F中的每一帧彩色图像后,最终形成一段具有N张多通道融合图像的序列{F1,F2,...,FN};
步骤3、将步骤2获得的多段具有N张多通道融合图像的序列以及各自的分类结果输入到高效卷积神经网络中,对网络进行训练,得到训练好的高效卷积神经网络;
步骤4、手势识别:针对输入的未知类别的手势视频,按照步骤1和步骤2的方法,获得该段视频对应的具有N张多通道融合图像的序列,将其输入到步骤3训练好的高效卷积神经网络中,对手势进行分类。
进一步的,对所述步骤2获得的通道融合图像的序列进行数据增强,以扩充数据量。
较佳的,所述数据增强的方法包括:(a)随机对图像尺寸做一定范围的调整;(b)随机对图像做一定角度的旋转操作;(c)随机选取图像的一部分,再放大到要求的尺寸。
本发明具有如下有益效果:
本发明基于高效卷积神经网络提出一种新的多模态数据融合的手势识别方法,利用帧差替代光流作为额外模态并在数据层进行融合,在精度相当的前提下,大幅提高运行速度;本发明方法能够对普通摄像头捕获的手势序列进行高精度分类,可以达到每秒处理33.2个视频序列的速度,分类精度可实现与目前该数据集上最佳算法相近的效果。在虚拟/增强现实、智能驾驶等多种任务中可以得到广泛应用。
附图说明
图1为本发明的方法架构图;
图2为本发明与高效卷积神经网络的各类别分类精度对比图;
图3为本发明与高效卷积神经网络的混淆手势对比示意图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
如图1所示,本发明是一种基于高效卷积神经网络的多模态融合手势识别方法,包括如下步骤:
步骤1、视频序列预处理:将数据集中的一段手势视频序列V平均分割为N段片段{K1,K2,…,KN},再从每段片段中随机选择一帧彩色图像形成新的彩色图像序列F:{F1,F2,…,FN}。然后将视频序列V逐帧做帧差生成帧差序列M,生成帧差与光流的时间消耗对比如表1所示:
表1为帧差与光流提取时间对比:
帧差可在CPU上以每秒1991.5帧的速度生成,大幅提高运行速度。
步骤2、数据层融合:针对彩色图像序列F中的各帧彩色图像,在帧差序列M中找到相同索引值的帧差图像,将该帧差图像以及该帧差图像的前m-1帧帧差图像连同该彩色图像,按索引值次序组成一帧具有(3+m)通道数的多通道融合图像;m取值范围为1至4。遍历彩色图像序列F中的每一帧彩色图像后,最终形成一段具有N张多通道融合图像的序列{F1,F2,...,FN};并为该段视频展示的手势进行分类;获得多段手势视频,每段视频均按照步骤1和2的方法进行处理后,得到多段具有N张多通道融合图像的序列。
步骤3、将步骤2获得的多段具有N张多通道融合图像的序列以及各自的分类结果输入到高效卷积神经网络中,对网络进行训练,得到训练好的高效卷积神经网络。
步骤4、手势识别:针对输入未知类别的手势视频,按照步骤1和步骤2的方法,获得该段视频对应的具有N张多通道融合图像的序列,将其输入到步骤3训练好的高效卷积神经网络中,对手势进行分类。
其中,本发明采用的高效卷积神经网络如下:
二维卷积网络:网络结构如图1所示,具体操作如表2所示。
表2为高效卷积神经网络具体结构:
本发明先将输入尺寸调整至[BS×N,C,224,224],其中BS为批大小,C为通道数。第一层二维卷积层的卷积核为7×7,步长为2×2。第二层二维卷积层的卷积核为3×3,步长为2×2。所有的卷积层后都加入了池化层,批归一化层和ReLU层。然后网络使用BN-Inception网络的3a层、3b层和3c层。其中3a层分为以下四部分:①64个1×1的卷积核,输出为[BS×N,64,28,28];②96个1×1的卷积核,作为3×3卷积核之前的降维,变成[BS×N,96,28,28],然后进行ReLU计算,再进行128个3×3的卷积,输出[BS×N,128,28,28];③16个1×1的卷积核,作为5×5卷积核之前的降维,变成[BS×N,16,28,28],进行ReLU计算后,再进行32个5×5的卷积,输出[BS×N,32,28,28];④池化层,使用3×3的卷积核,输出[BS×N,192,28,28],然后进行32个1×1的卷积,输出[BS×N,32,28,28]。对这四部分输出结果的第二维并联,即64+128+32+32=256,最终输出[BS×N,256,28,28]。3b、3c与3a类似,在此不再重复。二维卷积网络的输出尺寸为[BS×N,96,28,28]。
三维卷积网络:本发明使用ResNet3D-18网络的3_x、4_x和5_x层以提取运动信息。首先将二维卷积网络的输出调整至[BS,96,N,28,28],然后将其输入至三层的三维残差网络,每个残差网络包括四个卷积核为3×3×3的三维卷积,并且特征图的数量每层加一倍。三维卷积网络的输出为[BS,512,N/4,7,7]。
全连接层:将三维卷积网络的输出输入至核为1×7×7的三维平均池化层,其输出的每一个节点与最终的类别数(27类)相连,随机丢弃率设为0.8,最终得到分类结果。
深度学习通常需要大量数据作为支持,数据增强是一种基于现有数据集增加数据多样性的方法。在步骤2完成数据融合后,本发明进行数据增强,以扩充数据量。本发明将输入数据进行以下变换:(a)随机对图像尺寸做一定范围(±20%)的调整;(b)随机对图像做一定角度(小于20°)的旋转操作;(c)随机选取图像(256×256)的一部分,裁剪区域的大小从{256,224,192,168}随机选择,然后将其缩放到224×224。
实验中使用Pytorch搭建神经网络,使用JESTER手势识别公开数据集进行训练。损失函数为交叉熵损失。在训练阶段,使用带动量的随机梯度下降法,动量设定为0.9。初始学习率和权重衰减分别设定为0.001和0.0005,并且分别在第15、25、40轮减少10倍,训练在第60轮结束。训练结果如表3所示:
表3为不同参数对网络精度和时间消耗的影响对比:
表3中,表示视频分割段数以及融合的帧差图像数量对网络精度和时间消耗的影响对比(N_c_fdm表示视频分割为N段,每段中融合一帧彩色图像和m张帧差图作为输入);结果表明将视频序列分割为16段,每帧彩色图像附加两帧帧差图分类精度最优,本发明中的方法在验证集上精度可达到96.22%。
对高效卷积神经网络进行测试时使用JESTER数据集中的测试集进行测试。本发明中的方法在测试集上精度为95.96%,并可每秒处理33.2段平均帧数为36帧的视频序列,可以满足实时性的要求。图2为本发明与高效卷积神经网络的各类别识别精度对比,图3显示了本发明与高效卷积网络的混淆手势对比效果。图3.(a)(b)(c)是由手形差异引起的混淆,(d)(e)是由运动轨迹引起的混淆,(f)是由手指微小运动引起的混淆;图3(a)视频序列标签为Swiping Down,本发明将其识别为Swiping Down的概率为99.89%;高效卷积神经网络的识别概率为51.93%;(b)标签为Zooming In With Two Fingers;本发明将其识别为Zooming In With Two Fingers的概率为99.70%;高效卷积神经网络将其识别为ZoomingIn With Full Hand类别,概率为65.94%;(c)标签为Sliding Two Fingers Right的数据,本发明将其识别为Sliding Two Fingers Right的概率为99.84%,高效卷积神经网络将其识别为类别Swiping Right,概率为58.52%;(d)标签为Stop Sign的数据,本发明将其识别为Stop Sign的概率为92.60%,高效卷积神经网络将其识别为Pushing Hand Away,概率为79.03%;(e)标签为Sliding Two Fingers Up的数据,本发明将其识别为Sliding TwoFingers Up的概率为97.49%,高效卷积神经网络将其识别为Sliding Two Fingers Down,概率为74.04%;(f)标签为Drumming Fingers,本发明的概率为97.49%;高效卷积神经网络则将其识别为Stop Sign,概率为51.93%;(g)标签为Turning Hand Clockwise,本发明将其识别为Turning Hand Counterclockwise,概率为52.45%,高效卷积神经网络将其识别为Turning Hand Clockwise,概率为76.50%;(h)标签为Turning HandCounterclockwise,本发明的概率为99.87%,高效卷积神经网络的概率为97.12%;由此可以看出,本发明对这些易混淆手势有较好的分类效果,但是对于(g)(h)中所示的“顺时针转动”和“逆时针转动”无较大提升,由于左手和右手的对称性,不同手做相同的动作时手型相反,因此,这两种手势的分类具有挑战性。自此,就实现了基于高效卷积神经网络的多模态融合手势识别算法。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种基于高效卷积神经网络的多模态融合手势识别方法,其特征在于,包括如下步骤:
步骤1、视频序列预处理:将数据集中的一段手势视频序列V平均分割为多段片段,再从每段片段中随机选择一帧彩色图像形成新的彩色图像序列F;然后将视频序列V逐帧做帧差生成帧差序列M;
步骤2、数据层融合:针对彩色图像序列F中的各帧彩色图像,在帧差序列M找到相同索引值的帧差图像,将该帧差图像以及该帧差图像的前m-1帧的帧差图像并连同该彩色图像,按索引值次序组成一帧具有(3+m)通道数的多通道融合图像;m取值范围为1至4;遍历彩色图像序列F中的每一帧彩色图像后,最终形成一段具有N张多通道融合图像的序列{F1,F2,...,FN};N表示手势视频序列V被分成的段数;
步骤3、将步骤2获得的多段具有N张多通道融合图像的序列以及各自的分类结果输入到高效卷积神经网络中,对网络进行训练,得到训练好的高效卷积神经网络;
步骤4、手势识别:针对输入的未知类别的手势视频,按照步骤1和步骤2的方法,获得该段视频对应的具有N张多通道融合图像的序列,将其输入到步骤3训练好的高效卷积神经网络中,对手势进行分类。
2.如权利要求1所述的一种基于高效卷积神经网络的多模态融合手势识别方法,其特征在于,对所述步骤2获得的通道融合图像的序列进行数据增强,以扩充数据量。
3.如权利要求2所述的一种基于高效卷积神经网络的多模态融合手势识别方法,其特征在于,所述数据增强的方法包括:(a)随机对图像尺寸做一定范围的调整;(b)随机对图像做一定角度的旋转操作;(c)随机选取图像的一部分,再放大到要求的尺寸。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910142252.0A CN109919057B (zh) | 2019-02-26 | 2019-02-26 | 一种基于高效卷积神经网络的多模态融合手势识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910142252.0A CN109919057B (zh) | 2019-02-26 | 2019-02-26 | 一种基于高效卷积神经网络的多模态融合手势识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109919057A true CN109919057A (zh) | 2019-06-21 |
CN109919057B CN109919057B (zh) | 2020-11-03 |
Family
ID=66962392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910142252.0A Active CN109919057B (zh) | 2019-02-26 | 2019-02-26 | 一种基于高效卷积神经网络的多模态融合手势识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109919057B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104929A (zh) * | 2019-12-31 | 2020-05-05 | 广州视声智能科技有限公司 | 基于3d卷积和spp的多模态动态手势识别方法 |
CN113343198A (zh) * | 2021-06-23 | 2021-09-03 | 华南理工大学 | 一种基于视频的随机手势认证方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102508547A (zh) * | 2011-11-04 | 2012-06-20 | 哈尔滨工业大学深圳研究生院 | 基于计算机视觉的手势输入法构建方法及系统 |
KR20130005548A (ko) * | 2011-07-06 | 2013-01-16 | 엘지디스플레이 주식회사 | 비젼 기반의 제스쳐 인식 시스템 |
CN107808131A (zh) * | 2017-10-23 | 2018-03-16 | 华南理工大学 | 基于双通路深度卷积神经网络的动态手势识别方法 |
CN108932500A (zh) * | 2018-07-09 | 2018-12-04 | 广州智能装备研究院有限公司 | 一种基于深度神经网络的动态手势识别方法及系统 |
CN109308719A (zh) * | 2018-08-31 | 2019-02-05 | 电子科技大学 | 一种基于三维卷积的双目视差估计方法 |
-
2019
- 2019-02-26 CN CN201910142252.0A patent/CN109919057B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130005548A (ko) * | 2011-07-06 | 2013-01-16 | 엘지디스플레이 주식회사 | 비젼 기반의 제스쳐 인식 시스템 |
CN102508547A (zh) * | 2011-11-04 | 2012-06-20 | 哈尔滨工业大学深圳研究生院 | 基于计算机视觉的手势输入法构建方法及系统 |
CN107808131A (zh) * | 2017-10-23 | 2018-03-16 | 华南理工大学 | 基于双通路深度卷积神经网络的动态手势识别方法 |
CN108932500A (zh) * | 2018-07-09 | 2018-12-04 | 广州智能装备研究院有限公司 | 一种基于深度神经网络的动态手势识别方法及系统 |
CN109308719A (zh) * | 2018-08-31 | 2019-02-05 | 电子科技大学 | 一种基于三维卷积的双目视差估计方法 |
Non-Patent Citations (2)
Title |
---|
MOHAMMADREZA ZOLFAGHARI ET AL: "ECO:efficient convolutional network for online video understanding", 《ARXI:1804.09066V2》 * |
任晓文 等: "基于卷积神经网络的手势识别研究", 《太原科技大学学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104929A (zh) * | 2019-12-31 | 2020-05-05 | 广州视声智能科技有限公司 | 基于3d卷积和spp的多模态动态手势识别方法 |
CN111104929B (zh) * | 2019-12-31 | 2023-05-09 | 广州视声智能科技有限公司 | 基于3d卷积和spp的多模态动态手势识别方法 |
CN113343198A (zh) * | 2021-06-23 | 2021-09-03 | 华南理工大学 | 一种基于视频的随机手势认证方法及系统 |
WO2022268183A1 (zh) * | 2021-06-23 | 2022-12-29 | 华南理工大学 | 一种基于视频的随机手势认证方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109919057B (zh) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Song et al. | Richly activated graph convolutional network for action recognition with incomplete skeletons | |
Bulat et al. | Toward fast and accurate human pose estimation via soft-gated skip connections | |
Chang et al. | All about structure: Adapting structural information across domains for boosting semantic segmentation | |
Li et al. | Building-a-nets: Robust building extraction from high-resolution remote sensing images with adversarial networks | |
Zhang et al. | Chinese sign language recognition with adaptive HMM | |
CN106599789B (zh) | 视频类别识别方法和装置、数据处理装置和电子设备 | |
Zuo et al. | Convolutional recurrent neural networks: Learning spatial dependencies for image representation | |
Bell et al. | Material recognition in the wild with the materials in context database | |
Yang et al. | Convolutional channel features | |
CN107844795B (zh) | 基于主成分分析的卷积神经网络特征提取方法 | |
CN105528794B (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN104732506B (zh) | 一种基于人脸语义分析的人物照片颜色风格转换方法 | |
Meng et al. | Sample fusion network: An end-to-end data augmentation network for skeleton-based human action recognition | |
CN106504233A (zh) | 基于Faster R‑CNN的无人机巡检图像电力小部件识别方法及系统 | |
CN109741331A (zh) | 一种图像前景物体分割方法 | |
Guo et al. | Self-supervised GANs with similarity loss for remote sensing image scene classification | |
CN109598234A (zh) | 关键点检测方法和装置 | |
CN111832568A (zh) | 车牌识别方法、车牌识别模型的训练方法和装置 | |
CN104598889B (zh) | 人体行为识别的方法和装置 | |
Wei et al. | Deep spatial pyramid ensemble for cultural event recognition | |
CN109977834B (zh) | 从深度图像中分割人手与交互物体的方法和装置 | |
Wan et al. | CSMMI: Class-specific maximization of mutual information for action and gesture recognition | |
Kong et al. | Hierarchical 3d kernel descriptors for action recognition using depth sequences | |
CN109919057A (zh) | 一种基于高效卷积神经网络的多模态融合手势识别方法 | |
CN108564043B (zh) | 一种基于时空分布图的人体行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |