CN112997192A - 一种手势识别方法、装置、终端设备及可读存储介质 - Google Patents

一种手势识别方法、装置、终端设备及可读存储介质 Download PDF

Info

Publication number
CN112997192A
CN112997192A CN202180000451.3A CN202180000451A CN112997192A CN 112997192 A CN112997192 A CN 112997192A CN 202180000451 A CN202180000451 A CN 202180000451A CN 112997192 A CN112997192 A CN 112997192A
Authority
CN
China
Prior art keywords
video data
network model
gesture recognition
processing
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180000451.3A
Other languages
English (en)
Inventor
龙柏君
黄凯明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Streamax Technology Co Ltd
Original Assignee
Streamax Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Streamax Technology Co Ltd filed Critical Streamax Technology Co Ltd
Publication of CN112997192A publication Critical patent/CN112997192A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开一种手势识别方法、装置、终端设备及可读存储介质,该方法包括:获取真实视频数据;对真实视频数据进行预处理,获得待处理视频数据;将待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;将识别结果发送至预设管理终端。本申请通过识别视频数据中基于不同速率变化的场景,有效的整合了不同时间速率的图像特征,实现对手势类型的智能识别,降低了计算量提高了识别结果的精度,且鲁棒性高。

Description

一种手势识别方法、装置、终端设备及可读存储介质
技术领域
本申请涉及图像数据处理技术领域,具体涉及一种手势识别方法、装置、终端设备及可读存储介质。
背景技术
在轨道交通系统中,当车辆经过固定检查点时,司机需要根据需求作出相应的手势,以此跟地面人员进行沟通交流。传统基于手势的管理方法是通过安全管理人员查看全天候的监控视频,来根据司机的手势判断司机是否按照要求进行对应的操作,上述方法需要耗费大量的人力和物力且效率低下。
相关手势识别方法主要通过不同的人工智能算法实现实时、离线、全自动的手势识别,确定对应的识别结果,然而上述方法识别较结果的精度低且鲁棒性差。
技术问题
本申请实施例的目的之一在于:提供一种手势识别方法、装置、终端设备及可读存储介质,旨在解决相关手势识别方法识别较结果的精度低且鲁棒性差的问题。
技术解决方案
为解决上述技术问题,本申请实施例采用的技术方案是:
第一方面,提供了一种手势识别方法,包括:
获取真实视频数据;
对所述真实视频数据进行预处理,获得待处理视频数据;
将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;
将所述识别结果发送至预设管理终端。
第二方面,提供了一种手势识别装置,包括:
第一获取模块,用于获取真实视频数据;
第一预处理模块,用于对所述真实视频数据进行预处理,获得待处理视频数据;
图像处理模块,用于将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;
发送模块,用于将所述识别结果发送至预设管理终端。
第三方面,提供一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的手势识别方法。
第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的手势识别方法。
第五方面,提供一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面所述的手势识别方法。
有益效果
本申请实施例提供的手势识别方法的有益效果在于:通过预训练的手势识别网络模型对经过预处理的待处理视频数据进行处理,获得识别结果,并发送至预设管理终端,能够识别视频数据中基于不同速率变化的场景,有效的整合了不同时间速率的图像特征,实现对手势类型的智能识别,降低了计算量提高了识别结果的精度,且鲁棒性高。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或示范性技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例提供的手势识别方法的流程示意图;
图2是本申请实施例提供的手势识别方法步骤S102的流程示意图;
图3是本申请实施例提供的时空三维内核的深度卷积神经网络模型的结构示意图;
图4是本申请实施例提供的手势识别方法步骤S103的流程示意图;
图5是本申请实施例提供的手势识别网络模型的结构示意图;
图6是本申请实施例提供的手势识别装置的结构示意图;
图7是本申请实施例提供的终端设备的结构示意图。
本发明的实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本申请。
需说明的是,当部件被称为“固定于”或“设置于”另一个部件,它可以直接在另一个部件上或者间接在该另一个部件上。当一个部件被称为是“连接于”另一个部件,它可以是直接或者间接连接至该另一个部件上。术语“上”、“下”、“左”、“右”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。术语“第一”、“第二”仅用于便于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明技术特征的数量。“多个”的含义是两个或两个以上,除非另有明确具体的限定。
为了说明本申请所提供的技术方案,以下结合具体附图及实施例进行详细说明。
本申请的一些实施例提供手势识别方法可以应用于手机、平板电脑、可穿戴设备、车载设备、笔记本电脑等终端设备上,本申请实施例对终端设备的具体类型不作任何限制。
图1示出了本申请提供的势识别方法的示意性流程图,作为示例而非限定,该方法可以应用于上述车载设备中。
S101、获取真实视频数据。
在具体应用中,获取通过预先设置的摄像头拍摄获得包含目标用户的手部动作的真实视频数据;其中,目标用户是指需进行手势类型识别的用户。
在本实施例中,设定目标用户包括但不限于火车驾驶员或地铁驾驶员,对应的需将摄像头设置于火车驾驶室或地铁驾驶室的内部,以便于拍摄包含火车驾驶员或地铁驾驶员的手部动作的真实视频数据。
S102、对所述真实视频数据进行预处理,获得待处理视频数据。
在具体应用中,对真实视频数据进行预处理,获得待处理视频数据;其中,预处理方式包括但不限于分帧处理、跳帧处理及重组处理。通过对真实视频数据进行预处理,获得待处理视频,可以减小数据计算量,提高计算效率。
S103、将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果。
在具体应用中,将待处理视频数据输入至预训练的手势识别网络模型进行处理,获得待处理视频数据中目标用户的手势属于每个预设手势类型的概率值,并根据概率值确定待处理视频数据中目标用户的手势类型,作为识别结果。
在实际场景中,不同身份的目标用户的手势动作包括多个不同的类型,对应的,预设手势类型可根据目标用户的身份进行具体设定。例如,当目标用户为火车驾驶员时,对应预设手势类型包括但不限于“正常驾驶”、“握拳”、“伸二指”、“伸拇指”、“握拳摇晃”,上述手势类型用于表示火车驾驶员的驾驶状态。
S104、将所述识别结果发送至预设管理终端。
在具体应用中,将识别结果发送至管理人员的预设管理终端,便于管理人员基于识别结果确定目标用户的驾驶状态。
如图2所示,在一个实施例中,所述步骤S102,包括:
S1021、对所述真实视频数据进行分帧处理,获得分帧后的视频片段;
S1022、按照预设方式对所述分帧后的视频片段进行重组,获得所述待处理视频数据。
在具体应用中,对真实视频数据进行分帧处理,将真实视频数据转化为多个分帧后的视频片段,每个分帧后的视频片段的大小为一个时间帧。按照预设方式对分帧后的视频片段进行重组,获得待处理图像数据。
在一个实施例中,所述S1022,包括:
按照跳帧处理方式选取多个分帧后的视频片段并进行重组,获得所述待处理视频数据。
在具体应用中,按照跳帧处理方式选取多个分帧后的视频片段,并将选取的分帧后的视频片段按照时间帧的顺序进行重组,获得待处理视频数据。可以理解的是,基于重组获得的待处理视频数据具体为包含多个时间帧的连续图像数据。
在具体应用中,真实视频数据中每秒钟包含24帧的图像数据,设定每次获取4秒钟的真实视频数据进行处理,共计96帧。为实现识别视频数据中的不同变化速率的目标用户的手势动作类型,设定手势识别网络模型包含慢通道SNet网络模型、快通道FNet网络模型两个网络来整合不同时间速率下的图像特征,对应的设定通过不同的跳帧方式,分别获取与快通道FNet网络对应的输入数据和与慢通道SNet网络模型的输入数据。例如,设定以每隔1帧,保存1帧图像数据的跳帧方式,选取48帧的连续图像数据作为与快通道FNet网络对应的输入数据;以每间隔12帧,保存1帧图像数据的跳帧方式,选取6帧的连续图像数据作为与慢通道SNet网络模型对应的输入数据。
在一个实施例中,所述方法还包括:
获取多个训练视频数据;
对所述训练视频数据进行预处理,获得预处理后的训练视频数据;
根据每个所述训练视频数据中的手势类型分别对对应的预处理的训练视频数据添加标签,获得训练数据集;
根据训练数据集对手势识别网络模型进行预训练,获得预训练后的手势识别网络模型。
在具体应用中,获取大量包含每个预设手势类型的、预设大小的训练视频数据。对训练视频数据进行预处理,获得预处理后的训练视频数据,根据每个训练视频数据中的目标用户的手势类型,分别为对应的预处理后的训练视频数据添加标签,获得训练数据集;将训练数据集划分为训练样本数据和测试样本数据,根据训练样本数据和测试样本数据基于随机梯度下降算法(Stochastic Gradient Descent,SGD),对手势识别网络模型进行预训练,获得预训练后的手势识别网络模型,使得预训练后的手势识别网络模型能够对输入数据进行处理,确定输入数据中用户的手势类型属于每个预设手势类型的概率值。
其中,预设大小可根据实际需求进行具体设定。在本实施例中,手势识别网络模型的输入数据大小设定为96个时间帧,对应设定预设大小为96个时间帧。
在具体应用中,对训练视频数据进行预处理的具体实施方式和步骤S102的实施方式相同,在此不再赘述。
例如,获取20万个包含“正常驾驶”手势类型的84帧训练视频数据,并在预处理后,分别对上述20万个预处理后的训练视频数据,添加“正常驾驶”标签;获取20万个包含“握拳”手势类型的84帧训练视频数据,并在预处理后,分别对上述20万个预处理后的训练视频数据添加“握拳”标签;获取20万个包含“伸二指”手势类型的84帧训练视频数据,并在预处理后,分别对上述20万个预处理后的训练视频数据,添加“伸二指”标签;获取20万个包含“伸拇指”手势类型的84帧训练视频数据,并在预处理后,分别对上述20万个预处理后的训练视频数据,添加“伸拇指”标签;获取20万个包含“握拳摇晃”手势类型的84帧训练视频数据,并在预处理后,分别对上述20万个预处理后的训练视频数据,添加“握拳摇晃”标签。
在一个实施例中,所述手势识别网络模型包括快通道网络模型、慢通道网络模型、混合网络模型和预测识别网络模型。
在一个实施例中,所述快通道网络模型包括第一时空三维内核的深度卷积神经网络模型,所述慢通道网络模型包括第二时空三维内核的深度卷积神经网络模型,所述混合网络模型包括融合层,所述预测识别网络模型包括全局池化层、深度融合层和全连接层。
在具体应用中,手势识别网络模型包括快通道网络模型、慢通道网络模型、混合网络模型和预测识别网络模型。其中,快通道网络模型包括第一时空三维内核的深度卷积神经网络模型(Fast ResNet3D CNN),慢通道网络模型包括第二时空三维内核的深度卷积神经网络模型(Slow ResNet3D CNN),混合网络模型包括两个融合层(Fuse_layer),预测识别网络模型包括全局池化层(global pooling)、深度融合层(concat)和全连接层(fc)。时空三维内核的深度卷积神经网络模型是指由一个3D卷积神经网络层,1个3D池化层,4个3D深度残差网络块(deep residual network,ResNet3d_block)相互串联构成的网络结构。
在具体应用中,第一时空三维内核的深度卷积神经网络模型和第二时空三维内核的深度卷积神经网络模型的区别在于:第一时空三维内核的深度卷积神经网络模型的卷积核通道数少于第二时空三维内核的深度卷积神经网络模型;且第一时空三维内核的深度卷积神经网络模型的输入数据大于第二时空三维内核的深度卷积神经网络模型。
在具体应用中,时空三维内核的深度卷积神经网络模型一共有101个学习层,其中慢通道网络49层,快通道网络49层,混合网络2层,预测网络1层。
如图3所示,提供一种时空三维内核的深度卷积神经网络模型的结构示意图。
图3中,时空三维内核的深度卷积神经网络模型的主干网络ResNet3D CNN主要用于提取视频序列的特征,其基本组成单元是3D深度残差网络块ResNet3D_block,主干网络ResNet3D CNN主要包括1个3D卷积神经网络层和4个3D深度残差网络块ResNet3D_block。3D深度残差网络块的基本卷积核为3D卷积核,主要参数为通道数C和堆叠数N。3D卷积神经网络层用于对输入数据进行降采样处理,缩小输入数据的尺寸。每个3D深度残差网络块设定有不同的通道数,通道数具体由快通道网络模型SNet和慢通道网络模型FNet对应设定。
在一个实施例中,所述待处理视频数据包括第一视频数据和第二视频数据。
在具体应用中,由于快通道网络模型和慢通道网络模型的输入数据的大小不同,因此,设定待处理图像数据包括第一视频数据和第二视频数据;其中,第一视频数据的时间帧数大于第二视频数据,第一视频数据具体为快通道网络模型的输入数据,第二视频数据具体为慢通道网络模型的输入数据。
如图4所示,在一个实施例中,所述步骤S103,包括:
S1031、将所述第一视频数据输入至快通道网络模型进行处理,获得第一处理结果;
S1032、将所述第二视频数据输入至所述慢通道网络模型,通过所述慢通道网络模型和所述混合网络模型进行处理,获得第二处理结果;
S1033、通过所述预测识别网络模型对所述第一处理结果和第二处理结果进行融合处理,获得所述待处理视频数据中的手势属于每个预设手势类型的概率值;
S1034、选取概率值最大的手势类型作为识别结果。
在具体应用中,将第一视频数据输入至快通道网络模型进行处理,获得第一处理结果,将第二视频数据输入至慢通道网络模型进行处理,同时根据混合网络模型通过特征融合的方式,将快通道网络模型中的特征信息叠加至慢通道网络模型中,以实现不同时间尺度上的信息混合,获得第二处理结果;通过预测识别网络模型中的全局池化层分别对快通道网络的第一处理结果和慢通道网络的第二处理结果使用全局池化处理,对应获得两个处理结果。通过深度特征融合层将两个处理结果进行合并,得到合并结果。然后通过全连接层对合并结果进行处理,获得待处理视频数据中的手势属于每个预设手势类型的概率值,选取概率值最大的手势类型作为识别结果。
例如,预训练后的手势识别网络模型输出的与“正常驾驶”对应的概率值为70%,与“握拳”对应的概率值为10%;与“伸二指”对应的概率值为10%;与“伸拇指”对应的概率值为5%;与“握拳摇晃”对应的概率值为5%,对应判定真实视频数据中用户的手势类型为“正常驾驶”。
在具体应用中,根据混合网络模型通过特征融合的方式,将快通道网络模型中的特征信息叠加至慢通道网络模型,获得第二处理结果,包括:
设定慢通道网络模型的输出为T*F*F*C,快通道网络模型的输出为aT*F*F*bC,其中,a=8,b=1/8。使用一个步长T_stride为8,通道数channel为C。
将第二视频数据输入至慢通道网络模型后,分别在快通道网络模型中的第一快通道3D深度残差网络块f_res3D_Block1后,和第三快通道3D深度残差网络块f_res3D_Block3后,通过混合网络模型的融合层fuse中卷积核尺寸为1x1的3D卷积层,对快通道网络模型进行卷积处理,获得尺寸为T*F*F*C的输出结果;将卷积处理后的混合网络的输出结果与慢通道对应的输出结果通过高级层eltwise相叠加,实现将快通道网络模型中学习到的图像特征,迭代到慢通道网络模型,获得第二处理结果。
如图5所示,提供一种手势识别网络模型的结构示意图。
图5中,设定快通道网络模型输入的第一视频数据的大小为(48x224x224x3),其卷积神经网络层采用卷积核为5x7x7,通道数为8,池化操作为1x2x2,其4个3D深度残差网络块的通道数分别为[8,16,32,128],堆叠数分别为[3,4,6,3],对应的快通道网络模型输出结果尺寸为48x7x7x128。
设定慢通道网络模型输入的第二视频数据的大小为:(6x224x224x3),其卷积神经网络层采用卷积核为1x7x7,通道数为64,池化操作为1x2x2,其4个3D深度残差网络块的通道数分别为[64,128,256,512],堆叠数分别为[3,4,6,3],对应的慢通道网络模型输出结果的尺寸为6x7x7x512。
通过预测网络模型分别对快通道网络模型和慢通道网络模型的输出结果进行全局池化处理,分别获得1x1x1x512维的向量和1x1x1x128维的向量,然后通过深度特征融合将上述两个向量合并,最后经过一个全连接层,获得待处理视频数据中的手势属于每个预设手势类型的概率值。
本实施例通过预训练的手势识别网络模型对经过预处理的待处理视频数据进行处理,获得识别结果,并发送至预设管理终端,能够识别视频数据中基于不同速率变化的场景,有效的整合了不同时间速率的图像特征,实现对手势类型的智能识别,降低了计算量提高了识别结果的精度,且鲁棒性高。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的手势识别方法,图6示出了本申请实施例提供的手势识别装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
在本实施例中,手势识别装置包括:处理器,其中,所述处理器用于执行存在存储器的以下程序模块:第一获取模块,用于获取真实视频数据;第一预处理模块,用于对所述真实视频数据进行预处理,获得待处理视频数据;图像处理模块,用于将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;发送模块,用于将所述识别结果发送至预设管理终端。
参照图6,该手势识别装置100包括:
第一获取模块101,用于获取真实视频数据;
第一预处理模块102,用于对所述真实视频数据进行预处理,获得待处理视频数据;
图像处理模块103,用于将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;
发送模块104,用于将所述识别结果发送至预设管理终端。
在一个实施例中,所述第一预处理模块,包括:
分帧处理单元,用于对所述真实视频数据进行分帧处理,获得分帧后的视频片段;
重组单元,用于按照预设方式对所述分帧后的视频片段进行重组,获得所述待处理视频数据。
在一个实施例中,所述重组单元,包括:
重组子单元,用于按照跳帧处理方式选取多个分帧后的视频片段并进行重组,获得所述待处理视频数据。
在一个实施例中,手势识别装置,还包括:
第二获取模块,用于获取多个训练视频数据;
第二预处理模块,用于对所述训练视频数据进行预处理,获得预处理后的训练视频数据;
标签模块,用于根据每个所述训练视频数据中的手势类型分别对对应的预处理的训练视频数据添加标签,获得训练数据集;
预训练模块,用于根据训练数据集对手势识别网络模型进行预训练,获得预训练后的手势识别网络模型。
在一个实施例中,所述手势识别网络模型包括快通道网络模型、慢通道网络模型、混合网络模型和预测识别网络模型。
在一个实施例中,所述待处理视频数据包括第一视频数据和第二视频数据;
所述图像处理模块,包括:
第一处理单元,用于将所述第一视频数据输入至所述快通道网络模型进行处理,获得第一处理结果;
第二处理单元,用于将所述第二视频数据输入至所述慢通道网络模型,通过所述慢通道网络模型和所述混合网络模型进行处理,获得第二处理结果;
融合单元,用于通过所述预测识别网络模型对所述第一处理结果和第二处理结果进行融合处理,获得所述待处理视频数据中的手势属于每个预设手势类型的概率值;
识别单元,用于选取概率值最大的手势类型作为识别结果。
在一个实施例中,所述快通道网络模型包括第一时空三维内核的深度卷积神经网络模型,所述慢通道网络模型包括第二时空三维内核的深度卷积神经网络模型,所述混合网络模型包括融合层,所述预测识别网络模型包括全局池化层、深度融合层和全连接层。
本实施例通过预训练的手势识别网络模型对经过预处理的待处理视频数据进行处理,获得识别结果,并发送至预设管理终端,能够识别视频数据中基于不同速率变化的场景,有效的整合了不同时间速率的图像特征,实现对手势类型的智能识别,降低了计算量提高了识别结果的精度,且鲁棒性高。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图7为本申请一实施例提供的终端设备的结构示意图。如图7所示,该实施例的终端设备7包括:至少一个处理器70(图7中仅示出一个)处理器、存储器71以及存储在所述存储器71中并可在所述至少一个处理器70上运行的计算机程序72,所述处理器70执行所述计算机程序72时实现上述任意各个手势识别方法实施例中的步骤。
所述终端设备7可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器70、存储器71。本领域技术人员可以理解,图7仅仅是终端设备7的举例,并不构成对终端设备7的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器70可以是中央处理单元(Central Processing Unit,CPU),该处理器70还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器71在一些实施例中可以是所述终端设备7的内部存储单元,例如终端设备7的硬盘或内存。所述存储器71在另一些实施例中也可以是所述终端设备7的外部存储设备,例如所述终端设备7上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字卡(Secure Digital,SD),闪存卡(Flash Card)等。进一步地,所述存储器71还可以既包括所述终端设备7的内部存储单元也包括外部存储设备。所述存储器71用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器71还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上仅为本申请的可选实施例而已,并不用于限制本申请。对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (15)

1.一种手势识别方法,其特征在于,包括:
获取真实视频数据;
对所述真实视频数据进行预处理,获得待处理视频数据;
将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;
将所述识别结果发送至预设管理终端。
2.如权利要求1所述的手势识别方法,其特征在于,所述对所述真实视频数据进行预处理,获得待处理视频数据,包括:
对所述真实视频数据进行分帧处理,获得分帧后的视频片段;
按照预设方式对所述分帧后的视频片段进行重组,获得所述待处理视频数据。
3.如权利要求2所述的手势识别方法,其特征在于,所述按照预设方式对所述分帧后的视频片段进行重组,获得所述待处理视频数据,包括:
按照跳帧处理方式选取多个分帧后的视频片段并进行重组,获得所述待处理视频数据。
4.如权利要求1所述的手势识别方法,其特征在于,所述方法还包括:
获取多个训练视频数据;
对所述训练视频数据进行预处理,获得预处理后的训练视频数据;
根据每个所述训练视频数据中的手势类型分别对对应的预处理的训练视频数据添加标签,获得训练数据集;
根据训练数据集对手势识别网络模型进行预训练,获得预训练后的手势识别网络模型。
5.如权利要求1至4任一项所述的手势识别方法,其特征在于,所述手势识别网络模型包括快通道网络模型、慢通道网络模型、混合网络模型和预测识别网络模型。
6.如权利要求5所述的手势识别方法,其特征在于,所述待处理视频数据包括第一视频数据和第二视频数据;
所述将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果,包括:
将所述第一视频数据输入至所述快通道网络模型进行处理,获得第一处理结果;
将所述第二视频数据输入至所述慢通道网络模型,通过所述慢通道网络模型和所述混合网络模型进行处理,获得第二处理结果;
通过所述预测识别网络模型对所述第一处理结果和第二处理结果进行融合处理,获得所述待处理视频数据中的手势属于每个预设手势类型的概率值;
选取概率值最大的手势类型作为识别结果。
7.如权利要求5所述的手势识别方法,其特征在于,所述快通道网络模型包括第一时空三维内核的深度卷积神经网络模型,所述慢通道网络模型包括第二时空三维内核的深度卷积神经网络模型,所述混合网络模型包括融合层,所述预测识别网络模型包括全局池化层、深度融合层和全连接层。
8.一种手势识别装置,其特征在于,包括:
第一获取模块,用于获取真实视频数据;
第一预处理模块,用于对所述真实视频数据进行预处理,获得待处理视频数据;
图像处理模块,用于将所述待处理视频数据输入至预训练的手势识别网络模型进行处理,获得识别结果;
发送模块,用于将所述识别结果发送至预设管理终端。
9.如权利要求8所述的手势识别装置,其特征在于,所述第一预处理模块,包括:
分帧处理单元,用于对所述真实视频数据进行分帧处理,获得分帧后的视频片段;
重组单元,用于按照预设方式对所述分帧后的视频片段进行重组,获得所述待处理视频数据。
10.如权利要求9所述的手势识别装置,其特征在于,所述重组单元,包括:
重组子单元,用于按照跳帧处理方式选取多个分帧后的视频片段并进行重组,获得所述待处理视频数据。
11.如权利要求8所述的手势识别装置,其特征在于,还包括:
第二获取模块,用于获取多个训练视频数据;
第二预处理模块,用于对所述训练视频数据进行预处理,获得预处理后的训练视频数据;
标签模块,用于根据每个所述训练视频数据中的手势类型分别对对应的预处理的训练视频数据添加标签,获得训练数据集;
预训练模块,用于根据训练数据集对手势识别网络模型进行预训练,获得预训练后的手势识别网络模型。
12.如权利要求8所述的手势识别装置,其特征在于,所述手势识别网络模型包括快通道网络模型、慢通道网络模型、混合网络模型和预测识别网络模型。
13.如权利要求12所述的手势识别装置,其特征在于,所述待处理视频数据包括第一视频数据和第二视频数据;
所述图像处理模块,包括:
第一处理单元,用于将所述第一视频数据输入至所述快通道网络模型进行处理,获得第一处理结果;
第二处理单元,用于将所述第二视频数据输入至所述慢通道网络模型,通过所述慢通道网络模型和所述混合网络模型进行处理,获得第二处理结果;
融合单元,用于通过所述预测识别网络模型对所述第一处理结果和第二处理结果进行融合处理,获得所述待处理视频数据中的手势属于每个预设手势类型的概率值;
识别单元,用于选取概率值最大的手势类型作为识别结果。
14.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
15.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202180000451.3A 2021-02-03 2021-02-03 一种手势识别方法、装置、终端设备及可读存储介质 Pending CN112997192A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2021/075094 WO2022165675A1 (zh) 2021-02-03 2021-02-03 一种手势识别方法、装置、终端设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN112997192A true CN112997192A (zh) 2021-06-18

Family

ID=76337136

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180000451.3A Pending CN112997192A (zh) 2021-02-03 2021-02-03 一种手势识别方法、装置、终端设备及可读存储介质

Country Status (2)

Country Link
CN (1) CN112997192A (zh)
WO (1) WO2022165675A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115578683B (zh) * 2022-12-08 2023-04-28 中国海洋大学 一种动态手势识别模型的搭建方法及动态手势识别方法
CN117789302B (zh) * 2023-12-29 2024-10-01 点昀技术(深圳)有限公司 手势识别方法和手势识别模型训练方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808150A (zh) * 2017-11-20 2018-03-16 珠海习悦信息技术有限公司 人体视频动作识别方法、装置、存储介质及处理器
CN110956059A (zh) * 2018-09-27 2020-04-03 深圳云天励飞技术有限公司 一种动态手势识别方法、装置和电子设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109886225B (zh) * 2019-02-27 2020-09-15 浙江理工大学 一种基于深度学习的图像手势动作在线检测与识别方法
CN110348494A (zh) * 2019-06-27 2019-10-18 中南大学 一种基于双通道残差神经网络的人体动作识别方法
CN111105803A (zh) * 2019-12-30 2020-05-05 苏州思必驰信息科技有限公司 快速识别性别的方法及装置、用于识别性别的算法模型的生成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808150A (zh) * 2017-11-20 2018-03-16 珠海习悦信息技术有限公司 人体视频动作识别方法、装置、存储介质及处理器
CN110956059A (zh) * 2018-09-27 2020-04-03 深圳云天励飞技术有限公司 一种动态手势识别方法、装置和电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHRISTOPH FEICHTENHOFER等: "SlowFast Networks for Video Recognition", PROCEEDINGS OF THE IEEE/CVF INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV), pages 6202 - 6211 *

Also Published As

Publication number Publication date
WO2022165675A1 (zh) 2022-08-11

Similar Documents

Publication Publication Date Title
Chen et al. An edge traffic flow detection scheme based on deep learning in an intelligent transportation system
CN113011282A (zh) 图数据处理方法、装置、电子设备及计算机存储介质
CN115187844A (zh) 基于神经网络模型的图像识别方法、装置及终端设备
Qin et al. Traffic-sign recognition using deep learning
CN113704531A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN112215171B (zh) 目标检测方法、装置、设备及计算机可读存储介质
CN113408321B (zh) 一种轻量级图像、视频数据的实时目标检测方法及装置
CN111832568A (zh) 车牌识别方法、车牌识别模型的训练方法和装置
CN107832794A (zh) 一种卷积神经网络生成方法、车系识别方法及计算设备
CN112997192A (zh) 一种手势识别方法、装置、终端设备及可读存储介质
CN109598250A (zh) 特征提取方法、装置、电子设备和计算机可读介质
CN110807379B (zh) 一种语义识别方法、装置、以及计算机存储介质
CN113792680B (zh) 基于图像融合的行为识别方法、装置、电子设备及介质
CN112233428B (zh) 车流量预测方法、装置、存储介质及设备
CN114332509B (zh) 图像处理方法、模型训练方法、电子设备及自动驾驶车辆
CN116561194A (zh) 端云协同数据挖掘方法、装置、系统及计算机集群
CN113610034B (zh) 识别视频中人物实体的方法、装置、存储介质及电子设备
CN113822143A (zh) 文本图像的处理方法、装置、设备以及存储介质
CN117892773A (zh) 模型部署方法、系统、电子设备以及存储介质
CN112949672A (zh) 商品识别方法、装置、设备以及计算机可读存储介质
CN113593297B (zh) 一种停车位状态检测方法和装置
CN114267021A (zh) 对象识别方法和装置、存储介质及电子设备
CN117173731B (zh) 一种模型训练的方法、图像处理的方法以及相关装置
CN117115238B (zh) 一种确定位姿的方法、电子设备及存储介质
CN118629095B (zh) 一种基于注意力机制的动态手势识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination