CN111860274B - 基于头部朝向与上半身骨架特征的交警指挥手势识别方法 - Google Patents

基于头部朝向与上半身骨架特征的交警指挥手势识别方法 Download PDF

Info

Publication number
CN111860274B
CN111860274B CN202010673722.9A CN202010673722A CN111860274B CN 111860274 B CN111860274 B CN 111860274B CN 202010673722 A CN202010673722 A CN 202010673722A CN 111860274 B CN111860274 B CN 111860274B
Authority
CN
China
Prior art keywords
traffic police
gesture
shoulder
head
joint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010673722.9A
Other languages
English (en)
Other versions
CN111860274A (zh
Inventor
江昆
杨殿阁
王思佳
杨蒙蒙
黄晋
付峥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202010673722.9A priority Critical patent/CN111860274B/zh
Publication of CN111860274A publication Critical patent/CN111860274A/zh
Application granted granted Critical
Publication of CN111860274B publication Critical patent/CN111860274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种基于头部朝向与上半身骨架特征的交警指挥手势识别方法,其包括以下步骤:车载相机采集得到视频或原始图像序列后,进行交警检测、姿态估计与跟踪,确定目标交警的上半身关节点在图像中的像素坐标;估计交警头部朝向,通过交警头部朝向判断交警的指挥对象是否为自车;交警指挥手势识别,包括提取上半身骨架空间特征、提取上半身骨架时序特征和手势分类。本发明具有较高的识别准确率,能保证识别的稳定性;在节省计算资源的同时还能避免自车非交警识别对象时对手势的误判。

Description

基于头部朝向与上半身骨架特征的交警指挥手势识别方法
技术领域
本发明涉及一种自动驾驶领域,特别是关于一种基于头部朝向与上半身骨架特征的交警指挥手势识别方法。
背景技术
机动车驾驶员必须能够正确识别交警的八种指挥手势,同样地,自动驾驶汽车上路也必须能够准确理解交警的指挥意图,这样才能在需要交警介入协调的特殊情况下,遵照交警指挥手势正确行驶,保证道路交通安全顺畅。交警手势识别技术需应用于广泛的交通场景中,基于可穿戴式传感设备的行为识别方法虽然准确性较好,但使用条件局限性较强,难以在自动驾驶领域推广;而与此同时,视觉传感器在智能汽车上的安装逐渐普及,计算机视觉领域的研究日益成熟,基于视觉的手势识别方法在自动驾驶领域具有更大的应用潜力。
当前基于人体骨架信息的手势或动作识别研究非常普遍,人体骨架既保留了人体动作表征,又避免了与动作表征关联较小的外观信息的影响,能够很好地对手势或动作进行建模。基于人体骨架的手势识别一般分为时空特征提取与特征分类两个步骤。针对空间特征提取,一些基于三维骨架信息的动作识别方法中提出了一系列以关节点空间关系描述为核心的特征构建方法,例如以关节点向量的长度、角度等作为特征;针对时序特征提取,通常可采用相邻帧关节点的位置变化来描述,使用循环神经网络通过学习提取时序特征也是常用方法;近几年兴起的图神经网络也是可用于人体骨架时空特征提取的有效方法。针对特征分类,一般可采用支持向量机、随机森林、神经网络等方法。
现有的基于人体骨架的手势识别方法在相关数据集上可获得较高的准确率,也可达到实时运行的要求,但对实际交通场景下应用的考虑尚有不足。一方面,由于人流、车流来往复杂,图像中交警被部分遮挡的现象时常发生,为保证手势识别的稳定性,应考虑减少对手势表征作用较小的特征的依赖。另一方面,实际交通中,车载相机拍摄到的交警可能正在指挥其他方向的车辆,自车并非交警的指挥对象,由于训练时所用的数据通常只有交警面向相机进行指挥的情形,因此现有方法直接应用于实际交通中往往会有许多错判结果。
发明内容
针对上述问题,本发明的目的是提供一种基于头部朝向与上半身骨架特征的交警指挥手势识别方法,其具有较高的识别准确率,能保证识别的稳定性;在节省计算资源的同时还能避免自车非交警识别对象时对手势的误判。
为实现上述目的,本发明采取以下技术方案:一种基于头部朝向与上半身骨架特征的交警指挥手势识别方法,其包括以下步骤:1)车载相机采集得到视频或原始图像序列后,进行交警检测、姿态估计与跟踪,确定目标交警的上半身关节点在图像中的像素坐标;2)估计交警头部朝向,通过交警头部朝向判断交警的指挥对象是否为自车;3)交警指挥手势识别,包括提取上半身骨架空间特征、提取上半身骨架时序特征和手势分类。
进一步,所述步骤1)中,采用YOLOv3检测出图像中的交警和行人,获取包围每个交警或行人个体的边界框的左上角坐标及框的宽度和高度;然后采用AlphaPose对交警目标进行关节点估计,即获取交警关节点的像素坐标,若图像中有多个交警,则利用AlphaPose中的姿态跟踪技术进行跟踪,为每个交警分配唯一ID。
进一步,所述步骤1)中,采用的特征关节点包括0-鼻、1-左肩、2-右肩、3-左肘、4-右肘、5-左腕、6-右腕和7-肩膀中点共8个。
进一步,所述步骤2)中,具体估计方法包括以下步骤:
2.1)根据已经获取的0-鼻和7-肩膀中点的坐标估计交警头部边界框:设头部边界框为正方形,以鼻为正方形中心,两倍鼻至肩膀中点的距离2a为正方形边长;
2.2)交警头部朝向估计:采用Deep Orientation朝向估计方法,将RGB图像、深度图像或两者同时作为输入,使用改进的Biternion Net作为网络结构,输出是上半身朝向角度的二元数,即角度的余弦值和正弦值;通过将训练数据替换为行人头部边界框图像,网络输出改为行人头部朝向角度的二元数,重新训练网络;将交警头部边界框图像输入训练好的网络模型,最终得到交警头部朝向角度;
2.3)筛选出面向自车进行指挥的交警。
进一步,所述步骤2.3)中,筛选规则为:头部朝向角度估计为0°~45°以及315°~360°之间的交警,认为是正在面向自车进行指挥。
进一步,所述步骤3)中,具体识别方法包括以下步骤:
3.1)提取人体上半身骨架的空间特征:采用互有连接关系的关节点之间的长度和角度特征构成特征向量,用于区分不同手势;
3.2)构造循环网络模型提取上半身骨架时序特征并进行手势分类。
进一步,所述步骤3.1)中,具体包括以下步骤:
3.1.1)关节点对连接关系定义:特征长度和特征角度是针对关节点连线而言,关节点之间的连接关系共有3种,构成10组关节点对,以向量形式表达,分别为:相邻点—左肩-左肘,左肘-左腕,右肩-右肘,右肘-右腕,左肩-右肩;上肢首尾点—左肩-左腕,右肩-右腕;上半身骨架模型末端点—鼻-左腕,鼻-右腕,左腕-右腕;
3.1.2)长度特征定义:共定义了10组关节点对,相应产生10段长度,对长度进行标准化处理,以鼻到肩膀中点的距离a作为标准化的分母,设长度特征为F1
Figure BDA0002583290150000031
a=‖X0-X7
式中,C表示所有关节点对连接关系的集合,
Figure BDA0002583290150000032
为具有连接关系c的一组关节点对中的第i个点在图像中的像素坐标,,i=1,2,序号1表示关节点对向量的起点,2表示终点,当两个关节点中任意一个未被检测出来,直接令其长度为0;X0为交警鼻部的像素坐标,X7为交警左肩和右肩像素坐标的中点,当鼻、左肩、右肩任一关节点未被检测出来,直接令a=1;
3.1.3)角度特征定义:将关节点对向量与重力方向夹角的余弦值和正弦值作为角度特征,设重力方向的单位向量为u0,则角度特征向量F2为:
Figure BDA0002583290150000033
如果任一关节点未被检测出来,直接令角度特征为[0,0]。
进一步,所述步骤3.2)中,设t时刻的空间特征向量为
Figure BDA0002583290150000034
将t至t+b-1时刻共b帧空间特征向量输入手势分类模型,模型输出每一时刻的手势分类结果。
进一步,所述手势分类模型的建立方法包括以下步骤:
3.2.1)采集交警手势视频,建立数据集;
3.2.2)计算交警关节点空间特征向量:对每帧图像中的交警计算其空间特征向量;
3.2.3)构建网络模型:采用长短时记忆网络LSTM,网络输入的形状为[训练样本数N,时间步长b,特征维数d],输出每一时刻每种手势的概率,概率最高的手势即为分类结果;
3.2.4)训练及验证:在训练过程中引入验证集,验证集中的交警与训练集中的交警不重复,训练过程中,每隔一预先设定周期,在验证集上测试模型性能;
3.2.5)分类结果后处理:采用基于投票机制的后处理方法对结果进行处理。
进一步,所述步骤3.2.5)中,采用双重投票机制:
第一重投票针对模型输出结果,融合最接近输出时刻的多帧分类结果:
{Ft-b′+1,…,Ft}→Mo{Ot-j+1,…,Ot}
式中,左侧为输入模型的关节点空间特征向量集合,共b′帧;右侧Mo表示求取该序列的众数,Oi表示第i时刻的手势分类结果,j表示参与投票的帧数;
第二重投票综合考虑当前帧分类结果和已输出的过去帧的分类结果,通过头部朝向估计判断的“无意义”手势,需要一起进行第二重投票:
Mo{Mo{Ot-2j+2,…,Ot-j+1},…,Mo{Ot-j+1,…,Ot}}→Gt
式中,右侧的Gt表示t时刻的最终分类结果。
本发明由于采取以上技术方案,其具有以下优点:1、本发明仅使用人体上半身的关节点构造特征,通过较少的关节点仍可获得较高的识别准确率,尤其是在交警下半身受到频繁遮挡时,仍能保证识别的稳定性。2、本发明能够适应实际交通场景的应用情形,仅在自车作为交警指挥对象时进行手势识别,在节省计算资源的同时还能避免自车非交警识别对象时对手势的误判。
附图说明
图1是本发明的整体流程示意图。
图2是本发明实施例中采用的交警人体关节点示意图。
图3是本发明中交警头部估计边界框的示意图。
图4是本发明实施例中采用的交警头部朝向角度示意图。
图5是本发明中互有连接关系的关节点对向量示意图。
图6是本发明中手势分类模型建立的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提供一种基于头部朝向与上半身骨架特征的交警指挥手势识别方法,包括以下步骤:
1)车载相机采集得到视频或原始图像序列后,进行交警检测、姿态估计与跟踪,确定目标交警的上半身关节点在图像中的像素坐标,由于本发明不涉及具体实现关节点估计的方法,因此对其不作限制。
由于交通场景图像中通常有多人同时存在,必须将每一帧中属于目标交警的关节点关联起来,即给图像序列中的每个人分配唯一ID,才能为识别交警手势提供正确的、连续的关节点特征信息,因此在本实施例中,首先采用YOLOv3检测出图像中的交警和行人,即获取包围每个交警或行人个体的边界框的左上角坐标及框的宽度和高度;然后采用AlphaPose对交警目标进行关节点估计,即获取交警关节点的像素坐标,若图像中有多个交警,则利用AlphaPose中的姿态跟踪技术进行跟踪,为每个交警分配唯一ID。
本发明中使用的特征关节点包括0-鼻、1-左肩、2-右肩、3-左肘、4-右肘、5-左腕、6-右腕、7-肩膀中点共8个,如图2中的黑色实心点所示,其中肩膀中点通过左右肩坐标计算得到。
2)估计交警头部朝向,通过交警头部朝向判断交警的指挥对象是否为自车。
2.1)交警头部边界框估计。
根据已经获取的0-鼻和7-肩膀中点的坐标估计交警头部边界框:设头部边界框为正方形,以鼻为正方形中心,两倍鼻至肩膀中点的距离2a为正方形边长,如图2所示。
将估计得到的头部边界框内的图像裁剪出来,作为头部朝向估计的输入。
2.2)交警头部朝向估计。本发明不涉及具体实现交警头部朝向估计的方法,因此对其不作限制。本实施例中采用Deep Orientation朝向估计方法,该方法原本用于人体上半身朝向估计,可将RGB图像、深度图像或两者同时作为输入,使用改进的Biternion Net作为网络结构,输出是上半身朝向角度的二元数,即角度的余弦值和正弦值。通过将训练数据替换为行人头部边界框图像,固定输入尺寸为48×48,网络输出改为行人头部朝向角度的二元数,重新训练网络。将交警头部边界框图像输入训练好的网络模型,最终得到交警头部朝向角度。考虑到人体头部朝向变化的连续性,进一步采用卡尔曼滤波方法对头部朝向进行跟踪作为后处理。
2.3)筛选出面向自车进行指挥的交警。交警头部朝向的角度定义如图3所示,筛选规则为:头部朝向角度估计为0°~45°以及315°~360°之间的交警(如图4所示),认为是正在面向自车进行指挥。若判断该交警不在指挥自车,则判定该时刻t的交警手势Ot为“无意义”。需注意的是,Ot是中间结果,最终输出的识别结果在步骤3.2.5)中说明。
3)交警指挥手势识别,包括提取上半身骨架空间特征、提取上半身骨架时序特征和手势分类。
具体识别方法包括以下步骤:
3.1)提取人体上半身骨架的空间特征。交警指挥手势主要通过上肢动作和身体转向表达,本发明采用互有连接关系的关节点之间的长度和角度特征构成特征向量,用于区分不同手势。
3.1.1)关节点对连接关系定义。特征长度和特征角度是针对关节点连线而言的,本发明中关节点之间的连接关系共有3种,构成10组关节点对,以向量形式表达,分别为:相邻点—左肩-左肘,左肘-左腕,右肩-右肘,右肘-右腕,左肩-右肩;上肢首尾点—左肩-左腕,右肩-右腕;上半身骨架模型末端点—鼻-左腕,鼻-右腕,左腕-右腕,如图5所示。
3.1.2)长度特征定义。本发明中共定义了10组关节点对,相应产生10段长度。为避免不同个体之间身形差异、距相机距离远近对手势识别带来的影响,因此对长度进行标准化处理,以鼻到肩膀中点的距离a(图5中的黑色虚线)作为标准化的分母,由于对于交警指挥场景该距离一般较为稳定,随指挥动作或视角变化较小,因此用该距离作为标准化的分母是合适的。设长度特征为F1
Figure BDA0002583290150000061
a=‖X0-X7‖                           (2)
式中,C表示所有关节点对连接关系的集合,
Figure BDA0002583290150000062
为具有连接关系c的一组关节点对中的第i个点在图像中的像素坐标,序号1表示关节点对向量的起点,2表示终点,当两个关节点中任意一个未被检测出来,直接令其长度为0;X0为交警鼻部的像素坐标,X7为交警左肩和右肩像素坐标的中点,当鼻、左肩、右肩任一关节点未被检测出来,直接令a=1。根据以上定义,F1是一个10维向量。
3.1.3)角度特征定义。将关节点对向量与重力方向夹角的余弦值和正弦值作为角度特征。设重力方向的单位向量为u0,则角度特征向量F2可写为:
Figure BDA0002583290150000063
同样地,如果计算式(3)时任一关节点未被检测出来,直接令角度特征为[0,0]。根据以上定义,F2是一个20维向量。
3.2)构造循环网络模型提取上半身骨架时序特征并进行手势分类。
由于在步骤3.1)中定义了交警在单帧图像中的关节点空间特征,为了更准确地对手势动作进行分类,需考虑连续多帧的关节点空间特征之间的联系,即时序特征。
设t时刻的空间特征向量为
Figure BDA0002583290150000064
将t至t+b-1时刻共b帧空间特征向量输入手势分类模型,模型输出每一时刻的手势分类结果。考虑到实际应用时,分类结果是逐帧输出,因此应用该模型时,仅保留t+b-1时刻的手势分类结果作为输出结果。如图6所示,手势分类模型的建立方法包括以下步骤:
3.2.1)采集交警手势视频,建立数据集。
根据实际需要,可采集不同情形下的交警手势视频,逐帧标注手势类别,并将数据集划分为训练集、验证集和测试集,一般可采用3:1:1的划分比例,注意每个子集中各类手势样本量应较为均匀。也可直接使用公开的数据集进行训练和测试。
3.2.2)计算交警关节点空间特征向量。
根据步骤1)、2),可对每帧图像中的交警计算其空间特征向量。
3.2.3)构建网络模型。手势分类可通过循环神经网络模型实现,在本实施例中采用长短时记忆网络LSTM,网络输入的形状为[训练样本数N,时间步长b,特征维数d],输出每一时刻每种手势的概率,概率最高的手势即为分类结果。
本实施例中采用一个标准LSTM层和一个全连接层组成分类模型,LSTM层的隐藏单元数设为32,全连接层输出维数设为9(对应8种指挥手势和其它“无意义”动作),采用softmax后的交叉熵损失函数,优化器选用Adam Optimizer。
3.2.4)训练及验证。在本实施例中,为了确保训练得到的模型有较好的泛化性,在训练过程中引入验证集,验证集中的交警与训练集中的交警不重复。训练过程中,每隔一预先设定周期,在验证集上测试模型性能,间隔周期数不作限制。当验证集上损失不再下降或变化缓慢,即可停止训练,认为此时的模型已经训练充分。
3.2.5)分类结果后处理。实际应用时,受硬件条件限制,每帧手势分类所使用的空间特征帧数有限,且每帧分类结果依次输出,为提高输出的稳定性,采用基于投票机制的后处理方法对结果进行处理。本发明采用双重投票机制。第一重投票针对模型输出结果,由于模型会输出所有输入帧每一帧的输出结果,因此可融合最接近输出时刻的多帧分类结果,如式(4):
{Ft-b′+1,…,Ft}→Mo{Ot-j+1,…,Ot}       (4)
式(4)左侧为输入模型的关节点空间特征向量集合,共b′帧,注意应用时的b′与模型训练时的b可以不相等;右侧Mo表示求取该序列的众数,Oi表示第i时刻的手势分类结果,j表示参与投票的帧数。第二重投票综合考虑当前帧分类结果和已输出的过去帧的分类结果,在步骤2)中通过头部朝向估计判断的“无意义”手势,需要一起进行第二重投票,如式(5):
Mo{Mo{Ot-2j+2,…,Ot-j+1},…,Mo{Ot-j+1,…,Ot}}→Gt     (5)
式(5)右侧的Gt即表示t时刻的最终分类结果。
综上,本发明提供的基于头部朝向与上半身骨架特征的交警手势识别方法以车载相机采集的连续图像或视频作为信息源,首先通过交警检测、二维人体姿态估计、姿态跟踪等技术确定目标交警及其上半身关节点在图像中的坐标;根据其鼻部和肩膀中点位置粗略划定交警头部边界框,进一步估计其头部朝向,判断自车是否是交警的指挥对象,若是则提取交警上半身骨架的空间特征向量,并利用长短时记忆网络构建手势分类模型,实现交警指挥手势的识别。
上述各实施例仅用于说明本发明,各个步骤都是可以有所变化的,在本发明技术方案的基础上,凡根据本发明原理对个别步骤进行的改进和等同变换,均不应排除在本发明的保护范围之外。

Claims (6)

1.一种基于头部朝向与上半身骨架特征的交警指挥手势识别方法,其特征在于包括以下步骤:
1)车载相机采集得到视频或原始图像序列后,进行交警检测、姿态估计与跟踪,确定目标交警的上半身关节点在图像中的像素坐标;
2)估计交警头部朝向,通过交警头部朝向判断交警的指挥对象是否为自车;
3)交警指挥手势识别,包括提取上半身骨架空间特征、提取上半身骨架时序特征和手势分类;
所述步骤1)中,采用YOLOv3检测出图像中的交警和行人,获取包围每个交警或行人个体的边界框的左上角坐标及框的宽度和高度;然后采用AlphaPose对交警目标进行关节点估计,即获取交警关节点的像素坐标,若图像中有多个交警,则利用AlphaPose中的姿态跟踪技术进行跟踪,为每个交警分配唯一ID;
所述步骤1)中,采用的特征关节点包括0-鼻、1-左肩、2-右肩、3-左肘、4-右肘、5-左腕、6-右腕和7-肩膀中点共8个;
所述步骤2)中,具体估计方法包括以下步骤:
2.1)根据已经获取的0-鼻和7-肩膀中点的坐标估计交警头部边界框:设头部边界框为正方形,以鼻为正方形中心,两倍鼻至肩膀中点的距离2a为正方形边长;
2.2)交警头部朝向估计:采用Deep Orientation朝向估计方法,将RGB图像、深度图像或两者同时作为输入,使用改进的Biternion Net作为网络结构,输出是上半身朝向角度的二元数,即角度的余弦值和正弦值;通过将训练数据替换为行人头部边界框图像,网络输出改为行人头部朝向角度的二元数,重新训练网络;将交警头部边界框图像输入训练好的网络模型,最终得到交警头部朝向角度;
2.3)筛选出面向自车进行指挥的交警;
所述步骤3)中,具体识别方法包括以下步骤:
3.1)提取人体上半身骨架的空间特征:采用互有连接关系的关节点之间的长度和角度特征构成特征向量,用于区分不同手势;
3.2)构造循环网络模型提取上半身骨架时序特征并进行手势分类。
2.如权利要求1所述交警指挥手势识别方法,其特征在于,所述步骤2.3)中,筛选规则为:头部朝向角度估计为0°~45°以及315°~360°之间的交警,认为是正在面向自车进行指挥。
3.如权利要求1所述交警指挥手势识别方法,其特征在于,所述步骤3.1)中,具体包括以下步骤:
3.1.1)关节点对连接关系定义:特征长度和特征角度是针对关节点连线而言,关节点之间的连接关系共有3种,构成10组关节点对,以向量形式表达,分别为:相邻点—左肩-左肘,左肘-左腕,右肩-右肘,右肘-右腕,左肩-右肩;上肢首尾点—左肩-左腕,右肩-右腕;上半身骨架模型末端点—鼻-左腕,鼻-右腕,左腕-右腕;
3.1.2)长度特征定义:共定义了10组关节点对,相应产生10段长度,对长度进行标准化处理,以鼻到肩膀中点的距离a作为标准化的分母,设长度特征为F1
Figure FDA0004021487880000021
a=‖X0-X7
式中,C表示所有关节点对连接关系的集合,
Figure FDA0004021487880000022
为具有连接关系c的一组关节点对中的第i个点在图像中的像素坐标,i=1,2,序号1表示关节点对向量的起点,2表示终点,当两个关节点中任意一个未被检测出来,直接令其长度为0;X0为交警鼻部的像素坐标,X7为交警左肩和右肩像素坐标的中点,当鼻、左肩、右肩任一关节点未被检测出来,直接令a=1;
3.1.3)角度特征定义:将关节点对向量与重力方向夹角的余弦值和正弦值作为角度特征,设重力方向的单位向量为u0,则角度特征向量F2为:
Figure FDA0004021487880000023
如果任一关节点未被检测出来,直接令角度特征为[0,0]。
4.如权利要求3所述交警指挥手势识别方法,其特征在于,所述步骤3.2)中,设t时刻的空间特征向量为
Figure FDA0004021487880000024
将t至t+b-1时刻共b帧空间特征向量输入手势分类模型,模型输出每一时刻的手势分类结果。
5.如权利要求4所述交警指挥手势识别方法,其特征在于,所述手势分类模型的建立方法包括以下步骤:
3.2.1)采集交警手势视频,建立数据集;
3.2.2)计算交警关节点空间特征向量:对每帧图像中的交警计算其空间特征向量;
3.2.3)构建网络模型:采用长短时记忆网络LSTM,网络输入的形状为[训练样本数N,时间步长b,特征维数d],输出每一时刻每种手势的概率,概率最高的手势即为分类结果;
3.2.4)训练及验证:在训练过程中引入验证集,验证集中的交警与训练集中的交警不重复,训练过程中,每隔一预先设定周期,在验证集上测试模型性能;
3.2.5)分类结果后处理:采用基于投票机制的后处理方法对结果进行处理。
6.如权利要求5所述交警指挥手势识别方法,其特征在于,所述步骤3.2.5)中,采用双重投票机制:
第一重投票针对模型输出结果,融合最接近输出时刻的多帧分类结果:
{Ft-b′+1,…,Ft}→Mo{Ot-j+1,…,Ot}
式中,左侧为输入模型的关节点空间特征向量集合,共b′帧;右侧Mo表示求取该序列的众数,Oi表示第i时刻的手势分类结果,j表示参与投票的帧数;
第二重投票综合考虑当前帧分类结果和已输出的过去帧的分类结果,通过头部朝向估计判断的“无意义”手势,需要一起进行第二重投票:
Mo{Mo{Ot-2j+2,…,Ot-j+1},…,Mo{Ot-j+1,…,Ot}}→Gt
式中,右侧的Gt表示t时刻的最终分类结果。
CN202010673722.9A 2020-07-14 2020-07-14 基于头部朝向与上半身骨架特征的交警指挥手势识别方法 Active CN111860274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010673722.9A CN111860274B (zh) 2020-07-14 2020-07-14 基于头部朝向与上半身骨架特征的交警指挥手势识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010673722.9A CN111860274B (zh) 2020-07-14 2020-07-14 基于头部朝向与上半身骨架特征的交警指挥手势识别方法

Publications (2)

Publication Number Publication Date
CN111860274A CN111860274A (zh) 2020-10-30
CN111860274B true CN111860274B (zh) 2023-04-07

Family

ID=72984431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010673722.9A Active CN111860274B (zh) 2020-07-14 2020-07-14 基于头部朝向与上半身骨架特征的交警指挥手势识别方法

Country Status (1)

Country Link
CN (1) CN111860274B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112686111B (zh) * 2020-12-23 2021-07-27 中国矿业大学(北京) 基于注意力机制多视角自适应网络的交警手势识别方法
CN112712061B (zh) * 2021-01-18 2023-01-24 清华大学 适用于多方向交警指挥手势的识别方法、系统及存储介质
US11656723B2 (en) * 2021-02-12 2023-05-23 Vizio, Inc. Systems and methods for providing on-screen virtual keyboards
CN113128339A (zh) * 2021-03-15 2021-07-16 同济大学 一种基于行为识别的智能车辆运行控制系统和方法
CN113627369A (zh) * 2021-08-16 2021-11-09 南通大学 一种竞拍场景下的动作识别与跟踪方法
CN113822250A (zh) * 2021-11-23 2021-12-21 中船(浙江)海洋科技有限公司 一种船舶驾驶异常行为检测方法
CN114494338A (zh) * 2021-12-21 2022-05-13 特斯联科技集团有限公司 基于自适应定位及卡尔曼滤波跟踪的手部实时感知方法
CN115410233B (zh) * 2022-11-01 2023-01-24 齐鲁工业大学 一种基于卡尔曼滤波和深度学习的手势姿态估计方法
CN116343343B (zh) * 2023-05-31 2023-07-25 杭州电子科技大学 一种基于云边端架构的起重机吊运指挥动作智能测评方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809455B (zh) * 2015-05-19 2017-12-19 吉林大学 基于可判别性二叉树投票的动作识别方法
CN106650687B (zh) * 2016-12-30 2020-05-19 山东大学 一种基于深度信息和骨骼信息的姿势矫正方法
CN107169411B (zh) * 2017-04-07 2019-10-29 南京邮电大学 一种基于关键帧和边界约束dtw的实时动态手势识别方法
CN110858295B (zh) * 2018-08-24 2021-04-20 广州汽车集团股份有限公司 一种交警手势识别方法、装置、整车控制器及存储介质
CN110096965A (zh) * 2019-04-09 2019-08-06 华东师范大学 一种基于头部姿态的人脸识别方法
CN110287844B (zh) * 2019-06-19 2021-07-23 北京工业大学 基于卷积姿势机和长短时记忆网络的交警手势识别方法
CN111291786B (zh) * 2020-01-17 2022-10-25 清华大学 一种车载视觉实时多目标航向角估计方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Traffic Command Gesture Recognition for Virtual Urban Scenes Based on a Spatiotemporal Convolution Neural Network;Chunyong Ma等;《ISPRS International Journal of Geo-Information》;全文 *

Also Published As

Publication number Publication date
CN111860274A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN111860274B (zh) 基于头部朝向与上半身骨架特征的交警指挥手势识别方法
CN110097109B (zh) 一种基于深度学习的道路环境障碍物检测系统及方法
CN108830252B (zh) 一种融合全局时空特征的卷积神经网络人体动作识别方法
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN101344922B (zh) 一种人脸检测方法及其装置
CN105744232A (zh) 一种基于行为分析技术的输电线路视频防外破的方法
CN110119726B (zh) 一种基于YOLOv3模型的车辆品牌多角度识别方法
CN111401188B (zh) 一种基于人体关键点特征的交警手势识别方法
CN108596087B (zh) 一种基于双网络结果的驾驶疲劳程度检测回归模型
JP7091686B2 (ja) 立体物認識装置、撮像装置および車両
CN111553214B (zh) 一种驾驶员吸烟行为检测方法及系统
CN104915642B (zh) 前方车辆测距方法及装置
Kumtepe et al. Driver aggressiveness detection via multisensory data fusion
CN113378641B (zh) 基于深度神经网络和注意力机制的手势识别方法
CN106570490A (zh) 一种基于快速聚类的行人实时跟踪方法
US20220366570A1 (en) Object tracking device and object tracking method
CN106845458B (zh) 一种基于核超限学习机的快速交通标识检测方法
Cho et al. Semantic segmentation with low light images by modified CycleGAN-based image enhancement
CN106529441B (zh) 基于模糊边界分片的深度动作图人体行为识别方法
CN111915583A (zh) 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN111723773A (zh) 遗留物检测方法、装置、电子设备及可读存储介质
CN115346197A (zh) 一种基于双向视频流的驾驶员分心行为识别方法
CN115861981A (zh) 基于视频姿态不变性的驾驶员疲劳行为检测方法及系统
US20120189161A1 (en) Visual attention apparatus and control method based on mind awareness and display apparatus using the visual attention apparatus
KR20190050551A (ko) 깊이 맵 정보 기반의 인체 행위 인지 방법 및 그 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant