CN112818877A - 一种识别头盔佩戴的方法及装置 - Google Patents

一种识别头盔佩戴的方法及装置 Download PDF

Info

Publication number
CN112818877A
CN112818877A CN202110160273.2A CN202110160273A CN112818877A CN 112818877 A CN112818877 A CN 112818877A CN 202110160273 A CN202110160273 A CN 202110160273A CN 112818877 A CN112818877 A CN 112818877A
Authority
CN
China
Prior art keywords
target
portrait
detected
image
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110160273.2A
Other languages
English (en)
Inventor
闫军
王凤菊
阳平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aipark Meihao Technology Co ltd
Original Assignee
Aipark Meihao Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aipark Meihao Technology Co ltd filed Critical Aipark Meihao Technology Co ltd
Priority to CN202110160273.2A priority Critical patent/CN112818877A/zh
Publication of CN112818877A publication Critical patent/CN112818877A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供了识别头盔佩戴的方法及装置,该方法包括:获取预定监控区域的第一图像,确定所述第一图像中包含待检测车辆目标和人像目标的第二图像;基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系;根据所述位置关系,确定所述人像目标是否处于骑行状态;若处于,基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔。通过本发明,基于人像目标头肩的位置,识别人像目标是否佩戴头盔,极大地提高了识别人像目标是否佩戴头盔的识别率,有效地解决了复杂场景下现有视觉技术受光照、视角、尺度等因素的影响而无法精确识别的情况,提高复杂场景下应用的准确率。

Description

一种识别头盔佩戴的方法及装置
技术领域
本发明涉及人工智能技术领域,尤其涉及一种识别头盔佩戴的方法及装置。
背景技术
为进一步提升电动自行车、摩托车骑乘人的安全防护水平,有效减少交通事故死亡人数,公安部安管局在全国开展了骑行安全守护行动,对骑乘电动自行车、摩托车不佩戴安全头盔的行为,开展宣传引导工作。为落实该项工作,需要一定的辅助技术在交通监管平台中有效地识别出未佩戴头盔的骑手。现有交通管理系统,通常通过人工执法手段捕获未佩戴头盔的骑手,该捕获方式效率低下,无法大规模的捕获,因此,需要一定的辅助技术在交通监管平台中有效地识别出未佩戴头盔的骑手。而现有自动化识别是否佩戴头盔的方法,只适用于特有类型头盔的识别,在复杂交通场景下,针对各式各样的头盔,识别的准确率较低,因此,需要一种通用场景下精确识别骑手是否佩戴头盔的方法。
发明内容
本发明实施例提供一种识别头盔佩戴的方法及装置,实现了能够精确地识别骑手是否佩戴头盔。
一方面,本发明实施例提供了一种识别头盔佩戴的方法,包括:
获取预定监控区域的第一图像,确定所述第一图像中包含待检测车辆目标和人像目标的第二图像;
基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系;
根据所述位置关系,确定所述人像目标是否处于骑行状态;
若处于,基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔。
进一步地,所述基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系,包括:
通过梯度下降算法预训练目标检测与关联模型;
通过所述目标检测与关联模型,确定所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置;
根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系;
其中,所述待检测车辆包括电动车、摩托车中的任一种。
进一步地,所述根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系,包括:
通过所述目标检测与关联模型,得到所述第二图像的热力图;
通过预定检测器确定所述第二图像的热力图中各待检测目标的中心点坐标和各待检测目标的相关属性;
根据各待检测目标的中心点坐标和相关属性,确定各待检测目标的关联信息;
其中,所述待检测目标包括人像目标、待检测车辆目标,所述待检测目标的相关属性包括待检测目标的大小和是否与其他待检测目标关联中的至少一项。
进一步地,所述根据所述位置关系,确定所述人像目标是否处于骑行状态,包括:
根据已确定的各待检测目标的中心点坐标,计算待检测车辆目标中心点坐标的与人像中心点坐标的偏移量;
根据所述偏移量,计算确定待检测车辆目标与人像目标坐标的偏移差是否在预定差值范围内;
若是,确定所述第二图像中的人像目标处于骑行状态。
进一步地,所述基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔,包括:
确定所述第二图像中处于骑行状态人像目标上身部位的第一区域面积,并确定所述人像目标头肩的位置的第二区域面积;
计算所述第一区域面积与所述第二区域面积的交叉比;
判断所述交叉比值是否大于预定对比阈值,若大于,确定所述人像目标的头部与肩部相匹配。
进一步地,在所述基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔的步骤之前,包括:
获取多张包含人像目标头肩数据的数据集,并通过所述目标检测与关联模型获取人像目标的头肩区域;
通过梯度下降算法训练已确定头肩区域的所述数据集,得到头盔佩戴识别模型。
另一方面,本发明实施例提供了一种识别头盔佩戴的装置,包括:
获取及确定模块,用于获取预定监控区域的第一图像,确定所述第一图像中包含待检测车辆目标和人像目标的第二图像;
第一确定模块,用于基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系;
第二确定模块,用于根据所述位置关系,确定所述人像目标是否处于骑行状态;
识别模块,用于若处于,基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔。
进一步地,所述第一确定模块,包括:
预训练单元,用于通过梯度下降算法预训练目标检测与关联模型;
第一确定单元,用于通过所述目标检测与关联模型,确定所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置;
第二确定单元,用于根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系;
其中,所述待检测车辆包括电动车、摩托车中的任一种。
进一步地,所述第二确定单元,具体用于
通过所述目标检测与关联模型,得到所述第二图像的热力图;
通过预定检测器确定所述第二图像的热力图中各待检测目标的中心点坐标和各待检测目标的相关属性;
根据各待检测目标的中心点坐标和相关属性,确定各待检测目标的关联信息;
其中,所述待检测目标包括人像目标、待检测车辆目标,所述待检测目标的相关属性包括待检测目标的大小和是否与其他待检测目标关联中的至少一项。
进一步地,所述第二确定模块,具体用于
根据已确定的各待检测目标的中心点坐标,计算待检测车辆目标中心点坐标的与人像中心点坐标的偏移量;
根据所述偏移量,计算确定待检测车辆目标与人像目标坐标的偏移差是否在预定差值范围内;
若是,确定所述第二图像中的人像目标处于骑行状态。
进一步地,其特征在于,所述识别模块,具体用于
确定所述第二图像中处于骑行状态人像目标上身部位的第一区域面积,并确定所述人像目标头肩的位置的第二区域面积;
计算所述第一区域面积与所述第二区域面积的交叉比;
判断所述交叉比值是否大于预定对比阈值,若大于,确定所述人像目标的头部与肩部相匹配。
进一步地,其特征在于,包括:
获取模块,用于获取多张包含人像目标头肩数据的数据集,并通过所述目标检测与关联模型获取人像目标的头肩区域;
训练模块,用于通过梯度下降算法训练已确定头肩区域的所述数据集,得到头盔佩戴识别模型。
上述技术方案具有如下有益效果:通过本发明,基于深度学习的计算机视觉通过图像视频大数据分析,可识别图像视频中的待检测目标,并能够基于人像目标的头肩位置关系,确定人像目标是否处于骑行状态,减少了对人像目标在非骑行状态下的不必要识别,从而提高了检测的效率,同时,基于人像目标头肩的位置,识别人像目标是否佩戴头盔,极大地提高了识别人像目标是否佩戴头盔的识别率,有效地解决了复杂场景下现有视觉技术受光照、视角、尺度等因素的影响而无法精确识别的情况,提高了复杂场景下识别头盔是否佩戴的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例中识别头盔佩戴的方法流程图;
图2为本发明一实施例中识别头盔佩戴的装置结构示意图;
图3为本发明一优选实施例中人像目标的头部和肩部位置示意图;
图4为本发明一优选实施例中人像目标中心点与所骑车辆的中心点连线示意图;
图5为本发明一优选实施例中基于CenterNet网络目标检测结构设计示意图;
图6为本发明一优选实施例中骑手上身部分检测框区域与头肩区域的位置示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例上述技术方案具有如下有益效果:通过本发明,基于深度学习的计算机视觉通过图像视频大数据分析,可识别图像视频中的待检测目标,并能够基于人像目标的头肩位置关系,确定人像目标是否处于骑行状态,减少了对人像目标在非骑行状态下的不必要识别,从而提高了检测的效率,同时,基于人像目标头肩的位置,识别人像目标是否佩戴头盔,极大地提高了识别人像目标是否佩戴头盔的识别率,有效地解决了复杂场景下现有视觉技术受光照、视角、尺度等因素的影响而无法精确识别的情况,提高了复杂场景下识别头盔是否佩戴的准确率。
以下结合应用实例对本发明实施例上述技术方案进行详细说明:
在一种可能的实现方式中,步骤102基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系,包括:通过梯度下降算法预训练目标检测与关联模型;通过所述目标检测与关联模型,确定所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置;根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系。
例如,在头盔佩戴的识别系统中,通过梯度下降算法预训练目标检测与关联模型;具体的,采用预先制作好的目标检测与关联训练集,该训练集由预先从交通系统的收集的海量图像组成,训练集中的所有图像经过人工标注确定每张图像中人像、待检测车辆和人像头肩区域的矩形框,以及骑手与待检测车辆的中心点连线,训练集中的所有图像xi经过标注,可获取图像xi所对应的矩形框标签yi,即每张图像的中人像、待检测车辆和头肩所在区域的矩形框,以及骑手与所骑行的待检测车辆的中心点连线,最终所建立目标检测的训练数据库为<X,Y>,其中X=(x1,x2,...,xn),Y=(y1,y2,...,yn),n表示图像帧的总数,随后,通过梯度下降算法训练基于目标检测算法CenterNet的目标检测与关联模型,训练得到最优结果。在头盔佩戴的识别过程中,基于预定频率从监控设备获取预定监控区域的多张第一图像,并确定各第一图像中包含待检测车辆目标和人像目标的各个第二图像;随后,针对各第二图像,通过预训练得到的目标检测与关联模型,确定当前第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置;根据已确定的当前第二图像中待检测车辆目标的位置、人像目标的位置以及述人像目标头肩的位置,确定当前第二图像中待检测车辆目标与人像目标头肩的位置关系。
其中,其中头肩的检测区域具体包括人像目标的头部和肩部,头肩位置的矩形框为包含头顶,左肩和左肩的最小外接矩形,如图3所示的矩形位置。
通过本实施例,能够精确地确定待检测车辆目标与人像目标头肩的位置关系,为后续精确地识别人像目标是否佩戴头盔提供了重要的前提保障。
在一种可能的实现方式中,根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系,包括:通过所述目标检测与关联模型,得到所述第二图像的热力图;通过预定检测器确定所述第二图像的热力图中各待检测目标的中心点坐标和各待检测目标的相关属性;根据各待检测目标的中心点坐标和相关属性,确定各待检测目标的关联信息。
其中,所述待检测目标包括人像目标、待检测车辆目标,所述待检测目标的相关属性包括待检测目标的大小和是否与其他待检测目标关联中的至少一项。
例如,在头盔佩戴的识别系统中,基于预定频率从监控设备获取预定监控区域的多张第一图像,并确定各第一图像中包含待检测车辆目标和人像目标的各个第二图像;随后,针对各第二图像,通过预训练得到的目标检测与关联模型,得到当前第二图像的热力图;通过预定检测器,如CenterNet检测器,确定当前第二图像的热力图中待检测车辆目标的中心点坐标、人像目标的中心点坐标、待检测车辆目标的相关属性和人像目标的相关属性。本实施例中通过基于中心点的CenterNet检测网络实施目标检测,CenterNet检测网络可实现将目标定位到一个点,即检测矩形框的中心点,CenterNet检测器通过网络输出的热力图能够寻找到中心点,并获取检测目标的其它属性,比如目标的大小、3D位置坐标、方向,甚至姿态,本实施例在原始CenterNet检测网络的基础上,还能够输出人像与待检测车辆目标的位置关联信息。其中,检测网络CenterNet是一个端到端的、简单而快速的目标检测器,而且比一些基于锚框的检测器更加准确。其中,关联信息的人像目标中心点与所骑车辆中心点的连线,如图4所示。
通过本实施例,有效地解决了复杂场景下现有视觉技术受光照、视角、尺度等因素的影响而无法精确识别的情况,实现了能够精确快速确定待检测车辆目标与人像目标头肩的位置关系。
在一种可能的实现方式中,根据所述位置关系,确定所述人像目标是否处于骑行状态,包括:根据已确定的各待检测目标的中心点坐标,计算待检测车辆目标中心点坐标的与人像中心点坐标的偏移量;根据所述偏移量,计算确定待检测车辆目标与人像目标坐标的偏移差是否在预定差值范围内;若是,确定所述第二图像中的人像目标处于骑行状态。
例如,在头盔佩戴的识别系统中,在头盔佩戴的识别系统中,基于预定频率从监控设备获取预定监控区域的多张第一图像,并确定各第一图像中包含待检测车辆目标和人像目标的各个第二图像;随后,针对各第二图像,确定当前第二图像中待检测车辆目标与人像目标头肩的位置关系;根据目标检测与关联模型已确定的各待检测目标的中心点坐标,计算待检测车辆目标中心点坐标的与人像中心点坐标的偏移量,具体地,目标检测与关联模型中的CenterNet检测网络的结构设计如图5所示,将输入图像大小设置为512像素×512像素的第二图像,通过含有18个的参数层卷积神经网络ResNet(残差网络)作为特征提取的骨干网络部分,并在ResNet基础上接入上采样操作,使得输出特征图的大小为输入原图的1/4,接着在ResNet输出特征图之后输入四个分支,如图5网络输出部分所示,前三分支用于获取待检测目标的位置,属于CenterNet网络模型的原始结构,分别用于预测待检测目标中心点的热力图,待检测目标中心点的偏移量和待检测目标的大小;第四个分支属于用于输出各待检测目标的关联信息;其中,待检测目标中心点热力图通道为3,即分别对应人像、待检测车辆和人像头肩三种类别;待检测目标大小通道为2,分别预测待检测目标的宽度w和高度h;待检测目标中心点的偏移量通道为2,分别预测待检测目标中心点的水平偏移δx和垂直偏移δy;具体的获取待检测目标区域时,在待检测目标中心点热力图上取热力图峰值作为中心点(x,y),之后在预测待检测目标大小的特征图的坐标(x,y)位置处取宽度和高度(w,h),在预测待检测目标中心点的偏移量的特征图坐标位置处取偏移量(δx,δy),获取的待检测目标区域中心点为(x+δx,y+δy),宽高为(w,h),即获得了第二图像中待检测目标的位置;第四个输出分支的通道为2,分别表示某一待检测目标中心位置相对与之关联目标的中心位置的偏移量,其中,关联目标为存在关联位置的各个目标,如骑手的关联目标为待检测车辆,如骑手的中心位置为(x1,y1),他所骑的待检测车辆中心位置为(x2,y2),则第四个输出分支在位置(x1,y1)的值为(x2-x1,y2-y1),在位置(x2,y2)输出的值为(x1-x2,y1-y2);通过基于CenterNet的目标检测与关联模型可获取人像和待检测车辆的位置偏移量,具体地,对于中心位置在(x1,y1)处的人像,关联目标为待检测车辆的偏移量为(△x1,△y1),计算确定当前第二图像中待检测车辆目标与人像目标坐标的偏移差是否在预定差值范围内;若是,确定当前第二图像中的人像目标处于骑行状态。
通过本实施例,能够精确地确定人像目标是否处于骑行状态,减少了对人像目标在非骑行状态下的不必要识别任务,从而提高了检测的效率。
在一种可能的实现方式中,基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔,包括:确定所述第二图像中处于骑行状态人像目标上身部位的第一区域面积,并确定所述人像目标头肩的位置的第二区域面积;计算所述第一区域面积与所述第二区域面积的交叉比;判断所述交叉比值是否大于预定对比阈值,若大于,确定所述人像目标的头部与肩部相匹配。
例如,接上例,确定当前第二图像中的人像目标处于骑行状态后,通过骑手上身部分区域框与已检测获取的头肩区域对比可确定当前第二图像中处于骑行状态人像目标上身部位的第一区域面积,并确定所述人像目标头肩的位置的第二区域面积;计算所述第一区域面积与所述第二区域面积的交叉比;具体地如图6所示,骑手区域的宽度为m,取骑手区域由到顶部往下长度为m的正方形为骑手的上身部分,然后计算骑手上身部分区域框的第一区域面积S1与头肩位置的第二区域的面积S2的交叉比:
Figure BDA0002935193440000081
随后,判断该交叉比值是否大于预定对比阈值,如90%,若大于,确定该人像目标的头部与肩部相匹配,即该头肩为该骑手的头肩位置。其中,骑手上身部分检测框区域与头肩区域的位置示意图如图6所示。
通过本实施例,能够确定骑手的头肩位置中头部与肩部是否均属于该骑手,避免了复杂场景下,人像目标过多,图像重叠的情况下,将头肩与人像目标匹配错误的情况发生,极大地提高了检测的精确率。
在一种可能的实现方式中,在步骤104基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔的步骤之前,包括:获取多张包含人像目标头肩数据的数据集,并通过所述目标检测与关联模型获取人像目标的头肩区域;通过梯度下降算法训练已确定头肩区域的所述数据集,得到头盔佩戴识别模型。
例如,在头盔佩戴的识别系统中,预先训练基于MobileNetv2的头盔佩戴识别模型。训练基于MobileNetv2的预先训练时采用预先制作好的头肩数据集,该训练集由预先从交通系统的收集的海量图像组成,并通过目标检测与关联模型获取人像目标的头肩区域;图像中的头肩区域经过类型标注,即已知每张图像中头肩区域包含是否佩戴头盔的标识。在此佩戴头盔识别的训练集基础上,通过梯度下降算法训练MobileNetv2基于头肩的头盔佩戴识别模型。其中,采用轻量级卷积神经网络MobileNetv2为模型对人像头肩进行分类,其中分类的类别标签为佩戴头盔和未佩戴头盔两类;MobileNetv2模型由深度级可分离卷积为基本单元构成,模型具有体积小,推理快的特征。以图像中头肩区域作为MobileNetv2模型输入,判断该头肩图像中是否佩戴头盔。
通过本实施例,能够极大地提高人像目标的头肩区域的检测精度,为后续精确地识别人像目标是否佩戴头盔提供了重要的前提条件。
本发明实施例提供了一种识别头盔佩戴的装置,可以实现上述提供的方法实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。
应该明白,公开的过程中的步骤的特定顺序或层次是示例性方法的实例。基于设计偏好,应该理解,过程中的步骤的特定顺序或层次可以在不脱离本公开的保护范围的情况下得到重新安排。所附的方法权利要求以示例性的顺序给出了各种步骤的要素,并且不是要限于所述的特定顺序或层次。
在上述的详细描述中,各种特征一起组合在单个的实施方案中,以简化本公开。不应该将这种公开方法解释为反映了这样的意图,即,所要求保护的主题的实施方案需要比清楚地在每个权利要求中所陈述的特征更多的特征。相反,如所附的权利要求书所反映的那样,本发明处于比所公开的单个实施方案的全部特征少的状态。因此,所附的权利要求书特此清楚地被并入详细描述中,其中每项权利要求独自作为本发明单独的优选实施方案。
为使本领域内的任何技术人员能够实现或者使用本发明,上面对所公开实施例进行了描述。对于本领域技术人员来说;这些实施例的各种修改方式都是显而易见的,并且本文定义的一般原理也可以在不脱离本公开的精神和保护范围的基础上适用于其它实施例。因此,本公开并不限于本文给出的实施例,而是与本申请公开的原理和新颖性特征的最广范围相一致。
上文的描述包括一个或多个实施例的举例。当然,为了描述上述实施例而描述部件或方法的所有可能的结合是不可能的,但是本领域普通技术人员应该认识到,各个实施例可以做进一步的组合和排列。因此,本文中描述的实施例旨在涵盖落入所附权利要求书的保护范围内的所有这样的改变、修改和变型。此外,就说明书或权利要求书中使用的术语“包含”,该词的涵盖方式类似于术语“包括”,就如同“包括,”在权利要求中用作衔接词所解释的那样。此外,使用在权利要求书的说明书中的任何一个术语“或者”是要表示“非排它性的或者”。
本领域技术人员还可以了解到本发明实施例列出的各种说明性逻辑块(illustrative logical block),单元,和步骤可以通过电子硬件、电脑软件,或两者的结合进行实现。为清楚展示硬件和软件的可替换性(interchangeability),上述的各种说明性部件(illustrative components),单元和步骤已经通用地描述了它们的功能。这样的功能是通过硬件还是软件来实现取决于特定的应用和整个系统的设计要求。本领域技术人员可以对于每种特定的应用,可以使用各种方法实现所述的功能,但这种实现不应被理解为超出本发明实施例保护的范围。
本发明实施例中所描述的各种说明性的逻辑块,或单元都可以通过通用处理器,数字信号处理器,专用集成电路(ASIC),现场可编程门阵列或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信号处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信号处理器核,或任何其它类似的配置来实现。
本发明实施例中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件模块、或者这两者的结合。软件模块可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于用户终端中。可选地,处理器和存储媒介也可以设置于用户终端中的不同的部件中。
在一个或多个示例性的设计中,本发明实施例所描述的上述功能可以在硬件、软件、固件或这三者的任意组合来实现。如果在软件中实现,这些功能可以存储与电脑可读的媒介上,或以一个或多个指令或代码形式传输于电脑可读的媒介上。电脑可读媒介包括电脑存储媒介和便于使得让电脑程序从一个地方转移到其它地方的通信媒介。存储媒介可以是任何通用或特殊电脑可以接入访问的可用媒体。例如,这样的电脑可读媒体可以包括但不限于RAM、ROM、EEPROM、CD-ROM或其它光盘存储、磁盘存储或其它磁性存储装置,或其它任何可以用于承载或存储以指令或数据结构和其它可被通用或特殊电脑、或通用或特殊处理器读取形式的程序代码的媒介。此外,任何连接都可以被适当地定义为电脑可读媒介,例如,如果软件是从一个网站站点、服务器或其它远程资源通过一个同轴电缆、光纤电缆、双绞线、数字用户线(DSL)或以例如红外、无线和微波等无线方式传输的也被包含在所定义的电脑可读媒介中。所述的碟片(disk)和磁盘(disc)包括压缩磁盘、镭射盘、光盘、DVD、软盘和蓝光光盘,磁盘通常以磁性复制数据,而碟片通常以激光进行光学复制数据。上述的组合也可以包含在电脑可读媒介中。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种识别头盔佩戴的方法,其特征在于,包括:
获取预定监控区域的第一图像,确定所述第一图像中包含待检测车辆目标和人像目标的第二图像;
基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系;
根据所述位置关系,确定所述人像目标是否处于骑行状态;
若处于,基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔。
2.根据权利要求1所述的方法,其特征在于,所述基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系,包括:
通过梯度下降算法预训练目标检测与关联模型;
通过所述目标检测与关联模型,确定所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置;
根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系;
其中,所述待检测车辆包括电动车、摩托车中的任一种。
3.根据权利要求2所述的方法,其特征在于,所述根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系,包括:
通过所述目标检测与关联模型,得到所述第二图像的热力图;
通过预定检测器确定所述第二图像的热力图中各待检测目标的中心点坐标和各待检测目标的相关属性;
根据各待检测目标的中心点坐标和相关属性,确定各待检测目标的关联信息;
其中,所述待检测目标包括人像目标、待检测车辆目标,所述待检测目标的相关属性包括待检测目标的大小和是否与其他待检测目标关联中的至少一项。
4.根据权利要求3所述的方法,其特征在于,所述根据所述位置关系,确定所述人像目标是否处于骑行状态,包括:
根据已确定的各待检测目标的中心点坐标,计算待检测车辆目标中心点坐标的与人像中心点坐标的偏移量;
根据所述偏移量,计算确定待检测车辆目标与人像目标坐标的偏移差是否在预定差值范围内;
若是,确定所述第二图像中的人像目标处于骑行状态。
5.根据权利要求4所述的方法,其特征在于,所述基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔,包括:
确定所述第二图像中处于骑行状态人像目标上身部位的第一区域面积,并确定所述人像目标头肩的位置的第二区域面积;
计算所述第一区域面积与所述第二区域面积的交叉比;
判断所述交叉比值是否大于预定对比阈值,若大于,确定所述人像目标的头部与肩部相匹配。
6.根据权利要求1-5任一项所述的方法,其特征在于,在所述基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔的步骤之前,包括:
获取多张包含人像目标头肩数据的数据集,并通过所述目标检测与关联模型获取人像目标的头肩区域;
通过梯度下降算法训练已确定头肩区域的所述数据集,得到头盔佩戴识别模型。
7.一种识别头盔佩戴的装置,其特征在于,包括:
获取及确定模块,用于获取预定监控区域的第一图像,确定所述第一图像中包含待检测车辆目标和人像目标的第二图像;
第一确定模块,用于基于深度学习的目标检测算法,确定所述第二图像中待检测车辆目标与人像目标头肩的位置关系;
第二确定模块,用于根据所述位置关系,确定所述人像目标是否处于骑行状态;
识别模块,用于若处于,基于所述人像目标头肩的位置,通过头盔佩戴识别模型,识别所述人像目标是否佩戴头盔。
8.根据权利要求7所述的装置,其特征在于,所述第一确定模块,包括:
预训练单元,用于通过梯度下降算法预训练目标检测与关联模型;
第一确定单元,用于通过所述目标检测与关联模型,确定所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置;
第二确定单元,用于根据已确定的所述第二图像中待检测车辆目标的位置、人像目标的位置以及人像目标头肩的位置,确定所述待检测车辆目标与人像目标头肩的位置关系;
其中,所述待检测车辆包括电动车、摩托车中的任一种。
9.根据权利要求8所述的装置,其特征在于,所述第二确定单元,具体用于
通过所述目标检测与关联模型,得到所述第二图像的热力图;
通过预定检测器确定所述第二图像的热力图中各待检测目标的中心点坐标和各待检测目标的相关属性;
根据各待检测目标的中心点坐标和相关属性,确定各待检测目标的关联信息;
其中,所述待检测目标包括人像目标、待检测车辆目标,所述待检测目标的相关属性包括待检测目标的大小和是否与其他待检测目标关联中的至少一项。
10.根据权利要求9所述的装置,其特征在于,所述第二确定模块,具体用于
根据已确定的各待检测目标的中心点坐标,计算待检测车辆目标中心点坐标的与人像中心点坐标的偏移量;
根据所述偏移量,计算确定待检测车辆目标与人像目标坐标的偏移差是否在预定差值范围内;
若是,确定所述第二图像中的人像目标处于骑行状态。
11.根据权利要求10所述的装置,其特征在于,所述识别模块,具体用于
确定所述第二图像中处于骑行状态人像目标上身部位的第一区域面积,并确定所述人像目标头肩的位置的第二区域面积;
计算所述第一区域面积与所述第二区域面积的交叉比;
判断所述交叉比值是否大于预定对比阈值,若大于,确定所述人像目标的头部与肩部相匹配。
12.根据权利要求7-11任一项所述的装置,其特征在于,包括:
获取模块,用于获取多张包含人像目标头肩数据的数据集,并通过所述目标检测与关联模型获取人像目标的头肩区域;
训练模块,用于通过梯度下降算法训练已确定头肩区域的所述数据集,得到头盔佩戴识别模型。
CN202110160273.2A 2021-02-05 2021-02-05 一种识别头盔佩戴的方法及装置 Pending CN112818877A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110160273.2A CN112818877A (zh) 2021-02-05 2021-02-05 一种识别头盔佩戴的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110160273.2A CN112818877A (zh) 2021-02-05 2021-02-05 一种识别头盔佩戴的方法及装置

Publications (1)

Publication Number Publication Date
CN112818877A true CN112818877A (zh) 2021-05-18

Family

ID=75861850

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110160273.2A Pending CN112818877A (zh) 2021-02-05 2021-02-05 一种识别头盔佩戴的方法及装置

Country Status (1)

Country Link
CN (1) CN112818877A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392735A (zh) * 2021-05-31 2021-09-14 深圳云天励飞技术股份有限公司 示警方法及相关设备
CN114663912A (zh) * 2022-02-25 2022-06-24 青岛图灵科技有限公司 一种智能检测警察着装是否规范的方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866479A (zh) * 2019-11-07 2020-03-06 北京文安智能技术股份有限公司 一种检测摩托车驾驶员未戴头盔的方法、装置及系统
CN111126325A (zh) * 2019-12-30 2020-05-08 哈尔滨工程大学 一种基于视频的智能人员安防识别统计方法
CN111931653A (zh) * 2020-08-11 2020-11-13 沈阳帝信人工智能产业研究院有限公司 安全监测方法、装置、电子设备和可读存储介质
CN111985429A (zh) * 2020-08-27 2020-11-24 上海商汤智能科技有限公司 一种头盔佩戴检测的方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866479A (zh) * 2019-11-07 2020-03-06 北京文安智能技术股份有限公司 一种检测摩托车驾驶员未戴头盔的方法、装置及系统
CN111126325A (zh) * 2019-12-30 2020-05-08 哈尔滨工程大学 一种基于视频的智能人员安防识别统计方法
CN111931653A (zh) * 2020-08-11 2020-11-13 沈阳帝信人工智能产业研究院有限公司 安全监测方法、装置、电子设备和可读存储介质
CN111985429A (zh) * 2020-08-27 2020-11-24 上海商汤智能科技有限公司 一种头盔佩戴检测的方法、装置、电子设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张博;宋元斌;熊若鑫;张世超;: "融合人体关节点的安全帽佩戴检测", 中国安全科学学报, no. 02, 15 February 2020 (2020-02-15), pages 181 - 186 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392735A (zh) * 2021-05-31 2021-09-14 深圳云天励飞技术股份有限公司 示警方法及相关设备
CN114663912A (zh) * 2022-02-25 2022-06-24 青岛图灵科技有限公司 一种智能检测警察着装是否规范的方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN108062349B (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN108241844B (zh) 一种公交客流统计方法、装置及电子设备
CN107622229B (zh) 一种基于融合特征的视频车辆重识别方法与系统
CN108446678B (zh) 一种基于骨骼特征的危险驾驶行为识别方法
CN111931627A (zh) 一种基于多模态信息融合的车辆再识别方法及装置
KR102015947B1 (ko) 자율주행을 위한 학습대상 이미지 추출 장치 및 방법
CN114155527A (zh) 一种场景文本识别方法和装置
US20070116364A1 (en) Apparatus and method for feature recognition
KR102015945B1 (ko) 자율주행을 위한 학습대상 이미지 패키징 장치 및 방법
CN112818877A (zh) 一种识别头盔佩戴的方法及装置
CN112287827A (zh) 基于智慧灯杆的复杂环境行人口罩佩戴检测方法及系统
CN114995450A (zh) 一种利用多目立体视觉的盲人智慧导航方法及系统
CN113034378B (zh) 一种区分电动汽车与燃油汽车的方法
CN112465854A (zh) 基于无锚点检测算法的无人机跟踪方法
CN113055823A (zh) 一种基于路侧停车管理共享单车的方法及装置
CN114943923B (zh) 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN111046723B (zh) 一种基于深度学习的车道线检测方法
CN116977937A (zh) 一种行人重识别的方法及系统
CN112766046B (zh) 一种目标检测方法及相关装置
CN112668493B (zh) 基于gan和深度学习的换装行人再识别定位跟踪系统
CN111428680B (zh) 一种基于深度学习的瞳孔定位方法
CN112528944A (zh) 一种图像识别方法、装置、电子设备及存储介质
CN114693722B (zh) 一种车辆行驶行为检测方法、检测装置及检测设备
CN115953744A (zh) 一种基于深度学习的车辆识别追踪方法
CN111914704B (zh) 一种三轮车载人的识别方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100080 1202-03, 12 / F, 27 Zhongguancun Street, Haidian District, Beijing

Applicant after: Love parking Technology Co.,Ltd.

Address before: 100080 1202-03, 12 / F, 27 Zhongguancun Street, Haidian District, Beijing

Applicant before: Aipark Meihao Technology Co.,Ltd.

CB02 Change of applicant information