CN111680682A - 一种复杂场景下安全帽识别方法 - Google Patents

一种复杂场景下安全帽识别方法 Download PDF

Info

Publication number
CN111680682A
CN111680682A CN202010533484.1A CN202010533484A CN111680682A CN 111680682 A CN111680682 A CN 111680682A CN 202010533484 A CN202010533484 A CN 202010533484A CN 111680682 A CN111680682 A CN 111680682A
Authority
CN
China
Prior art keywords
hat
target
helmet
safety helmet
hog
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010533484.1A
Other languages
English (en)
Other versions
CN111680682B (zh
Inventor
孙晓明
张微风
吴晨旭
徐凯歌
于晓洋
吴海滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN202010533484.1A priority Critical patent/CN111680682B/zh
Publication of CN111680682A publication Critical patent/CN111680682A/zh
Application granted granted Critical
Publication of CN111680682B publication Critical patent/CN111680682B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明一种复杂场景下安全帽识别方法属于目标检测技术领域;该方法首先基于运动目标前景背景特征实现人体区域初定位,然后利用人体比例对安全帽区域进行定位,再融合HOG和HOF特征进行安全帽识别;通过改进待检测图像前景目标区域与邻域背景区域两像素分布直方图余弦相似度及欧式距离来检测并消除鬼影区域;通过改进HOG和HOF算法与重心级联实现SVM快速分类;该方法包含了基于运动目标鬼影的消除以及基于HOG和HOF的信息融合与重心相结合的目标识别方法。实验证明,该方法不仅能够缩短目标识别时间,提高目标识别率,适用于复杂背景下的目标检测。

Description

一种复杂场景下安全帽识别方法
技术领域
本发明一种复杂场景下安全帽识别方法属于目标检测技术领域。
背景技术
在危险的工作环境中,安全帽对工作人员的头部起到了至关重要的保护作用。以视频自动监控的方式进行安全帽的检测与跟踪,可以减少人力、可以准确的监控热电厂内作业工人的安全帽佩戴情况,降低他们发生意外危险的概率。
在对安全帽进行检测时,由于热电厂厂内环境复杂且面积较大,处于远景处的工人所佩戴的安全帽不易检测,带来安全帽漏检的问题。
由此可见,复杂环境下安全帽容易漏检是本领域技术人员正在研究的问题。
发明内容
针对上述技术需求,本发明公开了一种复杂场景下安全帽识别方法,能够有效提高基于小物体的目标检测的准确率,此外,该方法能够消除背景信息对目标检测准确率的影响,对于具有复杂背景的图像,检测准确率高的技术优势尤其明显。
本发明的目的是这样实现的:
一种复杂场景下安全帽识别方法,包括以下步骤:
步骤a、待检测图像中的人员初定位;
步骤b、安全帽所在区域的初定位;
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF) 特征;
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;
步骤e、融合特征并进行分类检测。
上述的一种复杂场景下安全帽识别方法,步骤a的具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y) 为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y)与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y), i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
Figure BDA0002536233520000021
再计算阈值半径Rk(x,y),如下式:
Figure BDA0002536233520000022
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的 FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)如下式:
Figure BDA0002536233520000031
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
Figure BDA0002536233520000032
步骤a34:求取向量PPt和QQt余弦相似度如下式:
Figure BDA0002536233520000033
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
Figure BDA0002536233520000034
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos<PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域 FBj(x,y)的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和 FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant
上述的一种复杂场景下安全帽识别方法,步骤b的具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的 0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt
上述的一种复杂场景下安全帽识别方法,步骤c的具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y)表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
将安全帽目标Hatt分割成
Figure BDA0002536233520000041
个尺寸为8*8的单元格;其次将2*2个单元格组成一个块,则块的像素大小为16*16;
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值。公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
Figure BDA0002536233520000051
Figure BDA0002536233520000052
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
Figure BDA0002536233520000053
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的 HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
Figure BDA0002536233520000061
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
令u和v是连续两帧安全帽区域Hatt内像素点(x,y)光流运动的x和y方向的分量,令
Figure BDA0002536233520000062
表示安全帽目标Hatt像素点(x,y)的运动特征,则有:
Figure BDA0002536233520000063
Figure BDA0002536233520000064
其中
Figure BDA0002536233520000065
Figure BDA0002536233520000066
则有:
Figure BDA0002536233520000067
其中
Figure BDA0002536233520000068
得到安全帽区域Hat光流运动特征向量
Figure BDA0002536233520000069
上述的一种复杂场景下安全帽识别方法,步骤d的具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d11:计算安全帽区域Hatt内像素点的HOG特征均值
Figure BDA00025362335200000610
Figure BDA0002536233520000071
得到
Figure BDA0002536233520000072
是一个NH维向量;
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
Figure BDA0002536233520000073
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
Figure BDA0002536233520000074
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d21:计算安全帽区域Hatt内像素点的HOF特征均值
Figure BDA0002536233520000075
Figure BDA0002536233520000076
得到
Figure BDA0002536233520000077
是一个NH维向量;
步骤d22:计算ZHOF协方差矩阵UHOF
Figure BDA0002536233520000078
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
Figure BDA0002536233520000079
p为目标维数。
上述的一种复杂场景下安全帽识别方法,步骤e的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
Figure BDA0002536233520000081
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
由步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量Z融合
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,为安全帽区域Hatt有安全帽,分别进行标记。
有益效果:
本发明采用了如下技术手段,该方法首先对待检测图像进行前景背景动态更新进行人体区域进行初定位,然后利用人体比例对安全帽区域进行定位,再融合HOG和HOF 特征进行安全帽识别;通过改进待检测图像前景目标区域与邻域背景区域两像素分布直方图余弦相似度及欧式距离来检测并消除Ghost区域;通过改进HOG和HOF算法与重心级联实现SVM快速分类;该方法包含了基于运动目标鬼影的消除以及基于HOG和 HOF的信息融合与重心相结合的目标识别方法;该技术手段相互依存,缺一不可,作为一个整体,共同实现了其中任何一个手段存在时都不能实现的有效提高基于小物体的图像检测准确率的技术目的,本发明方法还能够有效提高基于小物体的目标检测的准确率,此外,该方法能够消除背景信息对目标检测准确率的影响,对于具有复杂背景的图像,检测准确率高的技术优势尤其明显。
附图说明
图1是本发明一种复杂场景下安全帽识别方法的流程图。
图2是复杂场景安全帽灰度图像。
图3是检测出安全帽图像。
具体实施方式
下面结合附图对本发明具体实施方式作进一步详细描述。
具体实施例一
本实施例是一种复杂场景下安全帽识别方法的实施例。
本实施例的一种复杂场景下安全帽识别方法,流程图如图1所示,该方法包括以下步骤:
步骤a、待检测图像中的人员初定位;
步骤b、安全帽所在区域的初定位;
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;
步骤e、融合特征并进行分类检测。
具体实施例二:
本实施例的一种复杂场景下安全帽识别方法,流程图如图1所示,该方法在具体实施例一的基础上进一步对每个步骤进行细化,并对具体图片进行处理,其中,复杂场景安全帽灰度图像如图2所示,检测出安全帽图像如图3所示。该方法包括以下步骤:
步骤a、对待检测图像中的人员初定位;具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y)为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y) 与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y),i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
Figure BDA0002536233520000101
再计算阈值半径Rk(x,y),如下式:
Figure BDA0002536233520000102
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)
如下式:
Figure BDA0002536233520000103
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
Figure BDA0002536233520000111
步骤a34:求取向量PPt和QQt余弦相似度如下式:
Figure BDA0002536233520000112
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
Figure BDA0002536233520000113
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos〈PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域FBj(x,y) 的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant
步骤b、对安全帽所在区域初定位;具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y) 表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
将安全帽目标Hatt分割成
Figure BDA0002536233520000121
个尺寸为8*8的单元格;其次将2*2个单元格组成一个块,则块的像素大小为16*16;
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值。公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
Figure BDA0002536233520000122
Figure BDA0002536233520000123
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
Figure BDA0002536233520000131
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
Figure BDA0002536233520000132
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
令u和v是连续两帧安全帽区域Hatt内像素点(x,y)光流运动的x和y方向的分量,令
Figure BDA0002536233520000133
表示安全帽目标Hatt像素点(x,y)的运动特征,则有:
Figure BDA0002536233520000134
Figure BDA0002536233520000135
其中
Figure BDA0002536233520000136
Figure BDA0002536233520000141
则有:
Figure BDA0002536233520000142
其中
Figure BDA0002536233520000143
得到安全帽区域Hat光流运动特征向量
Figure BDA0002536233520000144
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d11:计算安全帽区域Hatt内像素点的HOG特征均值
Figure BDA0002536233520000145
Figure BDA0002536233520000146
得到
Figure BDA0002536233520000147
是一个NH维向量;
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
Figure BDA0002536233520000148
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
Figure BDA0002536233520000149
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d21:计算安全帽区域Hatt内像素点的HOF特征均值
Figure BDA00025362335200001410
Figure BDA0002536233520000151
得到
Figure BDA0002536233520000152
是一个NH维向量;
步骤d22:计算ZHOF协方差矩阵UHOF
Figure BDA0002536233520000153
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
Figure BDA0002536233520000154
p为目标维数。
步骤e、融合特征并进行分类检测;的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征(xc,yc)
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
Figure BDA0002536233520000155
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量 Z融合
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,认为安全帽区域Hatt有安全帽,分别进行标记。
具体实施例三
本实施例是一种复杂场景下安全帽识别方法中待检测图像中的人员运动信息描述方法的实施例。
一种复杂场景下安全帽识别方法中待检测图像中的人员运动信息描述方法,包括以下步骤:
步骤a、对待检测图像中的人员初定位;具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y)为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y) 与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y),i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
Figure BDA0002536233520000161
再计算阈值半径Rk(x,y),如下式:
Figure BDA0002536233520000162
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)
如下式:
Figure BDA0002536233520000171
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
Figure BDA0002536233520000172
步骤a34:求取向量PPt和QQt余弦相似度如下式:
Figure BDA0002536233520000173
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
Figure BDA0002536233520000174
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos〈PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域FBj(x,y) 的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant
具体实施例四
本实施例是一种复杂场景下安全帽识别方法中安全帽位置信息描述方法的实施例。一种复杂场景下安全帽识别方法中安全帽位置信息描述方法,包括以下步骤:
步骤b、对安全帽所在区域初定位;具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt
具体实施例五
本实施例是一种复杂场景下安全帽识别方法中HOG特征和HOF特征信息描述方法的实施例。一种复杂场景下安全帽识别方法中HOG特征和HOF特征信息描述方法,包括以下步骤:
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y) 表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
将安全帽目标Hatt分割成
Figure BDA0002536233520000194
个尺寸为8*8的单元格;其次将2*2个单元格组成一个块,则块的像素大小为16*16;
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值。公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
Figure BDA0002536233520000191
Figure BDA0002536233520000192
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
Figure BDA0002536233520000193
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
Figure BDA0002536233520000201
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
令u和v是连续两帧安全帽区域Hatt内像素点(x,y)光流运动的x和y方向的分量,令
Figure BDA0002536233520000202
表示安全帽目标Hatt像素点(x,y)的运动特征,则有:
Figure BDA0002536233520000203
Figure BDA0002536233520000204
其中
Figure BDA0002536233520000205
Figure BDA0002536233520000206
则有:
Figure BDA0002536233520000207
其中
Figure BDA0002536233520000208
得到安全帽区域Hat光流运动特征向量
Figure BDA0002536233520000209
具体实施例六
本实施例是一种复杂场景下安全帽识别方法中HOG特征和HOF特征降维描述方法的实施例。一种复杂场景下安全帽识别方法中HOG特征和HOF特征降维描述方法,包括以下步骤:
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d11:计算安全帽区域Hatt内像素点的HOG特征均值
Figure BDA0002536233520000211
Figure BDA0002536233520000212
得到
Figure BDA0002536233520000213
是一个NH维向量;
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
Figure BDA0002536233520000214
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
Figure BDA0002536233520000215
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d21:计算安全帽区域Hatt内像素点的HOF特征均值
Figure BDA0002536233520000216
Figure BDA0002536233520000217
得到
Figure BDA0002536233520000218
是一个NH维向量;
步骤d22:计算ZHOF协方差矩阵UHOF
Figure BDA0002536233520000219
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
Figure BDA0002536233520000221
p为目标维数。
具体实施例七
本实施例是一种复杂场景下安全帽识别方法的实施例。一种复杂场景下安全帽识别方法,包括以下步骤:
步骤e、融合特征并进行分类检测;的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
Figure BDA0002536233520000222
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
由步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量Z融合
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,认为安全帽区域Hatt有安全帽,分别进行标记。

Claims (6)

1.一种复杂场景下安全帽识别方法,其特征在于,包括以下步骤:
步骤a、待检测图像中的人员初定位;
步骤b、安全帽所在区域的初定位;
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;
步骤e、融合特征并进行分类检测。
2.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤a的具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y)为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y)与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y),i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
Figure FDA0002536233510000011
再计算阈值半径Rk(x,y),如下式:
Figure FDA0002536233510000021
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)
如下式:
Figure FDA0002536233510000022
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
Figure FDA0002536233510000023
步骤a34:求取向量PPt和QQt余弦相似度如下式:
Figure FDA0002536233510000024
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
Figure FDA0002536233510000025
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos<PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域FBj(x,y)的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant
3.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤b的具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt
4.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤c的具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y)表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
将安全帽目标Hatt分割成
Figure FDA0002536233510000041
个尺寸为8*8的单元格;其次将2*2个单元格组成一个块,则块的像素大小为16*16;
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值;公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
Figure FDA0002536233510000042
Figure FDA0002536233510000043
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
Figure FDA0002536233510000044
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
Figure FDA0002536233510000051
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
令u和v是连续两帧安全帽区域Hatt内像素点(x,y)光流运动的x和y方向的分量,令
Figure FDA0002536233510000052
表示安全帽目标Hatt像素点(x,y)的运动特征,则有:
Figure FDA0002536233510000053
Figure FDA0002536233510000054
其中
Figure FDA0002536233510000055
Figure FDA0002536233510000056
则有:
Figure FDA0002536233510000057
其中
Figure FDA0002536233510000058
得到安全帽区域Hat光流运动特征向量
Figure FDA0002536233510000059
5.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤d的具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d11:计算安全帽区域Hatt内像素点的HOG特征均值
Figure FDA00025362335100000510
Figure FDA0002536233510000061
得到
Figure FDA0002536233510000062
是一个NH维向量;
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
Figure FDA0002536233510000063
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
Figure FDA0002536233510000064
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d21:计算安全帽区域Hatt内像素点的HOF特征均值
Figure FDA0002536233510000065
Figure FDA0002536233510000066
得到
Figure FDA0002536233510000067
是一个NH维向量;
步骤d22:计算ZHOF协方差矩阵UHOF
Figure FDA0002536233510000068
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
Figure FDA0002536233510000069
p为目标维数。
6.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤e的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
Figure FDA0002536233510000071
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量Z融合
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,认为安全帽区域Hatt有安全帽,分别进行标记。
CN202010533484.1A 2020-06-12 2020-06-12 一种复杂场景下安全帽识别方法 Expired - Fee Related CN111680682B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010533484.1A CN111680682B (zh) 2020-06-12 2020-06-12 一种复杂场景下安全帽识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010533484.1A CN111680682B (zh) 2020-06-12 2020-06-12 一种复杂场景下安全帽识别方法

Publications (2)

Publication Number Publication Date
CN111680682A true CN111680682A (zh) 2020-09-18
CN111680682B CN111680682B (zh) 2022-05-03

Family

ID=72454730

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010533484.1A Expired - Fee Related CN111680682B (zh) 2020-06-12 2020-06-12 一种复杂场景下安全帽识别方法

Country Status (1)

Country Link
CN (1) CN111680682B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408365A (zh) * 2021-05-26 2021-09-17 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置
CN114578316A (zh) * 2022-04-29 2022-06-03 北京一径科技有限公司 确定点云中鬼影点的方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063722A (zh) * 2014-07-15 2014-09-24 国家电网公司 一种融合hog人体目标检测和svm分类器的安全帽识别方法
CN108288033A (zh) * 2018-01-05 2018-07-17 电子科技大学 一种基于随机蕨融合多特征的安全帽检测方法
US20190182436A1 (en) * 2017-12-08 2019-06-13 Canon Kabushiki Kaisha System and method of generating a composite frame
CN109978916A (zh) * 2019-03-11 2019-07-05 西安电子科技大学 基于灰度图像特征匹配的Vibe运动目标检测方法
CN110598606A (zh) * 2019-09-02 2019-12-20 南京邮电大学 一种具有视觉隐私保护优势的室内跌倒行为检测方法
WO2020037279A1 (en) * 2018-08-16 2020-02-20 Riddell, Inc. System and method for designing and manufacturing a protective helmet

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063722A (zh) * 2014-07-15 2014-09-24 国家电网公司 一种融合hog人体目标检测和svm分类器的安全帽识别方法
US20190182436A1 (en) * 2017-12-08 2019-06-13 Canon Kabushiki Kaisha System and method of generating a composite frame
CN108288033A (zh) * 2018-01-05 2018-07-17 电子科技大学 一种基于随机蕨融合多特征的安全帽检测方法
WO2020037279A1 (en) * 2018-08-16 2020-02-20 Riddell, Inc. System and method for designing and manufacturing a protective helmet
CN109978916A (zh) * 2019-03-11 2019-07-05 西安电子科技大学 基于灰度图像特征匹配的Vibe运动目标检测方法
CN110598606A (zh) * 2019-09-02 2019-12-20 南京邮电大学 一种具有视觉隐私保护优势的室内跌倒行为检测方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ROMUERE R. V. E SILVA 等: "Detection of helmets on motorcyclists", 《ADVANCED COMPUTING AND COMMUNICATION TECHNOLOGIES》 *
SUN XIAOMING 等: "Journal|[J]Measurement Science and TechnologyVolume 32, Issue 10. 2021.", 《MEASUREMENT SCIENCE AND TECHNOLOGY》 *
仝泽友等: "矿井皮带区矿工违规行为识别方法", 《河南科技大学学报(自然科学版)》 *
吴雪: "《热电厂场景下安全帽的检测与跟踪》", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅱ辑》 *
李琪瑞: "基于人体识别的安全帽视频检测系统研究与实现", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
王明芬: "基于视频的安全帽检测和跟踪算法研究", 《信息通信》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408365A (zh) * 2021-05-26 2021-09-17 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置
CN113408365B (zh) * 2021-05-26 2023-09-08 广东能源集团科学技术研究院有限公司 一种复杂场景下的安全帽识别方法及装置
CN114578316A (zh) * 2022-04-29 2022-06-03 北京一径科技有限公司 确定点云中鬼影点的方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN111680682B (zh) 2022-05-03

Similar Documents

Publication Publication Date Title
CN110363047B (zh) 人脸识别的方法、装置、电子设备和存储介质
US11393103B2 (en) Target tracking method, device, system and non-transitory computer readable medium
EP3295424B1 (en) Systems and methods for reducing a plurality of bounding regions
KR102462818B1 (ko) 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치
Chang et al. Tracking Multiple People Under Occlusion Using Multiple Cameras.
US9646381B2 (en) State-of-posture estimation device and state-of-posture estimation method
CN105205480B (zh) 一种复杂场景中人眼定位方法及系统
Rauter Reliable human detection and tracking in top-view depth images
CN108491498B (zh) 一种基于多特征检测的卡口图像目标搜索方法
KR101781358B1 (ko) 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법
US20120069007A1 (en) Method for Enhancing Depth Maps
CN111680682B (zh) 一种复杂场景下安全帽识别方法
CN108335331A (zh) 一种钢卷双目视觉定位方法及设备
KR101480220B1 (ko) 객체 인식 장치 및 그 방법
CN108447022A (zh) 基于单个固定摄像头图像序列的运动目标拼接方法
Zabihi et al. Detection and recognition of traffic signs inside the attentional visual field of drivers
Saito et al. People detection and tracking from fish-eye image based on probabilistic appearance model
WO2014079058A1 (zh) 一种视频图像处理方法及系统
CN109711233A (zh) 一种基于深度学习的比对证件照人脸识别方法
Rujikietgumjorn et al. Real-time hog-based pedestrian detection in thermal images for an embedded system
Huang et al. High-efficiency face detection and tracking method for numerous pedestrians through face candidate generation
KR101542206B1 (ko) 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법
US9727780B2 (en) Pedestrian detecting system
Almomani et al. Segtrack: A novel tracking system with improved object segmentation
Saito et al. Human detection from fish-eye image by Bayesian combination of probabilistic appearance models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220503