CN111680682A - 一种复杂场景下安全帽识别方法 - Google Patents
一种复杂场景下安全帽识别方法 Download PDFInfo
- Publication number
- CN111680682A CN111680682A CN202010533484.1A CN202010533484A CN111680682A CN 111680682 A CN111680682 A CN 111680682A CN 202010533484 A CN202010533484 A CN 202010533484A CN 111680682 A CN111680682 A CN 111680682A
- Authority
- CN
- China
- Prior art keywords
- hat
- target
- helmet
- safety helmet
- hog
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000005484 gravity Effects 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 13
- 230000004927 fusion Effects 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 20
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 3
- 210000000746 body region Anatomy 0.000 abstract description 2
- 230000008030 elimination Effects 0.000 abstract description 2
- 238000003379 elimination reaction Methods 0.000 abstract description 2
- 238000012544 monitoring process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明一种复杂场景下安全帽识别方法属于目标检测技术领域;该方法首先基于运动目标前景背景特征实现人体区域初定位,然后利用人体比例对安全帽区域进行定位,再融合HOG和HOF特征进行安全帽识别;通过改进待检测图像前景目标区域与邻域背景区域两像素分布直方图余弦相似度及欧式距离来检测并消除鬼影区域;通过改进HOG和HOF算法与重心级联实现SVM快速分类;该方法包含了基于运动目标鬼影的消除以及基于HOG和HOF的信息融合与重心相结合的目标识别方法。实验证明,该方法不仅能够缩短目标识别时间,提高目标识别率,适用于复杂背景下的目标检测。
Description
技术领域
本发明一种复杂场景下安全帽识别方法属于目标检测技术领域。
背景技术
在危险的工作环境中,安全帽对工作人员的头部起到了至关重要的保护作用。以视频自动监控的方式进行安全帽的检测与跟踪,可以减少人力、可以准确的监控热电厂内作业工人的安全帽佩戴情况,降低他们发生意外危险的概率。
在对安全帽进行检测时,由于热电厂厂内环境复杂且面积较大,处于远景处的工人所佩戴的安全帽不易检测,带来安全帽漏检的问题。
由此可见,复杂环境下安全帽容易漏检是本领域技术人员正在研究的问题。
发明内容
针对上述技术需求,本发明公开了一种复杂场景下安全帽识别方法,能够有效提高基于小物体的目标检测的准确率,此外,该方法能够消除背景信息对目标检测准确率的影响,对于具有复杂背景的图像,检测准确率高的技术优势尤其明显。
本发明的目的是这样实现的:
一种复杂场景下安全帽识别方法,包括以下步骤:
步骤a、待检测图像中的人员初定位;
步骤b、安全帽所在区域的初定位;
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF) 特征;
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;
步骤e、融合特征并进行分类检测。
上述的一种复杂场景下安全帽识别方法,步骤a的具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y) 为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y)与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y), i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
再计算阈值半径Rk(x,y),如下式:
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的 FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)如下式:
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
步骤a34:求取向量PPt和QQt余弦相似度如下式:
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos<PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域 FBj(x,y)的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和 FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant。
上述的一种复杂场景下安全帽识别方法,步骤b的具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的 0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt。
上述的一种复杂场景下安全帽识别方法,步骤c的具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y)表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值。公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的 HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
上述的一种复杂场景下安全帽识别方法,步骤d的具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d22:计算ZHOF协方差矩阵UHOF
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
p为目标维数。
上述的一种复杂场景下安全帽识别方法,步骤e的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
由步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量Z融合;
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,为安全帽区域Hatt有安全帽,分别进行标记。
有益效果:
本发明采用了如下技术手段,该方法首先对待检测图像进行前景背景动态更新进行人体区域进行初定位,然后利用人体比例对安全帽区域进行定位,再融合HOG和HOF 特征进行安全帽识别;通过改进待检测图像前景目标区域与邻域背景区域两像素分布直方图余弦相似度及欧式距离来检测并消除Ghost区域;通过改进HOG和HOF算法与重心级联实现SVM快速分类;该方法包含了基于运动目标鬼影的消除以及基于HOG和 HOF的信息融合与重心相结合的目标识别方法;该技术手段相互依存,缺一不可,作为一个整体,共同实现了其中任何一个手段存在时都不能实现的有效提高基于小物体的图像检测准确率的技术目的,本发明方法还能够有效提高基于小物体的目标检测的准确率,此外,该方法能够消除背景信息对目标检测准确率的影响,对于具有复杂背景的图像,检测准确率高的技术优势尤其明显。
附图说明
图1是本发明一种复杂场景下安全帽识别方法的流程图。
图2是复杂场景安全帽灰度图像。
图3是检测出安全帽图像。
具体实施方式
下面结合附图对本发明具体实施方式作进一步详细描述。
具体实施例一
本实施例是一种复杂场景下安全帽识别方法的实施例。
本实施例的一种复杂场景下安全帽识别方法,流程图如图1所示,该方法包括以下步骤:
步骤a、待检测图像中的人员初定位;
步骤b、安全帽所在区域的初定位;
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;
步骤e、融合特征并进行分类检测。
具体实施例二:
本实施例的一种复杂场景下安全帽识别方法,流程图如图1所示,该方法在具体实施例一的基础上进一步对每个步骤进行细化,并对具体图片进行处理,其中,复杂场景安全帽灰度图像如图2所示,检测出安全帽图像如图3所示。该方法包括以下步骤:
步骤a、对待检测图像中的人员初定位;具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y)为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y) 与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y),i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
再计算阈值半径Rk(x,y),如下式:
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)
如下式:
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
步骤a34:求取向量PPt和QQt余弦相似度如下式:
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos〈PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域FBj(x,y) 的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant。
步骤b、对安全帽所在区域初定位;具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt。
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y) 表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值。公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d22:计算ZHOF协方差矩阵UHOF
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
p为目标维数。
步骤e、融合特征并进行分类检测;的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征(xc,yc)
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量 Z融合;
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,认为安全帽区域Hatt有安全帽,分别进行标记。
具体实施例三
本实施例是一种复杂场景下安全帽识别方法中待检测图像中的人员运动信息描述方法的实施例。
一种复杂场景下安全帽识别方法中待检测图像中的人员运动信息描述方法,包括以下步骤:
步骤a、对待检测图像中的人员初定位;具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y)为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y) 与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y),i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
再计算阈值半径Rk(x,y),如下式:
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)
如下式:
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
步骤a34:求取向量PPt和QQt余弦相似度如下式:
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos〈PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域FBj(x,y) 的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant。
具体实施例四
本实施例是一种复杂场景下安全帽识别方法中安全帽位置信息描述方法的实施例。一种复杂场景下安全帽识别方法中安全帽位置信息描述方法,包括以下步骤:
步骤b、对安全帽所在区域初定位;具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt。
具体实施例五
本实施例是一种复杂场景下安全帽识别方法中HOG特征和HOF特征信息描述方法的实施例。一种复杂场景下安全帽识别方法中HOG特征和HOF特征信息描述方法,包括以下步骤:
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y) 表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值。公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
本实施例是一种复杂场景下安全帽识别方法中HOG特征和HOF特征降维描述方法的实施例。一种复杂场景下安全帽识别方法中HOG特征和HOF特征降维描述方法,包括以下步骤:
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d22:计算ZHOF协方差矩阵UHOF
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
p为目标维数。
具体实施例七
本实施例是一种复杂场景下安全帽识别方法的实施例。一种复杂场景下安全帽识别方法,包括以下步骤:
步骤e、融合特征并进行分类检测;的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
由步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量Z融合;
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,认为安全帽区域Hatt有安全帽,分别进行标记。
Claims (6)
1.一种复杂场景下安全帽识别方法,其特征在于,包括以下步骤:
步骤a、待检测图像中的人员初定位;
步骤b、安全帽所在区域的初定位;
步骤c、提取待检测图像的方向梯度直方图(HOG)特征和光流方向直方图(HOF)特征;
步骤d、对步骤c提取的HOG特征和HOF特征分别进行PCA降维;
步骤e、融合特征并进行分类检测。
2.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤a的具体步骤如下:
步骤a1:构建待检测单帧图像A1的背景像素值样本集M(x,y)
有:
M(x,y)={V1(x,y),V2(x,y),...,Vj(x,y)};
j=1,2,...,Nback,Nback为A1内背景像素点的个数,V(x,y)表示像素点(x,y)处的像素值;
步骤a2:对待检测单帧图像A1进行前景提取
步骤a21:对A1的像素点(x,y)进行分类
SR(V(x,y))表示以像素值V(x,y)为圆心,圆心坐标为(V(x,y),V(x,y)),阈值Rk(x,y)为圆半径的区域,横纵坐标轴都为像素值,k=1,2,...,NA1且k!=i,NA1为A1内像素点个数;若V(x,y)与M(x,y)的交集个数b满足b<C,则判定(x,y)为前景,记为FGi(x,y),i=1,2,...,Nfront,Nfront为A1内背景像素点的个数;否则为背景,记为FBj(x,y);C为预先定义好的相似度阈值;
步骤a22:计算步骤a21中像素点(x,y)阈值半径Rk(x,y)
计算A1内像素点(x,y)的像素值V(x,y)与M(x,y)内背景像素值Vi(x,y)差值的平方平均值d(x,y),如下式:
再计算阈值半径Rk(x,y),如下式:
λ为调节权重,d为固定阈值,Rk(x,y)为像素点(x,y)对应的阈值半径;
经实验所得,λ设为0.05,d设为8;
步骤a3:消除鬼影区域
步骤a31:对步骤a2得到的前景目标像素点FGi(x,y)做连通域标记,记为前景目标区域,用符号Ft表示,t=1,2,3,...,NF其中NF为A1内前景目标的个数;并将Ft最小外接矩形包含的邻域背景BLt(x,y)也进行标记,记为邻域背景区域,用符号Bt表示;然后分别计算每个Ft及Bt对应灰度直方图,分别记为Pt和Qt;最后统计Pt和Qt中出现的FGi(x,y)中像素点个数,将结果分别保存在向量PPt和QQt中;
步骤a32:求取前景目标区域Ft与邻域背景区域Bt两像素集欧式距离Dt(PPt,QQt)
如下式:
步骤a33:将Dt(PPt,QQt)归一化为Nt(PPt,QQt)如下式:
步骤a34:求取向量PPt和QQt余弦相似度如下式:
步骤a35:判断是否为鬼影区域
按照下式进行鬼影区域判断:
其中,GHt表示鬼影区域,T1和T2分别为归一化后欧式距离和余弦相似度阈值,当Nt(PPt,QQt)与cos<PPt,QQt>同时满足要求时,则判定GHt属于鬼影,将GHt点的像素值设置为0,从而使鬼影现象消除;
步骤a4:确定人体目标区域Humant
步骤a41:对步骤a35所得进行前景FGi(x,y)背景FBj(x,y)更新
当FGi(x,y)的像素点(x,y)连续3次被检测为前景,(x,y)自动归类为背景区域FBj(x,y)的像素点;FGi(x,y)的所有像素点(x,y)依次进行检测更新,完成FGi(x,y)和FBj(x,y)更新;
步骤a42:确定人体目标区域Humant
由步骤a41更新后得到新的的前景目标区域Ft‘,即为人体目标区域Humant。
3.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤b的具体步骤如下:
步骤b1:计算步骤a42得到的人体目标区域Humant中人体目标HTt高度
在Ft‘垂直方向,人体目标区域Humant的最高点为(xH,yH)以及垂直方向相对应的最低点为(xL,yL),yH-yL得到人体目标HTt高度;
步骤b2:通过人体比例初步确定安全帽区域HAt
人头高度约占人体目标HTt的0.137,因此,设置安全帽区域HAt占HTt的0.125-0.25;
步骤b3:提取灰度值为255的像素
安全帽区域HAt中灰度值为255的像素点形成新的安全帽目标Hatt。
4.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤c的具体步骤如下:
步骤c1:提取步骤b3所得Hatt的方向梯度直方图(HOG)特征
步骤c11:伽马校正
通过校正可减少安全帽目标Hatt局部阴影以及光照变化干扰,增强图像的对比效果,公式如下:
I2(x,y)=I1(x,y)Gamma
其中,Gamma表示校正值,取0.45,I1(x,y)表示安全帽目标Hatt校正前的像素值,I2(x,y)表示安全帽目标Hatt校正后的像素值;
步骤c12:将安全帽目标Hatt分割为16*16像素块
步骤c13:计算安全帽目标Hatt块的方向梯度
对于安全帽目标Hatt块内像素点(x,y)的水平与垂直方向梯度分别为Gxt(x,y)和Gyt(x,y),其中Ht(x,y)表示安全帽目标Hatt内(x,y)处的像素值;公式如下:
Gxt(x,y)=Ht(x+1,y)-Ht(x-1,y)
Gyt(x,y)=Ht(x,y+1)-Ht(x,y-1)
得到安全帽目标Hatt块内像素点(x,y)处的梯度幅值和方向分别为Gt(x,y)和αt(x,y):
步骤c14:块内归一化处理
通过分别对安全帽目标Hatt内每个块的梯度信息进行L2-norm标准化处理的方式,得到每个块的HOG特征描述符Xb,如下式:
xi是安全帽Hatt区域每个块内像素点(x,y)水平方向的坐标,NB是Hatt中对应块内像素点的个数;
步骤c15:生成安全帽目标Hatt的特征向量
将安全帽目标Hatt内每个块的HOG描述符Xb串联起来,得到安全帽目标Hat的HOG特征向量矩阵ZHOG={Xb1,Xb2,...,XbS},s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,用于描述安全帽的边缘梯度信息;
步骤c2:提取步骤b3得到的Hatt光流方向直方图(HOF)特征
步骤c21:计算th+Δth时刻安全帽区域Hatt内(x,y)的亮度L(x+Δx,y+Δy,th+Δth)
光流场中,在极小局部内亮度不会发生任何变化,L(x,y,th)表示th时刻(x,y)处的亮度,简写为Ls,s=1,2,...,NH,NH为安全帽Hatt内像素点的个数,有:
步骤c22:计算安全帽区域Hatt光流运动特征向量ZHOF
5.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤d的具体步骤如下:
步骤d1:对步骤c15所得到的HOG特征ZHOG进行PCA降维
步骤d12:计算安全帽区域Hatt内像素点的HOG特征协方差矩阵UHOG
步骤d13:对HOG特征ZHOG进行特征降维
取协方差矩阵UHOG前p个主成分,进行特征降维得到HOG_PCA特征yHOG,公式如下:
p为目标维数;
步骤d2:对步骤c22所得到的HOF特征向量ZHOF进行PCA降维
步骤d22:计算ZHOF协方差矩阵UHOF
步骤d23:对HOF特征值ZHOF进行特征降维
取协方差矩阵UHOF前p个主成分,进行特征降维得到HOF_PCA特征yHOF,公式如下:
p为目标维数。
6.根据权利要求1所述的一种复杂场景下安全帽识别方法,其特征在于,步骤e的具体步骤如下:
步骤e1:提取安全帽目标Hatt重心特征
通过记录连续5帧目标Hatt的重心,得到5个Hatt的重心坐标(xg,yg),计算安全帽Hatt重心特征(xc,yc),有:
其中,xc与yc分别为Hatt重心点的横纵坐标;
步骤e2:与步骤d所得yHOG和yHOF特征进行融合
步骤d13所得yHOG特征和步骤d23所得yHOF特征和重心特征(xc,yc)级联成融合特征分量Z融合;
步骤e3:对融合特征Z融合进行SVM分类
将步骤e2得到的融合特征Z融合与已有的安全帽正负样本特征匹配,若安全帽区域Hatt判断为负样本,认为安全帽区域Hatt没有安全帽;若安全帽区域Hatt判断为正样本,认为安全帽区域Hatt有安全帽,分别进行标记。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010533484.1A CN111680682B (zh) | 2020-06-12 | 2020-06-12 | 一种复杂场景下安全帽识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010533484.1A CN111680682B (zh) | 2020-06-12 | 2020-06-12 | 一种复杂场景下安全帽识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680682A true CN111680682A (zh) | 2020-09-18 |
CN111680682B CN111680682B (zh) | 2022-05-03 |
Family
ID=72454730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010533484.1A Expired - Fee Related CN111680682B (zh) | 2020-06-12 | 2020-06-12 | 一种复杂场景下安全帽识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680682B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408365A (zh) * | 2021-05-26 | 2021-09-17 | 广东能源集团科学技术研究院有限公司 | 一种复杂场景下的安全帽识别方法及装置 |
CN114578316A (zh) * | 2022-04-29 | 2022-06-03 | 北京一径科技有限公司 | 确定点云中鬼影点的方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063722A (zh) * | 2014-07-15 | 2014-09-24 | 国家电网公司 | 一种融合hog人体目标检测和svm分类器的安全帽识别方法 |
CN108288033A (zh) * | 2018-01-05 | 2018-07-17 | 电子科技大学 | 一种基于随机蕨融合多特征的安全帽检测方法 |
US20190182436A1 (en) * | 2017-12-08 | 2019-06-13 | Canon Kabushiki Kaisha | System and method of generating a composite frame |
CN109978916A (zh) * | 2019-03-11 | 2019-07-05 | 西安电子科技大学 | 基于灰度图像特征匹配的Vibe运动目标检测方法 |
CN110598606A (zh) * | 2019-09-02 | 2019-12-20 | 南京邮电大学 | 一种具有视觉隐私保护优势的室内跌倒行为检测方法 |
WO2020037279A1 (en) * | 2018-08-16 | 2020-02-20 | Riddell, Inc. | System and method for designing and manufacturing a protective helmet |
-
2020
- 2020-06-12 CN CN202010533484.1A patent/CN111680682B/zh not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063722A (zh) * | 2014-07-15 | 2014-09-24 | 国家电网公司 | 一种融合hog人体目标检测和svm分类器的安全帽识别方法 |
US20190182436A1 (en) * | 2017-12-08 | 2019-06-13 | Canon Kabushiki Kaisha | System and method of generating a composite frame |
CN108288033A (zh) * | 2018-01-05 | 2018-07-17 | 电子科技大学 | 一种基于随机蕨融合多特征的安全帽检测方法 |
WO2020037279A1 (en) * | 2018-08-16 | 2020-02-20 | Riddell, Inc. | System and method for designing and manufacturing a protective helmet |
CN109978916A (zh) * | 2019-03-11 | 2019-07-05 | 西安电子科技大学 | 基于灰度图像特征匹配的Vibe运动目标检测方法 |
CN110598606A (zh) * | 2019-09-02 | 2019-12-20 | 南京邮电大学 | 一种具有视觉隐私保护优势的室内跌倒行为检测方法 |
Non-Patent Citations (6)
Title |
---|
ROMUERE R. V. E SILVA 等: "Detection of helmets on motorcyclists", 《ADVANCED COMPUTING AND COMMUNICATION TECHNOLOGIES》 * |
SUN XIAOMING 等: "Journal|[J]Measurement Science and TechnologyVolume 32, Issue 10. 2021.", 《MEASUREMENT SCIENCE AND TECHNOLOGY》 * |
仝泽友等: "矿井皮带区矿工违规行为识别方法", 《河南科技大学学报(自然科学版)》 * |
吴雪: "《热电厂场景下安全帽的检测与跟踪》", 《中国优秀博硕士学位论文全文数据库(硕士) 工程科技Ⅱ辑》 * |
李琪瑞: "基于人体识别的安全帽视频检测系统研究与实现", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
王明芬: "基于视频的安全帽检测和跟踪算法研究", 《信息通信》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408365A (zh) * | 2021-05-26 | 2021-09-17 | 广东能源集团科学技术研究院有限公司 | 一种复杂场景下的安全帽识别方法及装置 |
CN113408365B (zh) * | 2021-05-26 | 2023-09-08 | 广东能源集团科学技术研究院有限公司 | 一种复杂场景下的安全帽识别方法及装置 |
CN114578316A (zh) * | 2022-04-29 | 2022-06-03 | 北京一径科技有限公司 | 确定点云中鬼影点的方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111680682B (zh) | 2022-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363047B (zh) | 人脸识别的方法、装置、电子设备和存储介质 | |
US11393103B2 (en) | Target tracking method, device, system and non-transitory computer readable medium | |
EP3295424B1 (en) | Systems and methods for reducing a plurality of bounding regions | |
KR102462818B1 (ko) | 모션벡터 및 특징벡터 기반 위조 얼굴 검출 방법 및 장치 | |
Chang et al. | Tracking Multiple People Under Occlusion Using Multiple Cameras. | |
US9646381B2 (en) | State-of-posture estimation device and state-of-posture estimation method | |
CN105205480B (zh) | 一种复杂场景中人眼定位方法及系统 | |
Rauter | Reliable human detection and tracking in top-view depth images | |
CN108491498B (zh) | 一种基于多特征检测的卡口图像目标搜索方法 | |
KR101781358B1 (ko) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 | |
US20120069007A1 (en) | Method for Enhancing Depth Maps | |
CN111680682B (zh) | 一种复杂场景下安全帽识别方法 | |
CN108335331A (zh) | 一种钢卷双目视觉定位方法及设备 | |
KR101480220B1 (ko) | 객체 인식 장치 및 그 방법 | |
CN108447022A (zh) | 基于单个固定摄像头图像序列的运动目标拼接方法 | |
Zabihi et al. | Detection and recognition of traffic signs inside the attentional visual field of drivers | |
Saito et al. | People detection and tracking from fish-eye image based on probabilistic appearance model | |
WO2014079058A1 (zh) | 一种视频图像处理方法及系统 | |
CN109711233A (zh) | 一种基于深度学习的比对证件照人脸识别方法 | |
Rujikietgumjorn et al. | Real-time hog-based pedestrian detection in thermal images for an embedded system | |
Huang et al. | High-efficiency face detection and tracking method for numerous pedestrians through face candidate generation | |
KR101542206B1 (ko) | 코아스-파인 기법을 이용한 객체 추출과 추적 장치 및 방법 | |
US9727780B2 (en) | Pedestrian detecting system | |
Almomani et al. | Segtrack: A novel tracking system with improved object segmentation | |
Saito et al. | Human detection from fish-eye image by Bayesian combination of probabilistic appearance models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220503 |