CN112836644B - 一种基于超图学习的安全帽实时检测方法 - Google Patents

一种基于超图学习的安全帽实时检测方法 Download PDF

Info

Publication number
CN112836644B
CN112836644B CN202110155611.3A CN202110155611A CN112836644B CN 112836644 B CN112836644 B CN 112836644B CN 202110155611 A CN202110155611 A CN 202110155611A CN 112836644 B CN112836644 B CN 112836644B
Authority
CN
China
Prior art keywords
block
matrix
specifically
super
blocks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110155611.3A
Other languages
English (en)
Other versions
CN112836644A (zh
Inventor
叶娅兰
冯涛
鲁力
何钰坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202110155611.3A priority Critical patent/CN112836644B/zh
Publication of CN112836644A publication Critical patent/CN112836644A/zh
Application granted granted Critical
Publication of CN112836644B publication Critical patent/CN112836644B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于超图学习的安全帽实时检测方法,该方法首先通过运动目标检测圈定模型进行运动目标检测圈定;根据运动目标检测圈定的结果,通过安全帽实时检测模型对人体目标中的安全帽实现实时检测;并通过运动目标追踪模型进行运动目标跟踪。本发明能够解决当前安全帽检测中的准确性与实时性无法兼顾的问题,因为超图学习只需要对图片特征进行一次简单的矩阵运算,不需要反复迭代计算或者多次遍历图片特征,能够保证安全帽检测的实时性。另一方面,超图相比于普通图,可以在多个点之间建立边,而这本质上是一种聚类的表现,而聚类的先行步骤,即是分类,因此超图学习能够保证安全帽检测的准确性。

Description

一种基于超图学习的安全帽实时检测方法
技术领域
本发明涉及安全帽检测领域,尤其涉及一种基于超图学习的安全帽实时检测方法。
背景技术
当前,在施工现场中安全帽的佩戴极大的保障了工人的生命安全,但部分工人由于安全意识不高、懒惰、佩戴安全帽不适等原因抗拒佩戴安全帽,这对于工人的生命安全带来了极大隐患。如果采取管理人员监督的方式,不仅费时费力,也无法实时对每一个工人进行监督。而采用摄像头实时监控,并采取安全帽的智能检测方法,则能够保证对每一个施工现场的工作人员进行检测,并对未佩戴安全帽的人员实时发出警告。
然而,当前的安全帽智能检测方法存在较大问题。部分安全帽检测方法检测精度不高,无法做到对较低清晰度视频中人员是否佩戴安全帽进行检测;而另一部分安全帽检测方法识别速度太慢,需要耗费大量计算资源。这些安全帽检测方法都无法保证现场监控中安全帽识别的实时识别。
发明内容
对于上述安全帽识别中的准确性与实时性方面存在的问题,可以通过本发明中的基于超图学习的安全帽实时检测方法解决。
本发明旨在提供一种基于超图学习的安全帽实时检测方法,以解决目前安全帽检测中的识别精度与识别速度间的矛盾。
为解决上述技术问题,本发明提供以下技术方案:
一种基于超图学习的安全帽实时检测方法,该方法主要包括如下步骤:
步骤1.开始所述基于超图学习的安全帽实时检测,获取含运动目标(即人)的视频;
步骤2.对所用参数及运动目标检测圈定模型、安全帽实时检测模型、运动目标追踪模型进行初始化;
步骤3.检测当前是否已经通过所述运动目标检测圈定模型获取到运动目标检测圈定的人体目标,若已获取到人体目标,则对该人体目标通过所述安全帽实时检测模型进行安全帽实时检测,并显示检测结果;若未获取到人体目标,则重新开始运动目标检测圈定;
步骤4.在完成人体目标的安全帽实时检测后,判断含运动目标(即人)的视频是否结束,若未结束,则根据预设的时间间隔以及检测到的人体运动状态,预测后续人体运动状态,以通过所述运动目标追踪模型实现运动目标追踪,并进入步骤5;若结束,则结束所述基于超图学习的安全帽实时检测;
步骤5.若运动目标追踪中对后续人体运动状态预测成功,则表明追踪成功,刷新人体运动状态和时间间隔后输出安全帽实时检测的结果,即显示检测结果,并重新开始新一轮的运动目标追踪;若运动目标追踪中对后续人体运动状态预测失败,则表明追踪失败,需要重新开始整个流程,返回到运动目标检测圈定。
由上述主要实施步骤可知,本安全帽实时检测方法的主要方法为1.运动目标检测圈定;2.安全帽实时检测;3.运动目标追踪。下面将对上述3种方法依次进行详细的描述:
运动目标检测圈定:
提取含运动目标(即人)的施工现场视频中预设时间间隔为m的任意两帧图像,记为图P0与图Pm
利用过分割算法对图P0与图Pm这两帧图像分别进行分割,分别得到含n个块的图像,记所有块的集合为B,ai∈B,bi∈B,i∈n,其中ai来自P0,bi来自Pm。其中过分割算法的主要步骤为:
1)初始化聚类中心:按照预先设定的块个数,在图像内确定出块并均匀地分配聚类中心;
2)通过计算块中所有像素的梯度值,将聚类中心重新设定为像素点中梯度值最小的地方;
3)在每个聚类中心周围的块内为每个像素点分配类标签,即属于哪个聚类中心;
4)对于每个块内的像素点,分别计算它和邻近的聚类中心的颜色距离和位置距离;
5)根据计算出来的颜色距离和空间距离重新对每个块内的像素点分配类标签。并由此重新计算出新的聚类中心。反复迭代,得到最终的聚类中心以及块。
具体地,使用SLIC图像过分割算法,根据图像的长宽比选择合适的块个数与分割精度,过分割上述两帧图像,分别得到两帧含n个块的图像。类似的过分割算法还有QuickShift,Turbopixel,SEEDS等。
其中,任意一个块的聚类中心信息记为(x,y,l,u,c),块平均信息记为
Figure BDA0002933306070000021
即式(1-1)和(1-2),其中N指该块中像素点个数,(x,y)为该任意一个块的聚类中心坐标,即聚类中心位置信息,(l,u,c)为该任意一个块的聚类中心颜色信息,(xj,yj,lj,uj,cj)为该任意一个块中任意像素的坐标及颜色信息,并且
Figure BDA0002933306070000022
Figure BDA0002933306070000023
Figure BDA0002933306070000024
经过SLIC图像过分割算法后的块,可以认为每个块的图像信息一致。由于图P0与图Pm取自含运动目标(即人)的视频中的时间间隔为m的两帧,图像P0在经过预设时间间隔m后,包含运动目标的块会产生相对位移,而不包含运动目标的块,即背景块则保持静止状态。
因此可以认定单个块中所有像素的运动状态是一致的。
根据每个块的位置与大小,计算出两帧图像中各块的一一对应关系。其中各块间一一对应的方法是:
Figure BDA0002933306070000031
(x0,y0,l0,u0,c0)为图p0中任意一个块ai的聚类中心信息,(xm,ym,lm,um,cm)为图pm中任意块bi的聚类中心信息,聚类中心信息代表了整个块的信息,包括聚类中心位置信息和聚类中心颜色信息,N0为图p0中任意块ai中的像素点个数,Nm为块ai在经过时间m后在图pm中bi对应的块的像素点个数,w1和w2为不同的权重值,K1和K2为不同的相似度阈值。
每帧图像中任意块的N一般是不一样的,不同帧图像中的N一般也是不一样的,原因是在初始化SLIC时候每个块的像素点个数是一样的,但是由于求解聚类中心,重新划分块的迭代过程,在SLIC分割结束后各个块的像素点个数一般变为不同,而这些块在经过时间m后,若这段时间物体处于静止,则其对应在图pm中,块的像素点一样是一致的,但因为物体是运动的,所以对应块的像素点会变化。
根据每个块的位移及大小,通过设置相似度阈值K1,舍弃图像中的所有静止块,即符合式(1-3)的块被舍弃;
为块位置信息与块颜色信息赋予不同权重w1,w2,将各块一一对应。设置块变化阈值K2,若块变化未超过阈值,认定块存在一一对应关系,保留对应块。即符合式(1-4)的块被保留;
若块变化超过阈值,认定块经过时间m后发生变化,不存在一一对应关系,舍弃对应块,即符合式(1-5)的块被舍弃。
若其中存在某些块为孤立块,则将其作为噪声块舍弃。所有存在一一对应关系的块的数量记为q。
通过剔除部分无一一对应关系的错误块或无明显变化的背景块,可以显著减少后续超图矩阵维度大小,从而提高计算效率。
根据两帧图像中剩余的各块之间的一一对应关系,可计算出对应块的颜色变化(L,U,C)以及位移(X,Y),并由此计算出块位移量z与位移方向a。使用f=(L,U,C,z,a)表示块运动状态。即,
Figure BDA0002933306070000041
Figure BDA0002933306070000042
相比于只含块位移(z,a)或只含颜色变化(L,U,C)的超图计算,其优势在于:若只含块位移,则会将部分运动背景计算在内成为最终目标(如风吹动的草坪或树枝);若只含颜色变化(L,U,C),则在光线产生变化时易将整个画面标记为最终目标。因此本发明采用同时结合颜色变化与块位移的方法(L,U,C,z,a),保证本安全帽检测方法在大部分场景的正常运行。
计算出相邻的两个块(记为i′,j′)的相似2范数||fi′-fj′||2(1-13),这儿的fi′与fj′分别表示块i′,j′的块运动状态,其表达式与f=(L,U,C,z,a)一致。根据上述相似2范数求出相似矩阵A(i′,j′),其中
Figure BDA0002933306070000043
其中σ是由||fi′-fj′||2求得的标准差。
注意到某个块周围的所有相邻块及自身块即可构成一条超边,因此相似矩阵A(i′,j′)可直接作为K-近邻超图矩阵H(v,e),其中v,e分别代表该超图的超点和超边。
由相似2范数可得到超边权重矩阵wH
Figure BDA0002933306070000044
其中c为需要求解的常数,其求解方法为:选择5个计算出的最大的相似2范数,代入式(1-15)后再将其代入式(1-16)以求得c,之后由式(1-15)及所有块的相似2范数求得所有超边的超边权重wH,以W表示超边权重矩阵,wH是其超边权重。
以一个块作为超点,构建出q×q的标准化超图拉普拉斯矩阵△,其中q为筛选出的块个数,即超点个数。此处q×q和后文的q×q中的n都代表的是保存下来的有一一对应关系的块的数量。
Figure BDA0002933306070000045
I为单位矩阵;
Dv为超点的度矩阵,它是由超点的度d(v)为对角线构成的,其中h(v,e)代表超点v和超边e的超图矩阵值,w(e)代表超边e的权重,E为所有超边集合;
Figure BDA0002933306070000051
De为超边的度矩阵,它是由超边的度d(e)为对角线构成的,其中V代表所有超点集合;
Figure BDA0002933306070000052
H为超图的关联矩阵,即K-近邻超图矩阵,也即上述相似矩阵A(i′,j′);W为上述超边权重矩阵。
选择拉普拉斯矩阵△的全部特征向量,构建出q×q的特征向量矩阵G;
使用k-means聚类算法将特征向量矩阵G聚类,即为图像中的特定块聚类;
去除同一类块的内部边界,只剩下的外部的内轮廓,即圈定出了视频中的活动人员。安全帽检测:
从互联网及已有施工现场含工人的视频或图像中截取安全帽图像以及未佩戴安全帽的人体头部图像。人工识别后分别为含安全帽图像和无安全帽图像打标签记为1和-1,未经过人工认别的图像打标签为0。所有打标签的图像总数记为Q;
Figure BDA0002933306070000053
预处理所有图像为统一大小;
分别提取每一幅图像的方向梯度直方图特征(HOG),为1×lh的特征向量Hog,其中的单个特征为Hog(1,k),lh为特征向量Hog的长度;
以单个特征之间的余弦作为特征向量Hog相似度s。任取两个单个特征分别记为Hog1,Hog2,其相似度s12为:
Figure BDA0002933306070000054
将一个单个特征作为一个超点v′,设置超边长度为m,(m<Q)。对于超点v′,计算出其与其他所有超点的相似度,选择前m个相似程度最好的超点,构建超边e′;则每个超点v′可构建一条超边。由此可得到Q×Q的K-近邻超图矩阵H(v′,e′)。H(v′,e′)=si″j″,其中,si″j″指任意两个单个特征Hogi″,Hogj″的相似度。
将超边权重均设置为1,即wH=1;可得超边权重矩阵W′;
构建出Q×Q的标准化超图拉普拉斯矩阵△′:
Figure BDA0002933306070000061
其中,I为单位矩阵;
Dv′为超点的度矩阵,它是由超点的度d(v′)为对角线构成的;其中h(v′,e′)代表超点v′,超边e′的超图矩阵值,E′为所有超边集合;
Figure BDA0002933306070000062
De′为超边的度矩阵,它是由超边的度d(e′)为对角线构成的,其中V′为所有超点集合;
Figure BDA0002933306070000063
构建出超图分类器g′:
Figure BDA0002933306070000064
其中μ∑v′∈V′[g(v′)-y(v′)]2为图结构损失函数,用以消除误差,y(v′)为超点v′的标签(1,0,-1),μ为设置的常数,g表示特征向量矩阵,即预测标签矩阵。它的解为:
g=μ(Δ+μI)-1y (2-9)
其中,g(v′)即为预测的标签,由此得到已经建好的超图安全帽检测模型。
因此,将运动目标检测圈定中人体头部区域以固定大小的选择框圈定出人体头部图像;提取其方向梯度直方图特征(HOG),并放入已经建好的超图安全帽检测模型,即可得到相应的预测标签,即人体是否佩戴安全帽。
目标跟踪:
初始化目标跟踪模型,时间间隔m,最大目标跟踪次数T。
获取运动目标检测圈定过程圈定出的目标人物区域的运动状态f0=(L,U,C,z,a)(3-1),设置初始目标追踪次数t=0。
设置当前目标跟踪次数t=t+1(3-2)。
由f0计算出目标人物在m时间内的颜色变化与运动速度v(L,U,C,z,a)=f0/m(3-3)。由该速度计算出目标人物在时间t×m后,可能的运动状态f预测=f0+v(L,U,C,z,a)×tm(3-4)。实际目标运动状态ftm≤f预测(3-5)。
在时间t×m后,在预测的运动状态所属区域内根据目标颜色特征检测目标的当前运动状态。
若检测到目标,则认为目标追踪成功,记录当前目标运动状态,刷新并重新开始进行目标跟踪。若未检测到目标,则认为目标追踪未成功。
检测当前目标追踪次数t是否小于最大目标追踪次数T。若当前目标追踪次数t小于或等于最大目标追踪次数T,则认为目标追踪尚未完成,可以继续尝试追踪,设置当前目标跟踪次数t=t+1后重新计算目标运动状态并追踪。若当前目标追踪次数t大于最大目标追踪次数T,则认为目标追踪失败,重新开始运动目标检测圈定。
本发明提供了一种基于超图学习的安全帽实时检测方法。通过本发明能够解决当前安全帽检测中的准确性与实时性无法兼顾的问题,因为超图学习相比于常用的各种神经网络或者其他学习方法,超图学习只需要对图片特征进行一次简单的矩阵运算,不需要反复迭代计算或者多次遍历图片特征,因此超图学习能够保证安全帽检测的实时性。另一方面,超图相比于普通图,可以在多个点之间建立边,而这本质上是一种聚类的表现,而聚类的先行步骤,即是分类,因此超图学习能够保证安全帽检测的准确性。
附图说明
图1是本发明基于超图学习的安全帽实时检测方法的整体流程图;
图2是本发明基于超图学习的安全帽实时检测方法的运动目标检测圈定流程图;
图3是本发明基于超图学习的安全帽实时检测方法的安全帽检测流程图;
图4是本发明基于超图学习的安全帽实时检测方法的目标跟踪流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的表述。显然,所描述的实施例是本发明一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本具体实施方式中,若无额外说明,进行步骤均为依此向下。
请参阅图1所示:
1.一种基于超图学习的安全帽实时检测方法,该方法包括如下步骤:
步骤1:开始所述基于超图学习的安全帽实时检测流程,对所用参数及模型进行初始化,设定时间间隔m,过分割块数量n,初始化各个模型,包括运动目标检测圈定模型、安全帽实时检测模型和运动目标追踪模型等,进入步骤2。
步骤2:根据施工现场视频或者实时监控中截取到的相隔m的两张图像,分别对两张图像通过所述运动目标检测圈定模型进行运动目标检测圈定,进入步骤3。
步骤3:根据运动目标检测圈定的结果,即圈定出的人体目标,通过所述安全帽实时检测模型对人体目标中的安全帽实现实时检测。
步骤4:显示出安全帽实时检测检测结果,进入步骤5。
步骤5:判断当前施工现场视频或者实时监控是否播放完毕,
若未播放完毕,则通过所述运动目标追踪模型进行运动目标跟踪,进入步骤6;
若播放完毕,则所述基于超图学习的安全帽实时检测流程结束。
步骤6:在完成人体目标的安全帽实时检测后,根据已有的时间间隔以及检测到的人体运动状态,预测后续人体运动状态,以实现运动目标跟踪。进入步骤7。
步骤7:检测运动目标跟踪中是否对人体行为预测成功,
若运动目标追踪中对人体行为预测成功,则表明追踪成功,刷新人体运动状态和时间间隔后进入步骤3;
若运动目标追踪中对人体行为预测失败,则表明追踪失败,需要重新开始整个流程,进入步骤2。
所述步骤2中的运动目标检测圈定如图2所示。
基于超图学习的安全帽实时检测方法的运动目标检测圈定方法,具体包括:
步骤1.1:提取施工现场视频图像中时间间隔为m的两帧图像,使用过分割算法处理图像得到过分割块。
采用过分割算法对图像块进行分割。其中过分割算法的主要步骤为:
a.初始化聚类中心:按照设定的块个数,在图像内均匀的分配聚类中心;
b.通过计算块中所有像素的梯度值,将聚类中心重新设定为像素点中梯度值最小的地方;
c.在每个聚类中心周围的块内为每个像素点分配类标签,即属于哪个聚类中心;
d.对于每个块内的像素点,分别计算它和邻近的聚类中心的颜色距离和空间距离;
e.根据计算出来的颜色距离和空间距离重新对像素点分配类标签。并由此重新计算出新的聚类中心。反复迭代,得到最终的聚类中心以及块。使用简单的线性迭代聚类SLIC图像过分割算法(类似的算法还有快速漂移Quick Shift,Turbopixel,SEEDS等),根据图像的长宽比选择合适的块个数与分割精度,过度分割两帧图像,分别得到含n个块的两幅图像。
具体的,提取施工现场视频图像中时间间隔为m的两帧图像,记为图p0与图pm
使用图像过分割算法,根据图像的长宽比选择合适的块个数与分割精度,过分割两帧图像,分别得到含n个块的图像,记所有块的集合为B,ai∈B,bi∈B,i∈n,其中ai来自P0,bi来自Pm
具体的,其中任意一个块的聚类中心信息与块平均信息记为(x,y,l,u,c),其中N指该块中的像素点个数;
Figure BDA0002933306070000091
Figure BDA0002933306070000092
具体的,对经过SLIC图像过分割算法后的块,可以认为每个块的图像信息一致。由于图p0与图pm取自含运动目标(即人)的视频中的相邻帧,图像p0在经过时间m后,包含运动目标的块会产生相对位移,而不包含运动目标的块,即背景块则保持静止状态。因此可以认定单个块中所有像素的运动状态是一致的。
步骤1.2:删除静止块及无对应块及无对应关系的块。
具体的,根据每个块的位置与大小,计算出两张图像中各块的一一对应关系。其中各块间一一对应的方法是:
Figure BDA0002933306070000093
(x0,y0,l0,u0,c0)为图p0中任意一个块ai的聚类中心信息,(xm,ym,lm,um,cm)为图pm中任意块bi的聚类中心信息,聚类中心信息代表了整个块的信息,包括聚类中心位置信息和聚类中心颜色信息,N0为图p0中任意块ai中的像素点个数,Nm为图pm中任意一个块bi中的像素点个数,w1和w2为不同的权重值,K1和K2为不同的相似度阈值。每帧图像中的任意一个块中的N不一样,不同帧图像中的N也不一样。
具体的,根据每个块的位移z及大小N,通过设置相似度阈值,舍弃图像中的所有静止块,即符合式(1-3)的块被舍弃;
具体的,为块图像信息与块位置信息赋予不同权重,将各块一一对应。
具体的,设置块变化阈值,若块变化未超过阈值,认定块存在一一对应关系,保留对应块。即符合式(1-4);
具体的,若块变化超过阈值,认定块经过时间m后发生变化,不存在一一对应关系,舍弃对应块,即符合式(1-5)。
具体的,通过剔除部分无一一对应关系的错误块或无明显变化的背景块,可以显著减少后续超图矩阵维度大小,从而提高计算效率。
步骤1.3:计算剩余块运动状态f=(L,U,C,z,a),得到相邻块相似二范数||fi′-fj′||2
具体的,根据两张图像图p0与图pm中剩余的各块之间的一一对应关系,可计算出块颜色变化(L,U,C)以及块位移(z,a),并由此计算出块位移量z与位移方向a。使用f=(L,U,C,z,a)表示块运动状态。
相比于原始只含块位移(z,a)的超图计算,其优势在于:若只含块位移,则会将部分运动背景计算在内成为最终目标(如风吹动的草坪或树枝);若只含颜色位移(L,U,C),则在光线产生变化时易将整个画面标记为最终目标。因此本方法采用同时结合颜色位移与块位移的方法(L,U,C,z,a),保证本安全帽检测方法在大部分场景的正常运行。
Figure BDA0002933306070000101
Figure BDA0002933306070000102
具体的,若其中存在孤立块,则将其作为噪声块舍弃。
具体的,计算出相邻的两个块(记为i′,j′)的相似2范数||fi′-fj′||2(1-13),这儿的fi′与fj′分别表示块i′,j′的块运动状态,其表达式与f=(L,U,C,z,a)一致。
步骤1.4:根据相邻块相似2范数建立K-近邻超图矩阵。
具体的,根据相似2范数求出相似矩阵A(i′,j′),其中
Figure BDA0002933306070000103
其中σ是由||fi′-fj′||2求得的标准差。
具体的,某个块周围的所有相邻块及自身块即可构成一条超边,因此相似矩阵A(i′,j′)可直接作为K-近邻超图矩阵H(v,e),其中v,e分别代表该超图的超点和超边。
步骤1.5:根据相邻块相似2范数得到超边权重wH,建立超边权重矩阵W。
具体的,由相似2范数得到超边权重矩阵wH
Figure BDA0002933306070000104
具体的,其中c为需要求解的常数,其求解方法为:选择5个计算出的最大的相似二范数,代入式(1-15)后再将其代入式(1-16)以求得c,之后由式1-(15)求得所有的超边权重wH,以W表示权重矩阵。
步骤1.6:建立超图拉普拉斯化矩阵。
具体的,以一个块作为超点,构建出q×q的标准化超图拉普拉斯矩阵△,其中q为筛选出的块个数,即超点个数。此处q×q和后文的q×q中的q都代表的是保存下来的有一一对应关系的块的数量。
Figure BDA0002933306070000111
I为单位矩阵;
Dv为超点的度矩阵,它是由超点的度d(v)为对角线构成的,其中h(v,e)代表超点v和超边e的超图矩阵值,w(e)代表超边e的权重,E为所有超边集合;
Figure BDA0002933306070000112
具体的,De为超边的度矩阵,它是由超边的度d(e)为对角线构成的,其中V代表所有超点集合;
Figure BDA0002933306070000113
具体的,H为超图的关联矩阵,即K-近邻超图矩阵H(v,e),也即上述相似矩阵A(i′,j′);W为上述超边权重矩阵。
步骤1.7:超图学习与聚类。选择拉普拉斯矩阵的全部特征向量。使用K-means方法聚类,圈定活动人员。
具体的,选择拉普拉斯矩阵△的全部特征向量,构建出q×q的特征向量矩阵G;
具体的,使用k-means聚类算法将特征向量矩阵G聚类,即为图像中的特定块聚类;
具体的,去除同一类块的内部边界,只剩下的外部的内轮廓,即圈定出了活动人员。
具体的,通过图像标注的方式将活动人员圈定展示。
关于前面所提到的安全帽实现检测,请参阅图3所示:
基于超图学习的安全帽实时检测方法的安全帽检测方法,具体包括:
步骤2.1:图像预处理。
从互联网及已有施工现场视频图像中截取安全帽图像以及未佩戴安全帽的人体头部图像。分别为其打标签记为1和-1,未打标签则记为0。图像总数记为Q;
Figure BDA0002933306070000114
具体的,预处理所有图像为统一大小;
步骤2.2:提取图像方向梯度直方图特征(HOG)。
具体的,分别提取每一幅图像的方向梯度直方图特征(HOG),为1×lh的特征向量Hog,其中的单个特征为Hog(1,k),lh为特征向量Hog的长度;
步骤2.3:计算各个图像的特征相似度s。
以单个特征之间的余弦作为特征向量Hog相似度s。任取两个单个特征分别记为Hog1,Hog2,其相似度s12为:
Figure BDA0002933306070000121
步骤2.4:提取前m个特征相似度,建立超图H(v′,e′)=si″j″
具体的,将一个单个特征向量作为一个超点v′,设置超边长度为m,(m<Q)。对于超点v′,计算出其与其他所有超点的相似度,选择前m个相似程度最好的超点,构建超边e′;则每个超点v′可构建一条超边。由此可得到Q×Q的K-近邻超图矩阵H(v′,e′)。H(v′,e′)=si″j″,其中,si″j″指任意两个单个特征Hogi″,Hogj″的相似度。
步骤2.5:将超边权重均设置为1,即wH=1,建立超边权重矩阵W′。
步骤2.6:获得超图拉普拉斯矩阵。
具体的,构建出Q×Q的标准化超图拉普拉斯矩阵△′:
Figure BDA0002933306070000122
其中,I为单位矩阵;
具体的,Dv′为超点的度矩阵,它是由超点的度d(v′)为对角线构成的;其中h(v′,e′)代表超点v′,超边e′的超图矩阵值,E′为所有超边集合;
Figure BDA0002933306070000123
具体的,De′为超边的度矩阵,它是由超边的度d(e′)为对角线构成的,其中V′为所有超点集合;
Figure BDA0002933306070000124
步骤2.7:构建超图分类器。
具体的,构建出超图分类器g′:
Figure BDA0002933306070000131
步骤2.8:解出预测标签矩阵g。
具体的,其中μ∑v′∈V′[g(v′)-y(v′)]2为图结构损失函数,用以消除误差,y(v′)为超点v′的标签(1,0,-1),μ为设置的常数,g表示特征向量矩阵,即预测标签矩阵。它的解为:
g=μ(Δ+μI)-1y (2-9)
其中,g(v′)即为预测的标签,由此得到已经建好的超图安全帽检测模型。
具体的,将运动目标检测圈定中人体头部区域以固定大小的选择框圈定出人体头部图像;
具体的,提取其方向梯度直方图特征(HOG),并放入已经建好的超图安全帽检测模型,即可得到相应的预测标签,即人体是否佩戴安全帽。
具体的,通过文字或图像标注的方式将佩戴安全帽情况展示。
关于前面所提到的目标跟踪,请参阅图4所示:
基于超图学习的安全帽实时检测方法的目标跟踪方法。其特征在于:
步骤3.1:目标跟踪初始化。
具体的,初始化目标跟踪模型,设置时间间隔m,最大目标跟踪次数T。
步骤3.2:获取运动目标检测圈定过程中圈定的运动人物所属块的外围边缘块运动状态f0=(L,U,C,z,a)(3-1),设置初始目标追踪次数t=0。
步骤3.3:设置当前目标跟踪次数t=t+1(3-2)。
步骤3.4:轮廓行为预测。
具体的,由f0计算出目标人物在m时间内的颜色变化与运动速度v(L,U,C,z,a)=f0/m(3-3)。由该速度计算出目标人物在时间t×m后,可能的运动状态f预测=f0+v(L,U,C,z,a)×tm(3-4)。实际目标运动状态ftm≤f预测(3-5)。
步骤3.5:在时间t×m后,在预测的运动状态所属区域内根据目标颜色特征检测目标的当前运动状态。
具体的,若检测到目标,则认为目标追踪成功,记录当前目标运动状态,刷新并重新开始进行目标跟踪,进入前面的步骤3,进行安全帽检测。
具体的,若未检测到目标,则认为目标追踪未成功,进入步骤3.6。
步骤3.6,检测当前目标追踪次数t是否小于最大目标追踪次数T。
具体的,若当前目标追踪次数t小于或等于最大目标追踪次数T,则认为目标追踪尚未完成,可以继续尝试追踪,进入步骤3.3。
具体的,若当前目标追踪次数t大于最大目标追踪次数T,则认为目标追踪失败,进入前面的步骤2,重新开始运动目标检测圈定。
以上实施例仅用于说明本发明的技术方案,而非对其限制。在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤除非特别说明均可以自由组合。尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应的技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (3)

1.一种基于超图学习的安全帽实时检测方法,其特征在于,该方法包括以下步骤:
步骤1:开始所述基于超图学习的安全帽实时检测流程,对所用参数及模型进行初始化:设定时间间隔m,过分割块数量n,初始化各个模型,包括运动目标检测圈定模型、安全帽实时检测模型和运动目标追踪模型,然后进入步骤2;
步骤2:根据施工现场视频或者实时监控中截取到相隔时间间隔m的两张图像,分别对这两张图像通过所述运动目标检测圈定模型进行运动目标检测圈定,得到运动目标检测圈定的结果,然后进入步骤3;
步骤3:根据运动目标检测圈定的结果,即圈定出的人体目标,通过所述安全帽实时检测模型对圈定出的人体目标中的安全帽实现实时检测,然后进入步骤4;
步骤4:显示出安全帽实时检测的检测结果,然后进入步骤5;
步骤5:判断当前施工现场视频或者实时监控是否播放完毕,
若未播放完毕,则通过所述运动目标追踪模型进行运动目标跟踪,进入步骤6;
若播放完毕,则所述基于超图学习的安全帽实时检测流程结束;
步骤6:在完成对圈定出的人体目标的安全帽实时检测后,根据预设的时间间隔以及检测到的人体运动状态,预测后续人体运动状态,以实现运动目标跟踪,然后进入步骤7;
步骤7:检测运动目标跟踪中是否对人体运动状态预测成功,
若运动目标追踪中对人体运动状态预测成功,则表明追踪成功,刷新人体运动状态和时间间隔后进入步骤3;
若运动目标追踪中对人体运动状态预测失败,则表明追踪失败,需要重新开始整个流程,进入步骤2;
其中,所述步骤2中的运动目标检测圈定方法具体包括:
步骤1.1:提取施工现场视频或者实时监控图像中时间间隔为m的两帧图像,使用过分割算法处理图像得到过分割块;
采用过分割算法对图像块进行分割,其中过分割算法的主要步骤为:
a.初始化聚类中心:按照设定的块个数,在图像内均匀的分配聚类中心;
b.通过计算块中所有像素的梯度值,将聚类中心重新设定为像素点中梯度值最小的地方;
c.在每个聚类中心周围的块内为每个像素点分配类标签,即属于哪个聚类中心;
d.对于每个块内的像素点,分别计算它和邻近的聚类中心的颜色距离和空间距离;
e.根据计算出来的颜色距离和空间距离重新对像素点分配类标签,并由此重新计算出新的聚类中心,反复迭代,得到最终的聚类中心以及块;
具体的,提取施工现场视频图像中时间间隔为m的两帧图像,记为图p0与图pm,使用SLIC图像过分割算法,根据图像的长宽比选择合适的块个数与分割精度,过分割两帧图像,分别得到含n个块的两帧图像,记所有块的集合为B,ai∈B,bi∈B,i∈n,其中ai来自P0,bi来自Pm
具体的,任意一个块的聚类中心信息记为(x,y,l,u,c),块平均信息记为
Figure FDA0003805879410000021
其中N指该块中像素点个数,(x,y)为该任意一个块的聚类中心坐标,即聚类中心位置信息,(l,u,c)为该任意一个块的聚类中心颜色信息,(xj,yj,lj,uj,cj)为该任意一个块中任意像素的坐标及颜色信息,并且
Figure FDA0003805879410000022
Figure FDA0003805879410000023
Figure FDA0003805879410000024
具体的,对经过SLIC图像过分割算法后的块,认为每个块的图像信息一致,由于图p0与图pm取自含运动目标,即人的视频中的相邻帧,图像p0在经过时间m后,包含运动目标的块会产生相对位移,而不包含运动目标的块,即背景块则保持静止状态;
步骤1.2:删除静止块及无对应块及无对应关系的块;
具体的,根据每个块的位置与大小,计算出两张图像中各块的一一对应关系,其中各块间一一对应的方法是:
Figure FDA0003805879410000025
(x0,y0,l0,u0,c0)为图p0中任意一个块ai的聚类中心信息,(xm,ym,lm,um,cm)为图pm中任意块bi的聚类中心信息,聚类中心信息代表了整个块的信息,包括聚类中心位置信息和聚类中心颜色信息,N0为图p0中任意块ai中的像素点个数,Nm为图pm中任意一个块bi中的像素点个数,w1和w2为不同的权重值,K1和K2为不同的阈值;每帧图像中的任意一个块中的N不一样,不同帧图像中的N也不一样;
具体的,根据每个块的位移z及大小N,通过设置相似度阈值K1,舍弃图像中的所有静止块,即符合式1-3的块被舍弃;
具体的,为块图像信息与块位置信息赋予不同权重,将各块一一对应;
具体的,设置块变化阈值K2,若块变化未超过阈值,认定块存在一一对应关系,保留对应块,即符合式1-4;
具体的,若块变化超过阈值,认定块经过时间m后发生变化,不存在一一对应关系,舍弃对应块,即符合式1-5;
具体的,通过剔除部分无一一对应关系的错误块或无明显变化的背景块,可以显著减少后续超图矩阵维度大小,从而提高计算效率;
步骤1.3:计算剩余块运动状态f=(L,U,C,z,a),得到相邻块相似二范数||fi′-fj′||2
具体的,根据两张图像图p0与图pm中剩余的各块之间的一一对应关系,可计算出块颜色变化(L,U,C)以及块位移(z,a),并由此计算出块位移量z与位移方向a,使用f=(L,U,C,z,a)表示块运动状态;
Figure FDA0003805879410000031
具体的,若其中存在孤立块,则将其作为噪声块舍弃;
具体的,计算出相邻的两个块,记为i′,j′的相似2范数为
||fi′-fj′||2 1-13,
这儿的fi′与fj′分别表示块i′,j′的块运动状态,其表达式与f=(L,U,C,z,a)一致;
步骤1.4:根据相邻块相似2范数建立K-近邻超图矩阵;
具体的,根据相似2范数求出相似矩阵A(i′,j′),其中
Figure FDA0003805879410000032
其中,σ是由||fi′-fj′||2求得的标准差;
具体的,某个块周围的所有相邻块及自身块即可构成一条超边,因此相似矩阵A(i′,j′)可直接作为K-近邻超图矩阵H(v,e),其中v,e分别代表该超图的超点和超边;
步骤1.5:根据相邻块相似2范数得到超边权重wH,建立超边权重矩阵W;
具体的,由相似2范数得到超边权重矩阵wH
Figure FDA0003805879410000033
具体的,其中c为需要求解的常数,其求解方法为:选择5个计算出的最大的相似二范数,代入式1-15后再将其代入式1-16以求得c,之后由式1-15求得所有的超边权重wH,以W表示权重矩阵;
步骤1.6:建立超图拉普拉斯化矩阵;
具体的,以一个块作为超点,构建出q×q的标准化超图拉普拉斯矩阵△,其中q为筛选出的块个数,即超点个数,此处q×q和后文的q×q中的q都代表的是保存下来的有一一对应关系的块的数量;
Figure FDA0003805879410000041
I为单位矩阵;
Dv为超点的度矩阵,它是由超点的度d(v)为对角线构成的,其中h(v,e)代表超点v和超边e的超图矩阵值,w(e)代表超边e的权重,E为所有超边集合;
Figure FDA0003805879410000042
具体的,De为超边的度矩阵,它是由超边的度d(e)为对角线构成的,其中V代表所有超点集合;
Figure FDA0003805879410000043
具体的,H为超图的关联矩阵,即K-近邻超图矩阵H(v,e),也即上述相似矩阵A(i′,j′);W为上述超边权重矩阵;
步骤1.7:超图学习与聚类,选择拉普拉斯矩阵的全部特征向量,使用K-means方法聚类,圈定活动人员;
具体的,选择拉普拉斯矩阵△的全部特征向量,构建出q×q的特征向量矩阵G;
使用k-means聚类算法将特征向量矩阵G聚类,即为图像中的特定块聚类;
去除同一类块的内部边界,只剩下的外部的内轮廓,即圈定出了人体目标,即活动人员;
通过图像标注的方式将活动人员圈定展示。
2.根据权利要求1所述的基于超图学习的安全帽实时检测方法,其特征在于,所述步骤3中的所述安全帽实现实时检测方法具体包括:
步骤2.1:图像预处理;
从互联网及已有施工现场视频图像中截取安全帽图像以及未佩戴安全帽的人体头部图像,分别为其打标签记为1和-1,未打标签则记为0,图像总数记为Q;
Figure FDA0003805879410000051
具体的,预处理所有图像为统一大小;
步骤2.2:提取图像方向梯度直方图特征HOG;
具体的,分别提取每一幅图像的方向梯度直方图特征HOG,为1×lh的特征向量Hog,其中的单个特征为Hog(1,k),lh为特征向量Hog的长度;
步骤2.3:计算各个图像的特征相似度s;
以单个特征之间的余弦作为特征向量Hog相似度s,任取两个单个特征分别记为Hog1,Hog2,其相似度s12为:
Figure FDA0003805879410000052
步骤2.4:提取前m个特征相似度,建立超图H(v′,e′)=si″j″
具体的,将一个单个特征向量作为一个超点v′,设置超边长度为m,m<Q,对于超点v′,计算出其与其他所有超点的相似度,选择前m个相似程度最好的超点,构建超边e′;则每个超点v′可构建一条超边,由此可得到Q×Q的K-近邻超图矩阵H(v′,e′),H(v′,e′)=si″j″,其中,si″j″指任意两个单个特征Hogi″,Hogj″的相似度;
步骤2.5:将超边权重均设置为1,即wH=1,建立超边权重矩阵W′;
步骤2.6:获得超图拉普拉斯矩阵;
具体的,构建出Q×Q的标准化超图拉普拉斯矩阵△′:
Figure FDA0003805879410000053
其中,I为单位矩阵;
具体的,Dv′为超点的度矩阵,它是由超点的度d(v′)为对角线构成的;其中h(v′,e′)代表超点v′,超边e′的超图矩阵值,E′为所有超边集合;
Figure FDA0003805879410000054
具体的,De′为超边的度矩阵,它是由超边的度d(e′)为对角线构成的,其中V′为所有超点集合;
Figure FDA0003805879410000055
步骤2.7:构建超图分类器;
具体的,构建出超图分类器g′:
Figure FDA0003805879410000061
步骤2.8:解出预测标签矩阵g;
具体的,其中μ∑v′∈V′[g(v′)-y(v′)]2为图结构损失函数,用以消除误差,y(v′)为超点v′的标签(1,0,-1),μ为设置的常数,g表示特征向量矩阵,即预测标签矩阵,它的解为:
g=μ(Δ′+μI)-1y 2-9
其中,g(v′)即为预测的标签,由此得到已经建好的超图安全帽检测模型;
具体的,将运动目标检测圈定中人体头部区域以固定大小的选择框圈定出人体头部图像;
提取其方向梯度直方图特征HOG,并放入已经建好的超图安全帽检测模型,即可得到相应的预测标签,即人体是否佩戴安全帽;
通过文字或图像标注的方式将佩戴安全帽情况展示。
3.根据权利要求2所述的基于超图学习的安全帽实时检测方法,其特征在于,所述步骤5中的所述运动目标跟踪的方法具体包括:
步骤3.1:目标跟踪初始化;
具体的,初始化目标跟踪模型,设置时间间隔m,最大目标跟踪次数T;
步骤3.2:获取运动目标检测圈定过程中圈定出的人体目标,即圈定的运动人体所属块的外围边缘块运动状态为
f0=(L0,U0,C0,z0,a0) 3-1,
设置初始目标追踪次数t=0;
步骤3.3:设置当前目标跟踪次数为
t=t+1 3-2;
步骤3.4:轮廓行为预测;
具体的,由f0计算出运动人体在m时间内的颜色变化与运动速度
Figure FDA0003805879410000062
由该速度计算出运动人体在时间t×m后,可能的运动状态
Figure FDA0003805879410000063
实际目标运动状态
ftm≤f预测 3-5;
步骤3.5:在时间t×m后,在预测的运动状态所属区域内根据目标颜色特征检测目标的当前运动状态;
具体的,若检测到目标,则认为目标追踪成功,记录当前目标运动状态,刷新并重新开始进行目标跟踪,进行所述安全帽实现实时检测;
具体的,若未检测到目标,则认为目标追踪未成功,进入步骤3.6;
步骤3.6,检测当前目标追踪次数t是否小于最大目标追踪次数T;
具体的,若当前目标追踪次数t小于或等于最大目标追踪次数T,则认为目标追踪尚未完成,可以继续尝试追踪,进入步骤3.3;
具体的,若当前目标追踪次数t大于最大目标追踪次数T,则认为目标追踪失败,重新开始所述运动目标检测圈定。
CN202110155611.3A 2021-02-04 2021-02-04 一种基于超图学习的安全帽实时检测方法 Active CN112836644B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110155611.3A CN112836644B (zh) 2021-02-04 2021-02-04 一种基于超图学习的安全帽实时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110155611.3A CN112836644B (zh) 2021-02-04 2021-02-04 一种基于超图学习的安全帽实时检测方法

Publications (2)

Publication Number Publication Date
CN112836644A CN112836644A (zh) 2021-05-25
CN112836644B true CN112836644B (zh) 2022-11-25

Family

ID=75932164

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110155611.3A Active CN112836644B (zh) 2021-02-04 2021-02-04 一种基于超图学习的安全帽实时检测方法

Country Status (1)

Country Link
CN (1) CN112836644B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114120358B (zh) * 2021-11-11 2024-04-26 国网江苏省电力有限公司技能培训中心 一种基于超像素引导深度学习的人员头戴安全帽识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881681A (zh) * 2015-05-22 2015-09-02 浙江大学 基于混合图模型的图像序列类别标注方法
CN111695577A (zh) * 2020-06-12 2020-09-22 哈尔滨理工大学 一种多特征融合的安全帽跟踪算法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103413307A (zh) * 2013-08-02 2013-11-27 北京理工大学 一种基于超图的图像共分割方法
CN104036575B (zh) * 2014-07-01 2016-06-08 江苏省南京市公路管理处公路科学研究所 施工现场安全帽佩戴情况监控方法
CN108288033B (zh) * 2018-01-05 2019-09-24 电子科技大学 一种基于随机蕨融合多特征的安全帽检测方法
CN110766697B (zh) * 2019-10-16 2023-08-04 南京大学 一种界面草图的图形界面控件图像识别的方法和装置
CN110852283A (zh) * 2019-11-14 2020-02-28 南京工程学院 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN111598066A (zh) * 2020-07-24 2020-08-28 之江实验室 一种基于级联预测的安全帽佩戴识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881681A (zh) * 2015-05-22 2015-09-02 浙江大学 基于混合图模型的图像序列类别标注方法
CN111695577A (zh) * 2020-06-12 2020-09-22 哈尔滨理工大学 一种多特征融合的安全帽跟踪算法

Also Published As

Publication number Publication date
CN112836644A (zh) 2021-05-25

Similar Documents

Publication Publication Date Title
Hu et al. Unsupervised video object segmentation using motion saliency-guided spatio-temporal propagation
US20180075300A1 (en) System and method for object re-identification
Benabbas et al. Motion pattern extraction and event detection for automatic visual surveillance
US8306333B2 (en) Method and system for automatic figure segmentation
EP2548174B1 (en) Method and apparatus for trajectory estimation, and method for segmentation
Lu et al. Human action segmentation with hierarchical supervoxel consistency
US20070291984A1 (en) Robust object tracking system
CN111428604A (zh) 面部佩戴口罩识别方法、装置、设备及存储介质
CN103366382A (zh) 一种基于超像素的主动轮廓跟踪方法
Mumtaz et al. Joint motion segmentation and background estimation in dynamic scenes
CN113362341B (zh) 基于超像素结构约束的空地红外目标跟踪数据集标注方法
CN112836644B (zh) 一种基于超图学习的安全帽实时检测方法
Hu et al. Dense crowd counting based on perspective weight model using a fisheye camera
Farhood et al. Counting people based on linear, weighted, and local random forests
Rahul et al. Siamese network for underwater multiple object tracking
Gunduz et al. Facial feature extraction using topological methods
CN112330706A (zh) 矿井人员安全帽分割方法和装置
CN111401222A (zh) 一种面向遮挡人脸的联合多属性信息的特征学习方法
EP3018626B1 (en) Apparatus and method for image segmentation
Dondera et al. Interactive video segmentation using occlusion boundaries and temporally coherent superpixels
Gallego et al. Bayesian foreground segmentation and tracking using pixel-wise background model and region based foreground model
Choudri et al. Robust background model for pixel based people counting using a single uncalibrated camera
Yong et al. Video-based detection of abnormal behavior in the examination room
CN109543590B (zh) 一种基于行为关联度融合特征的视频人体行为识别算法
Xu et al. Towards intelligent crowd behavior understanding through the STFD descriptor exploration

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant