CN114120358B - 一种基于超像素引导深度学习的人员头戴安全帽识别方法 - Google Patents

一种基于超像素引导深度学习的人员头戴安全帽识别方法 Download PDF

Info

Publication number
CN114120358B
CN114120358B CN202111331229.XA CN202111331229A CN114120358B CN 114120358 B CN114120358 B CN 114120358B CN 202111331229 A CN202111331229 A CN 202111331229A CN 114120358 B CN114120358 B CN 114120358B
Authority
CN
China
Prior art keywords
human body
body detection
frame
detection frame
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111331229.XA
Other languages
English (en)
Other versions
CN114120358A (zh
Inventor
任罡
季宁
李世倩
秦雪
刘旻超
胡晓丽
张洁华
孙吕祎
吴旻哲
郭宇杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Skills Training Center Of State Grid Jiangsu Electric Power Co ltd
Original Assignee
Skills Training Center Of State Grid Jiangsu Electric Power Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Skills Training Center Of State Grid Jiangsu Electric Power Co ltd filed Critical Skills Training Center Of State Grid Jiangsu Electric Power Co ltd
Priority to CN202111331229.XA priority Critical patent/CN114120358B/zh
Publication of CN114120358A publication Critical patent/CN114120358A/zh
Application granted granted Critical
Publication of CN114120358B publication Critical patent/CN114120358B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于超像素引导深度学习的人员头戴安全帽识别方法,该方法是利用安全帽的单色特性,将超像素图像分割与预训练人体目标检测器相结合,提取出可能的候选图像区域,并通过结合人体目标检测器的深度网络对候选图像区域进行二次分类以及边框参数预测。由于提取出的候选图像区域的数量远少于整张图像的候选区域,因此对后续的深度网络判别能力的要求大大降低,从而大幅减少了对大量训练样本的需求。而后续的深度网络充分利用预训练人体目标检测器生成的上下文特征,减少了误报和漏报。

Description

一种基于超像素引导深度学习的人员头戴安全帽识别方法
技术领域
本发明涉及一种基于超像素引导深度学习的人员头戴安全帽识别方法,属于视频分析、深度学习领域。
背景技术
安全帽能够有效的防护外来物体对头部的物理伤害以及点击伤害。而判断施工工地、变电站等环境中的人是否头戴安全帽对于维护人员安全有重要的意义。通过人工观察视频来发现人员未戴安全帽的情况需要耗费大量的人力,且观察者容易出现疲劳,导致漏报误报的情况。而通过在安全帽上加装传感器的方式能够自动发现人员未戴安全帽的情况,但此种方式需要额外安装传感器,成本较高不利于大规模推广。
近年来,随着计算机视觉技术特别是基于深度学习的视觉技术的发展,人们开始尝试利用计算机视觉来对视频进行自动分析,发现视频中未戴安全帽的人员,此种方法无需对现有的安全帽、摄像头进行任何改造,也无需接触被检查人员,具有较好的实用性。但现有的安全帽自动分析系统通常采用目标检测算法对安全帽进行检测,需要大量的训练样本。且常规的目标检测算法并未考虑到图像中安全帽周围的上下文特征特别是佩戴安全帽的人的特征,易造成误报和漏报的情况。
发明内容
本发明目的在于解决上述技术的缺陷,提出了一种基于超像素引导深度学习的人员头戴安全帽识别方法,该方法是利用安全帽的单色特性,将超像素图像分割与预训练人体目标检测器相结合,提取出可能的候选图像区域,并通过结合人体目标检测器的深度网络对候选图像区域进行二次分类以及边框参数预测。由于提取出的候选图像区域的数量远少于整张图像的候选区域,因此对后续的深度网络判别能力的要求大大降低,从而大幅减少了对大量训练样本的需求。而后续的深度网络充分利用公开的大规模数据集上训练得到的人体检测器生成的上下文特征,减少了误报和漏报。
本发明为解决上述技术问题采用以下技术方案:
一种基于超像素引导深度学习的安全帽检测方法,具体步骤如下:
步骤1:采集若干包括佩戴安全帽人员和/或未佩戴安全帽人员的样本图像,样本图像中所包含的安全帽采用矩形标注框人工标出,得到标注框集合G=g1,g2,...,gL,其中gl=(gxl,gyl,gwl,ghl),(gxl,gyl)为标注框l的中心坐标,gwl为标注框l的宽度,ghl为标注框l的高度;
步骤2:针对样本图像,利用SLIC超像素算法,得到一个色块的集合C={c1,c2,...,cn},其中ci=(cxi,cyi,cwi,chi),(cxi,cyi)表示色块i的中心坐标,cwi表示色块i的宽度,chi表示色块i的高度,i=1,2,...,n,n是色块数;
步骤3:利用在COCO数据集上训练好的YoloV3网络对样本图像进行处理,得到样本图像中人体检测框集合P={p1,p2,...,pm},其中pj=(pxj,pyj,pwj,phj),(pxj,pyj)表示人体检测框j的中心坐标,wj表示人体检测框j的宽度,hj表示人体检测框j的高度,j=1,2,...,m,m是人体检测框数;
步骤4:对于步骤3中的人体检测框j,在C中查找满足与之距离满足设定条件的色块,将色块的编号以及对应的人体检测框的编号组合后,构成集合D={d1,d2,...dn1},其中dk=(ik,jk),ik表示组合k中色块的编号,jk表示组合k中人体检测框的编号,k=1,2,...,n1,n1是组合数;
步骤5:对D中组合k,以色块ik的中心坐标为中心,取大小/>的图像块,将图像块缩放成大小为224×224×3的特征张量fk;/>表示人体检测框jk的宽度、表示人体检测框jk的高度;
步骤6:计算dk与G中每一个元素的交并比,若交并比大于设定第一阈值则dk对应的样本图像是正样本,得分tk=1,与之匹配的标注框参数记为(gxk,gyk,gwk,ghk),否则认为dk对应的样本图像是负样本,tk=0;其中,(gxk,gyk)为与dk匹配的标注框的中心坐标,gwk为与dk匹配的标注框的宽度,ghk为与dk匹配的标注框的高度;
步骤7:以样本图像及其对应的得分、标注框参数,构建训练集;
步骤8:将YoloV3网络输出的人体检测框的中心坐标与AlexNet网络的倒数第2层4096维特征进行拼接,得到改进的AlexNet神经网络F;
步骤9:将样本图像对应的特征张量依次送入改进的AlexNet神经网络F,F的输出为样本图像对应的得分、标注框参数,计算F的损失函数,采用反向传播方法更新F的权重,完成F的训练;
步骤10:针对待识别图像,采用步骤2至步骤5的方法进行处理,将得到的特征张量依次送入训练完成的F,输出得分sk、与之匹配的标注框的中心坐标(xk,yk)、宽度wk和高度hk
步骤11:若得分高于设定第二阈值,则将该得分及其对应的标注框的中心坐标、宽度、高度组合后,构成集合D1
步骤12:对于待识别图像中的每个人体检测框,如果在D1中有与之匹配的检测结果,则认为该人员佩戴安全帽;否则认为该人员未佩戴安全帽。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:在包含1050张图像的测试样本集上,本发明的安全帽识别的准确率为95%,误报率为1.25%。而采用现有技术Yolo V3网络得到的准确率为91%,误报率为2.2%。本发明采用的技术方案准确率更高,误报率更低。
附图说明
图1为本发明的方法流程图;
图2为本发明中所述的改进后的AlexNet神经网络F的结构图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解的是,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为了更好的解释本发明,以便于理解,下面结合附图,通过具体实施方式,对本发明作详细描述。
本发明所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。本发明所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
如图1所示,本发明一种基于超像素引导深度学习的安全帽检测方法包括以下步骤:
步骤1:对于一张待处理图像I,利用SLIC超像素算法,得到一个色块的集合C={c1,c2,...,cn},其中ci=(cxi,cyi,cwi,chi),(cxi,cyi)表示色块i的中心坐标,cwi表示色块i的宽度,chi表示色块i的高度。
步骤2:利用在COCO数据集上训练好的YoloV3网络对图像I进行处理,得到其中人体检测框集合P={p1,p2,...,pm},其中pj=(pxj,pyj,pwj,phj),(pxj,pyj)表示人体检测框j的中心坐标,wj表示人体检测框j的宽度,hj表示人体检测框j的高度。
步骤3:对于人体检测框j,在C中查找满足与之距离满足设定条件的色块,将色块编号以及人体检测框的编号组合后,构成集合其中dk=(ik,jk),ik表示组合k中色块的编号,jk表示组合k中人体检测框的编号。
步骤4:对D中每一个元素dk=(ik,jk),以色块ik的中心坐标为中心,取大小/>的图像块,采用双线性插值法将图像块缩放成224×224×3的特征张量fk;如果图像I是训练样本则进入步骤5,如果图像I是测试样本则依次进入步骤6、7、8。
步骤5:将步骤4得到的特征张量依次送入改进后的AlexNet神经网络F,计算损失函数,采用反向传播方法更新F的权重,返回步骤1,处理下一个训练样本直到所有训练样本处理完毕。其中F的初始权重由ImageNet数据集训练得到。
步骤6:将步骤4得到的特征张量依次送入利用训练完成的F,输出得分sk、与之匹配的标注框的中心坐标(xk,yk)、宽度wk和高度hk
步骤7:若得分高于0.1,则将该得分及其对应的标注框的中心坐标、宽度、高度组合后,构成集合D1
步骤8:利用非极大值抑制方法去除D1中重复的检测结果,得到集合D2
步骤9:对于每个人体检测框pj=(pxj,pyj,pwj,phj),如果在D2中有与之匹配的安全帽检测结果,则认为该人员头戴安全帽;否则认为该人员没有头戴安全帽。
其中,步骤3所述的设定条件是:(cx,cy)表示色块的中心坐标。
其中,步骤4中,如果图像I是训练样本,其中包含的安全帽预先由人工采用矩形标注框标出,得到标注框集合G=g1,g2,...,gL,其中gl=(gxl,gyl,gwl,ghl),(gxl,gyl)为标注框l的中心坐标,gwl为标注框l的宽度,ghl为标注框l的高度。记tk为图像I是否为正样本的标志,计算dk与G中每一个元素的交并比IOU,若IOU值大于0.5则认为图像I是正样本,即tk=1,与之匹配的标注框参数记为(gxk,gyk,gwk,ghk),否则认为图像I是负样本,即tk=0。
其中,步骤5所述的损失函数计算步骤如下:
步骤S51:将神经网络F的输出向量记为F(fk),按照下面的公式计算分类损失:
Lc=-[tk log(F(fk)1)+(1-tk)log(1-F(fk)1)]
其中F(fk)1为输出向量F(fk)的第1个元素;
步骤S52:按照下面的公式计算检测框回归损失:
其中||1为平滑L1函数,分别为输出向量F(fk)的第2,3,4,5个元素;
步骤S53:按照下面的公式计算人体目标匹配损失:
步骤S54:将步骤S52,S53,S54计算得到的损失函数相加,作为最终的损失函数。
其中,步骤5、6所述的改进过的AlexNet神经网络是将步骤2所述YoloV3网络输出的特征中人体检测框的中心坐标:的特征抽出,与原始的AlexNet的倒数第2层4096维特征拼接,如图2所示,图中conv表示卷积操作,FC表示全连接操作。
本发明还提供一种基于超像素引导深度学习的人员头戴安全帽识别系统,包括:存储器和处理器;所述存储器上存储有计算机程序,当所述计算机程序被所述处理器执行时,实现上述的人员头戴安全帽识别方法。
本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现上述的人员头戴安全帽识别方法的步骤。该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (8)

1.一种基于超像素引导深度学习的人员头戴安全帽识别方法,其特征在于,所述方法包括如下步骤:
步骤1:采集若干包括佩戴安全帽人员和未佩戴安全帽人员的样本图像,样本图像中所包含的安全帽采用矩形标注框人工标出,得到标注框集合G=g1,g2,...,gL,其中gl=(gxl,gyl,gwl,ghl),(gxl,gyl)为标注框l的中心坐标,gwl为标注框l的宽度,ghl为标注框l的高度;
步骤2:针对样本图像,利用SLIC超像素算法,得到一个色块的集合C={c1,c2,...,cn},其中ci=(cxi,cyi,cwi,chi),(cxi,cyi)表示色块i的中心坐标,cwi表示色块i的宽度,chi表示色块i的高度,i=1,2,...,n,n是色块数;
步骤3:利用在COCO数据集上训练好的YoloV3网络对样本图像进行处理,得到样本图像中人体检测框集合P={p1,p2,...,pm},其中pj=(pxj,pyj,pwj,phj),(pxj,pyj)表示人体检测框j的中心坐标,wj表示人体检测框j的宽度,hj表示人体检测框j的高度,j=1,2,...,m,m是人体检测框数;
步骤4:对于步骤3中的人体检测框j,在C中查找满足与之距离满足设定条件的色块,将色块的编号以及对应的人体检测框的编号组合后,构成集合其中dk=(ik,jk),ik表示组合k中色块的编号,jk表示组合k中人体检测框的编号,k=1,2,...,n1,n1是组合数;
步骤5:对D中组合k,以色块ik的中心坐标为中心,取大小/>的图像块,将图像块缩放成大小为224×224×3的特征张量fk;/>表示人体检测框jk的宽度、/>表示人体检测框jk的高度;
步骤6:计算dk与G中每一个元素的交并比,若交并比大于设定第一阈值则dk对应的样本图像是正样本,得分tk=1,与之匹配的标注框参数记为(gxk,gyk,gwk,ghk),否则认为dk对应的样本图像是负样本,tk=0;其中,(gxk,gyk)为与dk匹配的标注框的中心坐标,gwk为与dk匹配的标注框的宽度,ghk为与dk匹配的标注框的高度;
步骤7:以样本图像及其对应的得分、标注框参数,构建训练集;
步骤8:将YoloV3网络输出的人体检测框的中心坐标与AlexNet网络的倒数第2层4096维特征进行拼接,得到改进的AlexNet神经网络F;
步骤9:将样本图像对应的特征张量依次送入改进的AlexNet神经网络F,F的输出为样本图像对应的得分、标注框参数,计算F的损失函数,采用反向传播方法更新F的权重,完成F的训练;
步骤10:针对待识别图像,采用步骤2至步骤5的方法进行处理,将得到的特征张量依次送入训练完成的F,输出得分sk、与之匹配的标注框的中心坐标(xk,yk)、宽度wk和高度hk
步骤11:若得分高于设定第二阈值,则将该得分及其对应的标注框的中心坐标、宽度、高度组合后,构成集合D1
步骤12:对于待识别图像中的每个人体检测框,如果在D1中有与之匹配的检测结果,则认为该人员佩戴安全帽;否则认为该人员未佩戴安全帽;
步骤9中的损失函数为:
Loss=Lc+Lr+Lh
其中,分类损失Lc=-[tklog(F(fk)1)+(1-tk)log(1-F(fk)1)],fk为步骤5中得到的特征张量,F(fk)为F的输出向量,F(fk)1为输出向量F(fk)的第1个元素;回归损失 1为平滑L1函数,/>分别为F(fk)的第2、3、4、5个元素;匹配损失/>(pxjk,pyjk)表示人体检测框jk的中心坐标。
2.根据权利要求1所述方法,其特征在于,步骤3中设定的条件是:(cx,cy)表示色块的中心坐标。
3.根据权利要求1所述的方法,其特征在于,步骤5中采用双线性插值法将图像块缩放成大小为224×224×3的特征张量。
4.根据权利要求1所述的方法,其特征在于,步骤8中还包括利用非极大值抑制方法去除D1中重复的检测结果。
5.根据权利要求1所述的方法,其特征在于,步骤6中设定第一阈值为0.5。
6.根据权利要求1所述的方法,其特征在于,步骤8中设定第二阈值为0.1。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至6中任一所述的方法。
8.一种基于超像素引导深度学习的人员头戴安全帽识别系统,其特征在于,包括:存储器和处理器;所述存储器上存储有计算机程序,当所述计算机程序被所述处理器执行时,实现如权利要求1至6中任一所述的方法。
CN202111331229.XA 2021-11-11 2021-11-11 一种基于超像素引导深度学习的人员头戴安全帽识别方法 Active CN114120358B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111331229.XA CN114120358B (zh) 2021-11-11 2021-11-11 一种基于超像素引导深度学习的人员头戴安全帽识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111331229.XA CN114120358B (zh) 2021-11-11 2021-11-11 一种基于超像素引导深度学习的人员头戴安全帽识别方法

Publications (2)

Publication Number Publication Date
CN114120358A CN114120358A (zh) 2022-03-01
CN114120358B true CN114120358B (zh) 2024-04-26

Family

ID=80378368

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111331229.XA Active CN114120358B (zh) 2021-11-11 2021-11-11 一种基于超像素引导深度学习的人员头戴安全帽识别方法

Country Status (1)

Country Link
CN (1) CN114120358B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263686A (zh) * 2019-06-06 2019-09-20 温州大学 一种基于深度学习的施工工地图像安全帽检测方法
CN110738127A (zh) * 2019-09-19 2020-01-31 福建师范大学福清分校 基于无监督深度学习神经网络算法的安全帽识别方法
WO2020164282A1 (zh) * 2019-02-14 2020-08-20 平安科技(深圳)有限公司 基于yolo的图像目标识别方法、装置、电子设备和存储介质
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN112330706A (zh) * 2020-11-07 2021-02-05 北京工业职业技术学院 矿井人员安全帽分割方法和装置
CN112836644A (zh) * 2021-02-04 2021-05-25 电子科技大学 一种基于超图学习的安全帽实时检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020164282A1 (zh) * 2019-02-14 2020-08-20 平安科技(深圳)有限公司 基于yolo的图像目标识别方法、装置、电子设备和存储介质
CN110263686A (zh) * 2019-06-06 2019-09-20 温州大学 一种基于深度学习的施工工地图像安全帽检测方法
CN110738127A (zh) * 2019-09-19 2020-01-31 福建师范大学福清分校 基于无监督深度学习神经网络算法的安全帽识别方法
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN112330706A (zh) * 2020-11-07 2021-02-05 北京工业职业技术学院 矿井人员安全帽分割方法和装置
CN112836644A (zh) * 2021-02-04 2021-05-25 电子科技大学 一种基于超图学习的安全帽实时检测方法

Also Published As

Publication number Publication date
CN114120358A (zh) 2022-03-01

Similar Documents

Publication Publication Date Title
CN112801018B (zh) 一种跨场景目标自动识别与追踪方法及应用
CN109543627B (zh) 一种判断驾驶行为类别的方法、装置、及计算机设备
CN112287816B (zh) 一种基于深度学习的危险工作区事故自动检测报警方法
CN112861635B (zh) 一种基于深度学习的火灾及烟雾实时检测方法
Salimi et al. Visual-based trash detection and classification system for smart trash bin robot
CN112801008B (zh) 行人重识别方法、装置、电子设备及可读存储介质
CN109657592A (zh) 一种智能挖掘机的人脸识别系统及方法
CN112016464A (zh) 检测人脸遮挡的方法、装置、电子设备及存储介质
CN111339883A (zh) 复杂场景下基于人工智能的变电站内异常行为识别与检测方法
CN111626123A (zh) 视频数据处理方法、装置、计算机设备及存储介质
CN111209832B (zh) 变电站巡检机器人辅助避障训练方法、设备及介质
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN111914778A (zh) 一种基于弱监督学习的视频行为定位方法
CN110390308B (zh) 一种基于时空对抗生成网络的视频行为识别方法
CN112101195B (zh) 人群密度预估方法、装置、计算机设备和存储介质
CN112668462B (zh) 车损检测模型训练、车损检测方法、装置、设备及介质
CN114241370A (zh) 基于数字孪生变电站的入侵识别方法、装置和计算机设备
CN114998830A (zh) 一种变电站人员安全帽佩戴检测方法及系统
CN112926616B (zh) 图像匹配方法和装置、电子设备、计算机可读存储介质
CN116052082A (zh) 一种基于深度学习算法的配电站房异常检测方法及装置
CN111882525A (zh) 一种基于lbp水印特征和细粒度识别的图像翻拍检测方法
CN114120358B (zh) 一种基于超像素引导深度学习的人员头戴安全帽识别方法
CN117351409A (zh) 混凝土坝面作业风险智能识别方法
CN115995097A (zh) 一种基于深度学习的安全头盔佩戴标准判断方法
CN116091596A (zh) 一种自下而上的多人2d人体姿态估计方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant