CN110119686A - 一种基于卷积神经网络的安全帽实时检测方法 - Google Patents

一种基于卷积神经网络的安全帽实时检测方法 Download PDF

Info

Publication number
CN110119686A
CN110119686A CN201910307891.8A CN201910307891A CN110119686A CN 110119686 A CN110119686 A CN 110119686A CN 201910307891 A CN201910307891 A CN 201910307891A CN 110119686 A CN110119686 A CN 110119686A
Authority
CN
China
Prior art keywords
network
denoted
standard
model
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910307891.8A
Other languages
English (en)
Other versions
CN110119686B (zh
Inventor
韦顺军
苏浩
周泽南
闫敏
王琛
张晓玲
师君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201910307891.8A priority Critical patent/CN110119686B/zh
Publication of CN110119686A publication Critical patent/CN110119686A/zh
Application granted granted Critical
Publication of CN110119686B publication Critical patent/CN110119686B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于卷积神经网络的安全帽实时检测方法,它采用多线程提取I帧的方式对视频解码;通过YOLOv3卷积神经网络算法实现端到端的安全帽和人脸实时检测;提出了基于安全帽和人脸实时检测的结果判断是否佩戴安全帽的方法;对于未佩戴安全帽的人通过FaceNet算法实现了人脸识别来对他们进行智能语音提醒;采用了通道剪枝和量化的方法对模型进行了压缩,更加利于模型在SoC系统上的集成。本发明结合了YOLOv3和FaceNet的各自优势,解决了视频流中实时佩戴安全帽的精确端到端的检测问题,实现了在视频流中对安全帽的佩戴实时检测,能够实时监督工作人员是否按照规定佩戴安全帽来降低安全风险。

Description

一种基于卷积神经网络的安全帽实时检测方法
技术领域
本发明属于深度学习领域,它涉及计算机视觉领域及图像处理领域。
背景技术
在生产经营单位,由于工作人员的不安全行为引发的安全事故时有发生。不安全行为是指生产经营单位从业人员在进行生产操作时进行的违反安全生产客观规律,且有可能导致事故的行为,它们是造成大量事故的直接原因。
通过对往年全国安全生产事故进行分析,有90%以上的安全事故是由工作人员的不安全行为或违规行为导致的,如违章操作、失误操作、疲劳工作、未正确穿戴劳保用品。检测工作人员是否按照规定佩戴安全帽,能够有效的降低因高空坠物、高空坠落等安全事故造成的伤害。安全帽在此类事故中对降低安全风险、保障工作人员生命安全有着卓越效果。
随着监控摄像头的广泛使用,在各大生产经营单位采集了大量工作人员佩戴安全帽的数据,包含了不同的光照强度,不同角度,不同大小的安全帽图像数据信息,为我们的发明提供了丰富的实验样本。
近年来随着深度学习的高速发展,目标检测算法不断向着高速、高性能的方向发展。特别是深度卷积神经网络在计算机视觉上有着优秀的表现。目前比较流行的算法主要可以分为两类,一类是基于候选区域的R-CNN系算法(R-CNN,Fast R-CNN,Faster R-CNN),它们是分为两步检测的,需要先使用启发式方法(选择性检索selective search)或CNN网络(RPN)产生候选区域,然后再在候选区域上做分类与回归;另一类是YOLO,SSD这类一步检测算法,YOLO仅仅使用一个CNN网络就能直接预测不同目标的类别与位置,详见文献“LiuL,Ouyang W,Wang X,et al.Deep Learning for Generic Object Detection:A Survey[J].2018”。
R-CNN系列算法检测目标时首先在图像中提取几千个候选框,每一个候选框都要输入神经网络进行判断,计算时间较长,无法满足实时性的要求。YOLO的第一个版本YOLOv1算法,其性能是差于后来的SSD算法的,但是YOLO后来也继续进行了改进,产生了YOLO v2算法加入了细粒度特征,批量规范化等技术在识别种类、精度、速度和定位准确性能方面都有了很大的提升。YOLOv3算法进一步引入了残差网络结构和FPN网络结构,YOLOv3能够更好的检测图像中的小目标,提升定位准确度的同时,在速度上再次进行了提升,一般来说YOLOv3的检测速度时R-CNN快1000倍,比Fast R-CNN快100倍,而检测精度和定位的准确性只有微小的差距。因此,可以结合深度学习的卷积神经网络模型优势,将卷积神经网络应用于安全帽检测场景中,来达到高精度实时检测的能力。
发明内容
本发明提出了一种基于卷积神经网络的安全帽实时检测方法。该方法采用了多线程提取视频帧的方式对视频解码;通过YOLOv3卷积神经网络算法实现端到端的安全帽和人脸实时检测;提出了基于安全帽和人脸实时检测的结果判断是否佩戴安全帽的方法;对于未佩戴安全帽的人通过FaceNet算法实现了人脸识别来对他们进行智能语音提醒;采用了通道剪枝和量化的方法对模型进行了压缩,更加利于模型在硬件系统上的集成。本发明创造性地结合了YOLOv3和FaceNet的各自优势,解决了视频流中实时佩戴安全帽的精确端到端的检测问题。
为了方便描述本发明的内容,首先对本文中的术语做以下定义:
定义1:标准数据增强技术
标准数据增强技术通过对数据集图像进行翻转、旋转、缩放、平移、增加高斯噪声、对比度变换、颜色变换等操作来扩充数据集。数据增强主要是为了减少网络的过拟合现象,通过对训练图片进行变换可以得到泛化能力更强的网络,更好的适应应用场景,详见网站“https://medium.com/nanonets/how-to-use-deep-learning-when-you-have-limited-data-part-2-data-augmentation-c26971dc8ced”。
定义2:标准YOLOv3网络模型和标准的YOLOv3训练技术
YOLO网络将目标检测问题转化为回归问题,合并分类和定位任务到一个步骤,直接预测物体的位置及类别,检测速度可以满足实时分析的要求。YOLOv3包含了新的特征提取网络Darknet-53,以及三种尺度的YOLO层,也就是预测层。通过在三种尺度上进行预测的方法,有效的增强了对不同大小物体及被遮挡物体的检测效果,并引入跃层连接以强化收敛效果,同时采用随机多尺度训练的方式增强了鲁棒性,详见参考文献“Redmon J,FarhadiA.Yolov3:An incremental improvement[J].arXiv preprint arXiv:1804.02767,2018”。
定义3:标准人脸识别网络FaceNet和标准FaceNet网络模型训练技术
FaceNet并没有用传统的softmax的方式去进行分类学习,然后抽取其中某一层作为特征,而是直接进行端对端学习一个从图像到欧式空间的编码方法,然后基于这个编码再做人脸识别、人脸验证和人脸聚类等,详见文献“Schroff F,Kalenichenko D,PhilbinJ.Facenet:A unified embedding for face recognition and clustering[C]//Proceedings of the IEEE conference on computer vision and patternrecognition.2015:815-823”。
定义4:标准的小批量梯度下降法
小批量梯度下降法综合了批量梯度下降法和随机梯度下降法,在每次更新速度和更新次数中间取得一个平衡,相对于随机梯度下降,小批量梯度下降降低了收敛波动性,即降低了参数更新的方差,使得更新更加稳定。相对于批量梯度下降,其提高了每次学习的速度。并且其不用担心内存瓶颈从而可以利用矩阵运算进行高效计算,详见文献“Ruder S.Anoverview of gradient descent optimization algorithms[J].arXiv preprint arXiv:1609.04747,2016”。
定义5:标准的模型剪枝技术
由于需要在GPU上运算,这里我们主要考虑在通道维度的剪枝。假设卷积的参数是具有稀疏性的,我们剪掉其中一些不重要的参数,网络仍然可以达到之前的精度。
剪枝过程分为两步:首先,我们会基于LASSO回归来找到每一层中最具代表性的通道,然后将没用的通道去掉,再使用平方差损失微调剪枝后的网络来最小化重构误差。这样的操作会对每一层分别进行,经过几轮迭代后便可以达到不错的压缩效果,同时还可以保证精度不会损失太多;详见文献“He Y,Zhang X,Sun J.Channel pruning foraccelerating very deep neural networks[C]//Proceedings of the IEEEInternational Conference on Computer Vision.2017:1389-1397”。
定义6:标准的模型量化技术
标准的模型量化技术将模型参数的float32数据类型转换为int8的数据形式进行推断,有助于提高模型的运算速度,详见文献“S.Migacz,「8-bit Inference withTensorRT.」[Online].Available:http://on-demand.gputechconf.com/gtc/2017/ presentation/s7310-8-bit-inference-with-tensorrt.pdf”。
定义7:标准的动态调节方法
本发明中标准的动态调节函数是指对阈值α进行分区间赋值函数,其函数形式如下:
其中α为动态判别阈值,IL,IM,IS为图像判别参数,β为检测结果边界框的面积与原图像面积的比值。
定义8:标准通道数加倍方法
标准通道数加倍就是将特征图通过当前卷积核数量的两倍计算后得到的结果,详见文献“K.He,X.Zhang,S.Ren,and J.Sun.Deep residual learning for imagerecognition.In Proceedings of the IEEE conference on computer vision andpattern recognition,pages 770–778,2016”。
定义9:标准GoogLeNet网络
GoogLeNet网络中1╳1卷积在相同尺寸的感受野中叠加更多的卷积,能提取到更丰富的特征;使用1╳1卷积可以进行卷积核通道数的降维和升维,实现跨通道的交互和信息整合,可以降低计算复杂度,详见文献“C.Szegedy,W.Liu,Y.Jia,P.Sermanet,S.Reed,D.Anguelov,D.Erhan,V.Vanhoucke,and A.Rabinovich.Going deeper withconvolutions.In CVPR,2015”。
定义10:标准批量归一化方法
标准批量归一化方法(BN,Batch Normalization)具有快速训练收敛的特性和具有提高网络泛化能力的特性,详见文献“Ioffe S,Szegedy C.Batch normalization:accelerating deep network training by reducing internal covariate shift[C]International Conference on International Conference on MachineLearning.JMLR.org,2015”。
本发明提供了一种基于卷积神经网络的安全帽实时检测方法,包括以下步骤:
步骤1、待检测视频图像进行初始化和预处理:
对视频图像进行预处理,包括:初始化待检测的视频图像,记为X,X的维数记为N0×N′0,X的数量记为K;将待检测视频图像X中的安全帽和人脸进行人工位置标注,目标位置记为Pk j=(xk j,yk j,wk j,hk j),k=1,2,…,K,j=1,2,…,N,其中(xk j,yk j)分别记为第k张图像中第j个目标的中心坐标,(wk j,hk j)分别记为第k张图像中第j个目标的宽和高,N为第k张图像中目标的数量;采用标准数据增强技术对待检测图像X进行数据增强得到数据增强后的视频图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照K1:K2比例随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2
对人脸识别库进行预处理,包括:初始化待识别的人脸图像,记为F,F的维数记为N1×N1;采用标准数据增强技术对待识别人脸图像F进行数据增强得到数据增强后的人脸识别库,记为ΩF,ΩF集合中图像总数量记为
步骤2、初始化和构建卷积神经检测网络YOLOv3和人脸识别网络FaceNet:
按照标准YOLOv3网络模型构造方法,构建和初始化标准的卷积神经检测网络模型,记为WC,其中网络WC由特征提取网络和yolo检测网络组成,特征提取网络记为WFE,yolo检测网络记为WYD;初始化网络WFE的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络WFE的残差块层数,记为其中表示第次下采样后的残差块层数;
采用传统的标准通道数加倍方法,将网络WFE中池化层后卷积层的通道数加倍记为将网络经过s倍上采样的结果记为WYD s,s=20,21,22,…,2p,其中p为上采样次数;将上采样后结果WYD s按照标准的特征融合策略构造p+1层特征金字塔,记为
采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为
采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为
使用标准k-means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络WC的先验锚点框,其中聚类中心记为(xii c,yii c),ii=1,2,…,M,其中(xii c,yii c)分别为第ii个聚类中心的坐标;初始化后的YOLOv3检测网络记为
按照标准FaceNet网络模型构造方法,构建和初始化标准的人脸识别网络模型,记为WR
步骤3、训练和调整检测网络YOLOv3和人脸识别网络FaceNet:
初始化训练卷积神经检测网络的图像批量处理大小,记为BS;初始化学习率,记为LR;初始化权重衰减率和动量,分别记为WDR,MO;将标准的YOLOv3网络在COCO检测数据集上训练的权重参数作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold;采用标准的卷积神经检测网络YOLOv3训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经检测网络模型采用标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行更新,得到新的网络参数,记为Wnew
采用传统的标准检测网络YOLOv3中损失函数计算方法,计算的损失函数值,记为Lossold;采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法,继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度N0×N′0与α相乘,得到网络的输入图像尺度;将训练网络得到的最终模型和参数记为
按照标准FaceNet网络模型训练技术,将步骤1中人脸识别库ΩF的图片小批量依次通入步骤2得到的人脸识别网络模型WR,采用标准的小批量梯度下降法,对人脸识别网络模型WR的网络参数进行更新,得到新的网络参数,记为WR new;采用标准FaceNet网络模型中损失函数计算方法,计算WR的损失函数,记为J(θ01,…,θn),其中θi,i=0,1,…,n为第i层权重系数,如果所有的θi梯度下降的距离都小于ε,则停止训练模型WR,输出当前的网络参数WR new,否则继续训练模型WR,采用标准FaceNet网络训练方法,更新网络参数WR new;将训练网络WR得到的最终模型和参数记为
步骤4、构建和初始化视频图像佩戴安全帽检测模型:
初始化动态判别阈值,记为α;构建视频图像佩戴安全帽检测模型,采用传统标准的检测网络YOLOv3方法,将步骤1中待检测视频图像X送入步骤3得到的检测网络进行检测,得到的检测结果分别记为Rhat和Rface,其中Rhat=[(xk,yk,wk,hk),C],(xk,yk,wk,hk)为检测结果中目标边界框的中心坐标和宽高,C为检测结果中目标的类别;根据检测结果Rhat,采用公式wk×hk计算边界框的面积,记为Sbbox;采用公式Sbbox/N0×N′0,计算Sbbox与步骤1中X的维数N0×N′0的比值,记为β;初始化IL,IM,IS图像判别参数,采用标准的动态调节方法,对β与IL,IM,IS参数进行比较,更新动态判别阈值α;
通过比较公式||Rhat-Rface||与α的大小判别工人是否佩戴安全帽:如果||Rhat-Rface||≤α,则表示工人佩戴安全帽,否则根据Rface输出人脸图像,记为Iface;将Iface送入步骤3得到的人脸识别网络进行识别,得到的识别结果记为Rwho;将最终得到的视频图像佩戴安全帽检测模型记为MD;采用标准的模型剪枝技术,对模型MD进行通道维度的剪枝,得到的压缩模型记为采用标准的模型量化技术,对模型中的参数float32数据类型转换为int8的数据形式,经过量化的模型记为步骤5、对待检测视频流进行实时佩戴安全帽检测:
将摄像头实时采集的视频流初始化为待检测视频流,记为V;采用传统标准的多线程的方式对视频流V按照FFmpeg标准解码,解码的结果记为其中vl表示第l个线程负责解码的I帧(Intra-coded frame)的结果;将多线程解码的结果按照线程编号从小到大组成一个批次,记为按照编号顺序依次通入到步骤4得到的视频图像佩戴安全帽检测模型中,得到输出结果Rwho;Rwho即为最终的基于卷积神经网络的安全帽实时检测方法的结果。
本发明的创新点在于采用了多线程处理视频流的方式,通过YOLOv3算法实现端到端的安全帽和人脸实时检测;根据安全帽和人脸实时检测的结果,提出了动态调节函数来判断是否佩戴安全帽;增加了对于未佩戴安全帽的人通过FaceNet人脸识别算法的语音智能提醒功能;本发明实现了在视频流中对安全帽的佩戴实时检测,能够实时监督工作人员是否按照规定佩戴安全帽来降低安全风险。
本发明的优点在于实现简单、易于集成在SoC系统、检测效率高、检测精度高、检测速度快并满足实时检测、智能语音提醒、适用性好,能有效解决视频流中实时佩戴安全帽的检测问题。
附图说明
图1为本发明所提供方法的处理流程示意框图;
具体实施方式
本发明主要采用实验和实测的方法进行验证,所有步骤、结论都在tensorflow1.12.0上验证正确。具体实施步骤如下:
步骤1、待检测视频图像进行初始化和预处理:
视频图像预处理,包括:初始化待检测的视频图像,记为X,X的维数记N0×N0′=1920×1080,X的数量记为K=18800;将待检测视频图像X中的安全帽和人脸进行人工位置标注,目标位置记为Pk j=(xk j,yk j,wk j,hk j),k=1,2,…,18800,j=1,2,…,112800,其中(xk j,yk j)分别记为第k张图像中第j个目标的中心坐标,(wk j,hk j)分别记为第k张图像中第j个目标的宽和高,N为第k张图像中目标的数量;采用标准数据增强技术对待检测图像X进行数据增强得到数据增强后的视频图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2=8:2;对数据集Ω中的图像按照8:2比例随机划分训练集和测试集,得到的训练集记为Ω8,得到的测试集记为Ω2
人脸识别库预处理,包括:初始化待识别的人脸图像,记为F,F的维数记为N1×N1=250×250;采用标准数据增强技术对待识别人脸图像F进行数据增强得到数据增强后的人脸识别库,记为ΩF,ΩF集合中图像总数量记为
步骤2、初始化和构建卷积神经检测网络YOLOv3和人脸识别网络FaceNet:
按照标准YOLOv3网络模型构造方法,构建和初始化标准的卷积神经检测网络模型,记为WC,其中网络WC由特征提取网络和yolo检测网络组成,特征提取网络记为WFE,yolo检测网络记为WYD;初始化网络WFE的卷积层数,记为Nc=53,其中卷积核大小分别为c1×c1=1×1和c3×c3=3×3;初始化网络WFE的残差块层数,分别为Rc 1=1,Rc 2=2,Rc 3=8,Rc 4=8,Rc 5=4,其中表示第次下采样后的残差块层数;
采用传统的标准通道数加倍方法,将网络WFE中池化层后卷积层的通道数加倍记为将网络经过s倍上采样的结果记为WYD s,s=20,21,22,其中p为上采样次数;将上采样后结果WYD s按照标准的特征融合策略构造p+1=3层特征金字塔,记为
采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为c3×c3=3×3之间添加大小为c1×c1=1×1的卷积核,记为
采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为
使用标准k-means聚类方法对步骤1得到的训练集Ω8进行聚类,得到M=9个聚类中心作为网络WC的先验锚点框,其中聚类中心记为(xii c,yii c),ii=1,2,…,9,其中(xii c,yii c)分别为第ii个聚类中心的坐标;初始化后的YOLOv3检测网络记为
按照标准FaceNet网络模型构造方法,构建和初始化标准的人脸识别网络模型,记为WR;步骤3、训练和调整检测网络YOLOv3和人脸识别网络FaceNet:
初始化训练卷积神经检测网络的图像批量处理大小,记为BS=64;初始化学习率,记为LR=0.01;初始化权重衰减率和动量,分别记为WDR=0.0005,MO=0.9;将标准的YOLOv3网络在COCO检测数据集上训练的权重参数作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold;采用标准的卷积神经检测网络YOLOv3训练技术,将步骤1中训练集Ω8的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经检测网络模型采用标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行更新,得到新的网络参数,记为Wnew
采用传统的标准检测网络YOLOv3中损失函数计算方法,计算的损失函数值,记为Lossold;采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集Ω2对Wnew进行测试,得到测试集Ω2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p=10个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度N0×N′0与α相乘,得到网络的输入图像尺度;将训练网络得到的最终模型和参数记为
按照标准FaceNet网络模型训练技术,将步骤1中人脸识别库ΩF的图片小批量依次通入步骤2得到的人脸识别网络模型WR,采用标准的小批量梯度下降法,对人脸识别网络模型WR的网络参数进行更新,得到新的网络参数,记为WR new;采用标准FaceNet网络模型中损失函数计算方法,计算WR的损失函数,记为J(θ01,…,θn),其中θi,i=0,1,…,n为第i层权重系数如果所有的θi梯度下降的距离都小于ε,则停止训练模型WR,输出当前的网络参数WR new,否则继续训练模型WR,采用标准FaceNet网络训练方法,更新网络参数WR new;将训练网络WR得到的最终模型和参数记为步骤4、构建和初始化视频图像佩戴安全帽检测模型:
初始化动态判别阈值,记为α=0.5;构建视频图像佩戴安全帽检测模型,采用传统标准的检测网络YOLOv3方法,将步骤1中待检测视频图像X送入步骤3得到的检测网络进行检测,得到的检测结果分别记为Rhat和Rface,其中Rhat=[(xk,yk,wk,hk),C],(xk,yk,wk,hk)为检测结果中目标边界框的中心坐标和宽高,C为检测结果中目标的类别;根据检测结果Rhat,采用公式wk×hk计算边界框的面积,记为Sbbox;采用公式Sbbox/N0×N′0,计算Sbbox与步骤1中X的维数N0×N′0的比值,记为β;初始化图像判别参数为IL=0.75,IM=0.5,IS=0.25,,采用标准的动态调节方法,对β与IL,IM,IS参数进行比较,更新动态判别阈值α;
通过比较公式||Rhat-Rface||与α的大小判别工人是否佩戴安全帽:如果||Rhat-Rface||≤α,则表示工人佩戴安全帽,否则根据Rface输出人脸图像,记为Iface;将Iface送入步骤3得到的人脸识别网络进行识别,得到的识别结果记为Rwho;将最终得到的视频图像佩戴安全帽检测模型记为MD;采用标准的模型剪枝技术,对模型MD进行通道维度的剪枝,得到的压缩模型记为采用标准的模型量化技术,对模型中的参数float32数据类型转换为int8的数据形式,经过量化的模型记为
步骤5、对待检测视频流进行实时佩戴安全帽检测:
将摄像头实时采集的视频流初始化为待检测视频流,记为V;采用传统标准的多线程的方式对视频流V按照FFmpeg标准解码,解码的结果记为其中vl表示第l个线程负责解码的I帧(Intra-coded frame)的结果;将多线程解码的结果按照线程编号从小到大组成一个批次,记为按照编号顺序依次通入到步骤4得到的视频图像佩戴安全帽检测模型中,得到输出结果Rwho;Rwho即为最终的基于卷积神经网络的安全帽实时检测方法的结果。

Claims (1)

1.一种基于卷积神经网络的安全帽实时检测方法,其特征是它包括以下步骤:
步骤1、待检测视频图像进行初始化和预处理:
对视频图像进行预处理,包括:初始化待检测的视频图像,记为X,X的维数记为N0×N′0,X的数量记为K;将待检测视频图像X中的安全帽和人脸进行人工位置标注,目标位置记为Pk j=(xk j,ykj,wk j,hk j),k=1,2,…,K,j=1,2,…,N,其中(xk j,yk j)分别记为第k张图像中第j个目标的中心坐标,(wk j,hk j)分别记为第k张图像中第j个目标的宽和高,N为第k张图像中目标的数量;采用标准数据增强技术对待检测图像X进行数据增强得到数据增强后的视频图像检测数据集,记为Ω,Ω集合中图像总数量记为NΩ;初始化数据集Ω中训练集和测试集图像数量的比例,记为K1:K2;对数据集Ω中的图像按照K1:K2比例随机划分训练集和测试集,得到的训练集记为ΩK1,得到的测试集记为ΩK2
对人脸识别库进行预处理,包括:初始化待识别的人脸图像,记为F,F的维数记为N1×N1;采用标准数据增强技术对待识别人脸图像F进行数据增强得到数据增强后的人脸识别库,记为ΩF,ΩF集合中图像总数量记为
步骤2、初始化和构建卷积神经检测网络YOLOv3和人脸识别网络FaceNet:
按照标准YOLOv3网络模型构造方法,构建和初始化标准的卷积神经检测网络模型,记为WC,其中网络WC由特征提取网络和yolo检测网络组成,特征提取网络记为WFE,yolo检测网络记为WYD;初始化网络WFE的卷积层数,记为Nc,其中卷积核大小为ci×ci,i=1,3,…,n;初始化网络WFE的残差块层数,记为其中表示第次下采样后的残差块层数;
采用传统的标准通道数加倍方法,将网络WFE中池化层后卷积层的通道数加倍记为将网络经过s倍上采样的结果记为WYD s,s=20,21,22,…,2p,其中p为上采样次数;将上采样后结果WYD s按照标准的特征融合策略构造p+1层特征金字塔,记为
采用传统的标准GoogLeNet网络构造方法,将网络中卷积核大小为ci×ci,i=3,…,n之间添加大小为c1×c1的卷积核,记为
采用传统的标准批量归一化方法,对网络中每一个卷积层后添加批量归一化层,记为
使用标准k-means聚类方法对步骤1得到的训练集ΩK1进行聚类,得到M个聚类中心作为网络WC的先验锚点框,其中聚类中心记为(xii c,yii c),ii=1,2,…,M,其中(xii c,yii c)分别为第ii个聚类中心的坐标;初始化后的YOLOv3检测网络记为
按照标准FaceNet网络模型构造方法,构建和初始化标准的人脸识别网络模型,记为WR
步骤3、训练和调整检测网络YOLOv3和人脸识别网络FaceNet:
初始化训练卷积神经检测网络的图像批量处理大小,记为BS;初始化学习率,记为LR;初始化权重衰减率和动量,分别记为WDR,MO;将标准的YOLOv3网络在COCO检测数据集上训练的权重参数作为检测网络的初始化参数,得到初始化后的卷积神经检测网络Wold;采用标准的卷积神经检测网络YOLOv3训练技术,将步骤1中训练集ΩK1的图片顺序随机打乱后小批量依次通入步骤2得到的卷积神经检测网络模型采用标准的小批量梯度下降法,对卷积神经检测网络Wold的网络参数进行更新,得到新的网络参数,记为Wnew
采用传统的标准检测网络YOLOv3中损失函数计算方法,计算的损失函数值,记为Lossold;采用传统的检测网络Darknet训练技术方法,利用步骤1中测试集ΩK2对Wnew进行测试,得到测试集ΩK2在Wnew上的总损失值,记为Lossnew;若Lossnew≤Lossold,则按照传统的检测网络Darknet训练方法继续训练模型并计算网络参数Wnew和损失值Lossnew;若Lossnew≥Lossold,则停止训练模型输出当前模型的网络参数Wnew,该次网络参数Wnew即为训练得到的卷积神经检测网络的最终网络参数;采用传统检测网络Darknet训练技术中的多尺度训练策略,将网络每经过p个批量训练后,随机选择图像变化尺度因子α=[α12345],将步骤1中图像尺度N0×N′0与α相乘,得到网络的输入图像尺度;将训练网络得到的最终模型和参数记为
按照标准FaceNet网络模型训练技术,将步骤1中人脸识别库ΩF的图片小批量依次通入步骤2得到的人脸识别网络模型WR,采用标准的小批量梯度下降法,对人脸识别网络模型WR的网络参数进行更新,得到新的网络参数,记为WR new;采用标准FaceNet网络模型中损失函数计算方法,计算WR的损失函数,记为J(θ01,...,θn),其中θi,i=0,1,…,n为第i层权重系数,如果所有的θi梯度下降的距离都小于ε,则停止训练模型WR,输出当前的网络参数WR new,否则继续训练模型WR,采用标准FaceNet网络训练方法,更新网络参数WR new;将训练网络WR得到的最终模型和参数记为
步骤4、构建和初始化视频图像佩戴安全帽检测模型:
初始化动态判别阈值,记为α;构建视频图像佩戴安全帽检测模型,采用传统标准的检测网络YOLOv3方法,将步骤1中待检测视频图像X送入步骤3得到的检测网络进行检测,得到的检测结果分别记为Rhat和Rface,其中Rhat=[(xk,yk,wk,hk),C],(xk,yk,wk,hk)为检测结果中目标边界框的中心坐标和宽高,C为检测结果中目标的类别;根据检测结果Rhat,采用公式wk×hk计算边界框的面积,记为Sbbox;采用公式Sbbox/N0×N′0,计算Sbbox与步骤1中X的维数N0×N′0的比值,记为β;初始化IL,IM,IS图像判别参数,采用标准的动态调节方法,对β与IL,IM,IS参数进行比较,更新动态判别阈值α;
通过比较公式||Rhat-Rface||与α的大小判别工人是否佩戴安全帽:如果||Rhat-Rface||≤α,则表示工人佩戴安全帽,否则根据Rface输出人脸图像,记为Iface;将Iface送入步骤3得到的人脸识别网络进行识别,得到的识别结果记为Rwho;将最终得到的视频图像佩戴安全帽检测模型记为MD;采用标准的模型剪枝技术,对模型MD进行通道维度的剪枝,得到的压缩模型记为采用标准的模型量化技术,对模型中的参数float32数据类型转换为int8的数据形式,经过量化的模型记为
步骤5、对待检测视频流进行实时佩戴安全帽检测:
将摄像头实时采集的视频流初始化为待检测视频流,记为V;采用传统标准的多线程的方式对视频流V按照FFmpeg标准解码,解码的结果记为其中vl表示第l个线程负责解码的I帧(Intra-coded frame)的结果;将多线程解码的结果按照线程编号从小到大组成一个批次,记为按照编号顺序依次通入到步骤4得到的视频图像佩戴安全帽检测模型中,得到输出结果Rwho;Rwho即为最终的基于卷积神经网络的安全帽实时检测方法的结果。
CN201910307891.8A 2019-04-17 2019-04-17 一种基于卷积神经网络的安全帽实时检测方法 Expired - Fee Related CN110119686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910307891.8A CN110119686B (zh) 2019-04-17 2019-04-17 一种基于卷积神经网络的安全帽实时检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910307891.8A CN110119686B (zh) 2019-04-17 2019-04-17 一种基于卷积神经网络的安全帽实时检测方法

Publications (2)

Publication Number Publication Date
CN110119686A true CN110119686A (zh) 2019-08-13
CN110119686B CN110119686B (zh) 2020-09-25

Family

ID=67521077

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910307891.8A Expired - Fee Related CN110119686B (zh) 2019-04-17 2019-04-17 一种基于卷积神经网络的安全帽实时检测方法

Country Status (1)

Country Link
CN (1) CN110119686B (zh)

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110378903A (zh) * 2019-09-16 2019-10-25 广东电网有限责任公司佛山供电局 一种输电线路反事故措施智能统计方法
CN110569827A (zh) * 2019-09-28 2019-12-13 华南理工大学 一种基于卷积神经网络的人脸识别提醒系统
CN110599458A (zh) * 2019-08-14 2019-12-20 深圳市勘察研究院有限公司 基于卷积神经网络的地下管网检测评估云系统
CN110674772A (zh) * 2019-09-29 2020-01-10 国家电网有限公司技术学院分公司 电力作业现场智能安全管控辅助系统及方法
CN110852183A (zh) * 2019-10-21 2020-02-28 广州大学 一种未佩戴安全帽人员识别方法、系统、装置和存储介质
CN110969107A (zh) * 2019-11-25 2020-04-07 上海交通大学 基于网络模型鸟类种群识别分析方法及系统
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111079820A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 一种基于图像识别的铁路货车防火板故障识别方法
CN111160440A (zh) * 2019-12-24 2020-05-15 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN111222420A (zh) * 2019-12-24 2020-06-02 重庆市通信产业服务有限公司 一种基于ftp协议的低带宽要求的安全帽识别方法
CN111241959A (zh) * 2020-01-06 2020-06-05 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法
CN111291637A (zh) * 2020-01-19 2020-06-16 中国科学院上海微系统与信息技术研究所 一种基于卷积神经网络的人脸检测方法、装置及设备
CN111353393A (zh) * 2020-02-19 2020-06-30 桂林电子科技大学 一种基于神经网络的犬只检测与预警系统
CN111476083A (zh) * 2020-02-07 2020-07-31 山东理工大学 一种电力员工安全帽佩戴自动识别方法
CN111488804A (zh) * 2020-03-19 2020-08-04 山西大学 基于深度学习的劳保用品佩戴情况检测和身份识别的方法
CN111488989A (zh) * 2020-04-16 2020-08-04 济南浪潮高新科技投资发展有限公司 一种在手机端实现轻量级目标检测的方法及模型
CN111507248A (zh) * 2020-04-16 2020-08-07 成都东方天呈智能科技有限公司 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN111523432A (zh) * 2020-04-16 2020-08-11 重庆大学 一种智慧工地安全帽检测系统及其方法
CN111582068A (zh) * 2020-04-22 2020-08-25 北京交通大学 人员口罩佩戴状态检测方法
CN111597985A (zh) * 2020-05-15 2020-08-28 全程(上海)智能科技有限公司 设备佩戴的动态识别方法、装置和电子设备
CN111598040A (zh) * 2020-05-25 2020-08-28 中建三局第二建设工程有限责任公司 一种建筑工人身份识别及安全帽佩戴检测方法及系统
CN111814762A (zh) * 2020-08-24 2020-10-23 深延科技(北京)有限公司 头盔佩戴检测方法和装置
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN111932933A (zh) * 2020-08-05 2020-11-13 杭州像素元科技有限公司 一种城市智能停车位检测方法、设备及可读存储介质
CN111931661A (zh) * 2020-08-12 2020-11-13 桂林电子科技大学 一种基于卷积神经网络的实时口罩佩戴检测方法
CN112070043A (zh) * 2020-09-15 2020-12-11 常熟理工学院 基于特征融合的安全帽佩戴卷积网络、训练及检测方法
CN112132005A (zh) * 2020-09-21 2020-12-25 福州大学 一种基于聚类分析与模型压缩的人脸检测方法
CN112927173A (zh) * 2021-04-12 2021-06-08 平安科技(深圳)有限公司 模型压缩方法、装置、计算设备及存储介质
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质
CN112966618A (zh) * 2021-03-11 2021-06-15 京东数科海益信息科技有限公司 着装识别方法、装置、设备及计算机可读介质
CN113139426A (zh) * 2021-03-12 2021-07-20 浙江智慧视频安防创新中心有限公司 一种佩戴安全帽的检测方法、装置、存储介质及终端
CN113255826A (zh) * 2021-06-17 2021-08-13 广东电网有限责任公司中山供电局 一种基于改进yolov3的安全帽佩戴检测方法及系统
CN113449611A (zh) * 2021-06-15 2021-09-28 电子科技大学 一种基于yolo网络压缩算法的安全帽识别智能监控系统
CN113743256A (zh) * 2021-08-17 2021-12-03 武汉大学 一种工地安全智能预警方法与装置
CN114663907A (zh) * 2021-11-26 2022-06-24 国网上海市电力公司 一种适用于电缆工井作业边缘终端的安全帽检测方法
CN116704400A (zh) * 2023-04-28 2023-09-05 上海旋荣科技股份有限公司 一种基于图像识别增强的视觉ai精确识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150347819A1 (en) * 2014-05-29 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Compact Face Representation
US20150347820A1 (en) * 2014-05-27 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Learning Deep Face Representation
CN108090403A (zh) * 2016-11-22 2018-05-29 上海银晨智能识别科技有限公司 一种基于3d卷积神经网络的人脸动态识别方法及系统
CN108319934A (zh) * 2018-03-20 2018-07-24 武汉倍特威视系统有限公司 基于视频流数据的安全帽佩戴情况检测方法
CN108427921A (zh) * 2018-02-28 2018-08-21 辽宁科技大学 一种基于卷积神经网络的人脸识别方法
CN109034215A (zh) * 2018-07-09 2018-12-18 东北大学 一种基于深度卷积神经网络的安全帽佩戴检测方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150347820A1 (en) * 2014-05-27 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Learning Deep Face Representation
US20150347819A1 (en) * 2014-05-29 2015-12-03 Beijing Kuangshi Technology Co., Ltd. Compact Face Representation
CN108090403A (zh) * 2016-11-22 2018-05-29 上海银晨智能识别科技有限公司 一种基于3d卷积神经网络的人脸动态识别方法及系统
CN108427921A (zh) * 2018-02-28 2018-08-21 辽宁科技大学 一种基于卷积神经网络的人脸识别方法
CN108319934A (zh) * 2018-03-20 2018-07-24 武汉倍特威视系统有限公司 基于视频流数据的安全帽佩戴情况检测方法
CN109034215A (zh) * 2018-07-09 2018-12-18 东北大学 一种基于深度卷积神经网络的安全帽佩戴检测方法

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110599458A (zh) * 2019-08-14 2019-12-20 深圳市勘察研究院有限公司 基于卷积神经网络的地下管网检测评估云系统
CN110378903A (zh) * 2019-09-16 2019-10-25 广东电网有限责任公司佛山供电局 一种输电线路反事故措施智能统计方法
CN110569827B (zh) * 2019-09-28 2024-01-05 华南理工大学 一种基于卷积神经网络的人脸识别提醒系统
CN110569827A (zh) * 2019-09-28 2019-12-13 华南理工大学 一种基于卷积神经网络的人脸识别提醒系统
CN110674772B (zh) * 2019-09-29 2022-08-05 国家电网有限公司技术学院分公司 电力作业现场智能安全管控辅助系统及方法
CN110674772A (zh) * 2019-09-29 2020-01-10 国家电网有限公司技术学院分公司 电力作业现场智能安全管控辅助系统及方法
CN110852183B (zh) * 2019-10-21 2022-03-25 广州大学 一种未佩戴安全帽人员识别方法、系统、装置和存储介质
CN110852183A (zh) * 2019-10-21 2020-02-28 广州大学 一种未佩戴安全帽人员识别方法、系统、装置和存储介质
CN110969107A (zh) * 2019-11-25 2020-04-07 上海交通大学 基于网络模型鸟类种群识别分析方法及系统
CN111914636A (zh) * 2019-11-25 2020-11-10 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN111914636B (zh) * 2019-11-25 2021-04-20 南京桂瑞得信息科技有限公司 一种检测行人是否佩戴安全帽的方法及装置
CN112949354A (zh) * 2019-12-10 2021-06-11 顺丰科技有限公司 安全帽佩戴检测方法和装置、电子设备、计算机可读存储介质
CN111062429A (zh) * 2019-12-12 2020-04-24 上海点泽智能科技有限公司 基于深度学习的厨师帽和口罩佩戴的检测方法
CN111079820A (zh) * 2019-12-12 2020-04-28 哈尔滨市科佳通用机电股份有限公司 一种基于图像识别的铁路货车防火板故障识别方法
CN111160440A (zh) * 2019-12-24 2020-05-15 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN111222420A (zh) * 2019-12-24 2020-06-02 重庆市通信产业服务有限公司 一种基于ftp协议的低带宽要求的安全帽识别方法
CN111160440B (zh) * 2019-12-24 2023-11-21 广东省智能制造研究所 一种基于深度学习的安全帽佩戴检测方法及装置
CN111241959A (zh) * 2020-01-06 2020-06-05 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法
CN111241959B (zh) * 2020-01-06 2024-06-04 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法
CN111291637A (zh) * 2020-01-19 2020-06-16 中国科学院上海微系统与信息技术研究所 一种基于卷积神经网络的人脸检测方法、装置及设备
CN111476083A (zh) * 2020-02-07 2020-07-31 山东理工大学 一种电力员工安全帽佩戴自动识别方法
CN111353393A (zh) * 2020-02-19 2020-06-30 桂林电子科技大学 一种基于神经网络的犬只检测与预警系统
CN111488804A (zh) * 2020-03-19 2020-08-04 山西大学 基于深度学习的劳保用品佩戴情况检测和身份识别的方法
CN111488989A (zh) * 2020-04-16 2020-08-04 济南浪潮高新科技投资发展有限公司 一种在手机端实现轻量级目标检测的方法及模型
CN111523432A (zh) * 2020-04-16 2020-08-11 重庆大学 一种智慧工地安全帽检测系统及其方法
CN111507248A (zh) * 2020-04-16 2020-08-07 成都东方天呈智能科技有限公司 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN111488989B (zh) * 2020-04-16 2024-03-29 山东浪潮科学研究院有限公司 一种在手机端实现轻量级目标检测的方法及模型
CN111582068A (zh) * 2020-04-22 2020-08-25 北京交通大学 人员口罩佩戴状态检测方法
CN111597985A (zh) * 2020-05-15 2020-08-28 全程(上海)智能科技有限公司 设备佩戴的动态识别方法、装置和电子设备
CN111598040B (zh) * 2020-05-25 2024-05-14 中建三局第二建设工程有限责任公司 一种建筑工人身份识别及安全帽佩戴检测方法及系统
CN111598040A (zh) * 2020-05-25 2020-08-28 中建三局第二建设工程有限责任公司 一种建筑工人身份识别及安全帽佩戴检测方法及系统
CN111932933A (zh) * 2020-08-05 2020-11-13 杭州像素元科技有限公司 一种城市智能停车位检测方法、设备及可读存储介质
CN111931661A (zh) * 2020-08-12 2020-11-13 桂林电子科技大学 一种基于卷积神经网络的实时口罩佩戴检测方法
CN111814762A (zh) * 2020-08-24 2020-10-23 深延科技(北京)有限公司 头盔佩戴检测方法和装置
CN112070043B (zh) * 2020-09-15 2023-11-10 常熟理工学院 基于特征融合的安全帽佩戴卷积网络、训练及检测方法
CN112070043A (zh) * 2020-09-15 2020-12-11 常熟理工学院 基于特征融合的安全帽佩戴卷积网络、训练及检测方法
CN112132005A (zh) * 2020-09-21 2020-12-25 福州大学 一种基于聚类分析与模型压缩的人脸检测方法
CN112966618B (zh) * 2021-03-11 2024-02-09 京东科技信息技术有限公司 着装识别方法、装置、设备及计算机可读介质
CN112966618A (zh) * 2021-03-11 2021-06-15 京东数科海益信息科技有限公司 着装识别方法、装置、设备及计算机可读介质
CN113139426A (zh) * 2021-03-12 2021-07-20 浙江智慧视频安防创新中心有限公司 一种佩戴安全帽的检测方法、装置、存储介质及终端
WO2022217704A1 (zh) * 2021-04-12 2022-10-20 平安科技(深圳)有限公司 模型压缩方法、装置、计算设备及存储介质
CN112927173A (zh) * 2021-04-12 2021-06-08 平安科技(深圳)有限公司 模型压缩方法、装置、计算设备及存储介质
CN113449611B (zh) * 2021-06-15 2023-07-07 电子科技大学 一种基于yolo网络压缩算法的安全帽识别智能监控系统
CN113449611A (zh) * 2021-06-15 2021-09-28 电子科技大学 一种基于yolo网络压缩算法的安全帽识别智能监控系统
CN113255826A (zh) * 2021-06-17 2021-08-13 广东电网有限责任公司中山供电局 一种基于改进yolov3的安全帽佩戴检测方法及系统
CN113743256B (zh) * 2021-08-17 2023-12-26 武汉大学 一种工地安全智能预警方法与装置
CN113743256A (zh) * 2021-08-17 2021-12-03 武汉大学 一种工地安全智能预警方法与装置
CN114663907A (zh) * 2021-11-26 2022-06-24 国网上海市电力公司 一种适用于电缆工井作业边缘终端的安全帽检测方法
CN116704400A (zh) * 2023-04-28 2023-09-05 上海旋荣科技股份有限公司 一种基于图像识别增强的视觉ai精确识别方法

Also Published As

Publication number Publication date
CN110119686B (zh) 2020-09-25

Similar Documents

Publication Publication Date Title
CN110119686A (zh) 一种基于卷积神经网络的安全帽实时检测方法
Herdade et al. Image captioning: Transforming objects into words
CN108537743B (zh) 一种基于生成对抗网络的面部图像增强方法
CN110991281B (zh) 一种动态人脸识别方法
Luo et al. Unsupervised learning of long-term motion dynamics for videos
CN110135375A (zh) 基于全局信息整合的多人姿态估计方法
CN107463920A (zh) 一种消除局部遮挡物影响的人脸识别方法
CN109063666A (zh) 基于深度可分离卷积的轻量化人脸识别方法及系统
CN109657547A (zh) 一种基于伴随模型的异常轨迹分析方法
CN109034092A (zh) 用于监控系统的异常事件检测方法
CN111582068A (zh) 人员口罩佩戴状态检测方法
CN107506692A (zh) 一种基于深度学习的密集人群计数与人员分布估计方法
CN108288048B (zh) 基于改进头脑风暴优化算法的面部情绪识别特征选择方法
Lu et al. Multi-object detection method based on YOLO and ResNet hybrid networks
CN114360005B (zh) 一种基于AU区域和多层级Transformer融合模块的微表情分类方法
CN113379771A (zh) 带有边缘约束的层次化人体解析语义分割方法
CN115294519A (zh) 一种基于轻量化网络的异常事件检测及预警方法
US7454062B2 (en) Apparatus and method of pattern recognition
CN109558819B (zh) 一种用于遥感图像目标检测的深度网络轻量化方法
Li Dual-attention generative adversarial network and flame and smoke analysis
Tanaka et al. Practical approach to evacuation planning via network flow and deep learning
Sharma et al. Face mask detection using artificial intelligence for workplaces
Dhar et al. Detecting deepfake images using deep convolutional neural network
Chen et al. Detection of violations in construction site based on YOLO algorithm
Li et al. Recognition algorithm of athletes' partially occluded face based on a deep learning algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200925