CN113449611A - 一种基于yolo网络压缩算法的安全帽识别智能监控系统 - Google Patents
一种基于yolo网络压缩算法的安全帽识别智能监控系统 Download PDFInfo
- Publication number
- CN113449611A CN113449611A CN202110661602.1A CN202110661602A CN113449611A CN 113449611 A CN113449611 A CN 113449611A CN 202110661602 A CN202110661602 A CN 202110661602A CN 113449611 A CN113449611 A CN 113449611A
- Authority
- CN
- China
- Prior art keywords
- network
- module
- feature extraction
- network model
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000006835 compression Effects 0.000 title claims abstract description 20
- 238000007906 compression Methods 0.000 title claims abstract description 20
- 238000012544 monitoring process Methods 0.000 title claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 33
- 238000001514 detection method Methods 0.000 claims abstract description 32
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 19
- 230000006870 function Effects 0.000 claims description 13
- 230000004913 activation Effects 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 3
- 238000013500 data storage Methods 0.000 claims description 2
- 230000005764 inhibitory process Effects 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000013459 approach Methods 0.000 claims 1
- 238000010276 construction Methods 0.000 abstract description 4
- 239000011159 matrix material Substances 0.000 description 10
- 238000000354 decomposition reaction Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于YOLO网络压缩算法的安全帽识别智能监控系统,属于计算机视觉和数字图像处理技术领域,本发明提供的监控系统包括获取训练数据的数据处理模块、设置及网络结构及训练网络参数的特征提取与预测模块、对所设置的网络模型的全连接层进行压缩处理的网络压缩模块和结果检测模块,本发明采用YOLO网络,降低背景误检率低,同时可以直接优化性能检测,提高准确率;以及直接对锚框进行回归和分类,加快了运行速度,实现了实时处理视频,以及可以学到物体更泛化的特征表示,更能适应新的领域,泛化能力高,可高度可推广。本发明能用于对施工区域工作人员是否佩戴安全帽的智能监控。
Description
技术领域
本发明属于计算机视觉和数字图像处理技术领域,具体涉及一种基于目标检测网络YOLO(You Only Look Once)进行网络压缩实现对施工区域工作人员是否佩戴安全帽的监控系统。
背景技术
目标检测是计算机视觉和数字图像处理经久不衰的一个研究方向,广泛应用于机器人导航、智能视频监控、工业检测、航空航天等诸多领域。由于计算机收到这些RGB像素矩阵,不会直接得到目标(如行人、车辆等)的抽象概念,更不能定位其位置,再加上目标形态千差万别,目标和背景重合等问题,使得目标检测难上加难。此外,由于视频中的目标具有不同姿态且经常出现遮挡、其运动具有不规则性,同时考虑到监控视频的景深、分辨率、天气、光照等条件和场景的多样性,而且目标检测算法的结果将直接影响后续的跟踪、动作识别和行为描述的效果。因此,通过计算机视觉提高物体检测的准确性和减少对人力资本的消耗,具有重要的现实意义,目标检测也就成为了近年来理论和应用的研究热点,它是视频智能监控系统的核心部分,对后续的各种识别任务起着至关重要的作用。
自从深度神经网络算法首次在ImageNet数据集上大放异彩后,目标检测算法得到了较为快速的发展,通过利用多层计算模型来学习抽象的数据表示,能够发现大数据中的复杂结构。其中目标检测网络YOLO中的YOLOv1是一种基于深度神经网络的对象识别和定位算法,它采用一个CNN网络来实现检测,是一种单管道策略,其训练与预测都是端到端(end-to-end),所以YOLOv1算法比较简洁且速度快。此外,由于Yolo是对整张图片做卷积,所以其在检测目标有更大的视野,它不容易对背景误判且泛化能力强,在做迁移时,模型鲁棒性高。但当大规模数据训练获得的深度网络模型大且计算量也大,这就需要优良的硬件的计算资源和内存条件,然而在实际的实时系统应用中这往往很难实现。
发明内容
本发明的发明目的在于:针对上述存在的问题,提供一种基于YOLO网络压缩算法的安全帽识别智能监控系统,实现对施工人员安全帽是否佩戴的动态监控,为施工现场的安全提供保障。
为实现上述发明目的,本发明提供的基于YOLO网络压缩算法的安全帽识别智能监控系统,包括:
数据处理模块,用于获取训练数据集,即通过对输入图像进行多种数据预处理,得到训练数据集,数据处理模块可以增加网络的训练样本,从而增加目标,以提升系统的性能;
特征提取和预测模块:用于设置对图像进行特征提取和目标识别的网络模型,所述网络模型为基于YOLO网络的网络模型;
网络压缩模块:用于对特征提取和预测模块中的网络模型的全连接层进行压缩处理,并触发特征提取和预测模块从数据处理模块读取训练数据对压缩处理后的网络模型进行模型参数学习训练,以及保存训练好的网络模型;
结果检测模块:将待识别图像输入到特征提取和预测模块中训练好的网络模型,基于特征提取和预测模块返回的前向传播输出,得到目标对象的预测锚框的位置和类别;并采用非极大值抑制处理对得到的预测锚框进行去冗余处理,得到当前待识别图像的识别结果并输出显示。
进一步的,网络模型的特征提取网络为YOLO网络的前20个卷积层结构,特征提取网络之后顺次连接4个卷积层和2个全连接层构成目标识别支路,最后一层全连接层采用了一层Dropout,且最后一层全连接层采用线性激活函数,网络模型中其它层涉及的激活函数均采用Leaky Relu激活函数。
进一步的,训练时,所述网络模型的损失函数值为回归损失、分类损失和置信度损失之和。
进一步的,所述特征提取网络采用预训练的方式获取特征提取网络的初始网络参数:在所述特征提取网络之后顺次连接一个平均池化层和全连接层,基于指定的图像识别任务,在公开的图像识别数据集(例如ImageNet)上进行预训练。
进一步的,所述数据预处理包括随机调整亮度,随机调整对比度、色相、饱和度,随机光照噪声,随机扩展,随机裁剪,随机镜像和随机采集块域。
综上所述,由于采用了上述技术方案,本发明的有益效果包括:
(1)本发明中采用YOLO是one-stage的思想,用一整幅图像来训练,可以将物体的整体的类别信息以及外观信息进行编码,降低背景误检率低,同时可以直接优化性能检测,提高准确率。
(2)本发明中直接对锚框(bbox)进行回归和分类,加快了运行速度,实现了实时处理视频。
(3)本发明可以学到物体更泛化的特征表示,更能适应新的领域,泛化能力高,可高度可推广。
(4)本发明采用网络压缩方法,利用矩阵分解将权重矩阵分解为几个低阶矩阵,用低阶矩阵来表示高阶矩阵,大大加快了训练和测试网络模型的速度,缩短了训练和测试的时间。
附图说明
图1是本发明实施例中,所提供的安全帽识别智能监控系统的结构示意图;
图2是本发明实施例中,采用的YOLO网络的结构示意图;
图3是本发明实施例中,网络压缩结构示意图;
图4是本发明实施例中,结果检测过程示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合具体的实施方式和附图,对本发明的具体实施过程进行较为详细的说明,以方便技术人员更准确的理解本发明后,应用在各个具体的领域当中。
参见图1,本发明实施例公开了一种基于YOLO网络压缩算法的安全帽识别智能监控系统,包括数据处理模块、特征提取与预测模块、网络压缩模块和结果检测模块。各模块具体为:
数据处理模块:用于获取训练数据集,即通过对输入图像(施工区域采集的视频图像)进行多种数据预处理,得到训练数据集,供后端模块使用。其中,数据预处理包括:随机调整对比度(Contrast)、色相(Hue)、饱和度(Saturation),随机光照噪声,随机扩展,随机裁剪和随机镜像。在安全帽识别智能监控系统中,目标检测任务(以安全帽作为检测对象)通过随机调整亮度,对数据进行处理,后提升系统的性能。
特征提取和预测模块:用于预置对图像进行特征提取和目标识别的网络模型,进而实现图片的特征提取和预测。本发明实施例中,该模块所采用的网络结构参考GooLeNet模型,包含24个卷积层和2个全连接层,其通过图像金字塔结构抽取特征,通过一系列不同尺度的卷积层在不同尺度上做特征提取,来获得更多的特征图,学到物体更泛化的特征表示,更能适应新的领域,泛化能力高,可高度可推广,全连接层用来预测图像位置和类别概率值,并且为了跨通道信息整合使用了卷积核为1×1的卷积层代替了GooLeNet的Inception模块来做降维度。可以通过一整幅图像来训练,将物体的整体的类别信息以及外观信息进行编码,降低背景误检率低,同时可以直接优化性能检测,提高准确率。
网络压缩模块:用于对特征提取和预测模块所采用的全连接层进行压缩,减少模型的参数,压缩模型所占的内存;减少模型的计算量,压缩模型训练和预测所占用的时间。当完成对全连接层的压缩处理后,使得特征提取和预测模块从数据处理模块中读取每个批次的拼数据对压缩后的网络模型进行网络参数的训练,
本发明实施例中,通过将特征提取和预测模块中的全连接层的权重进行矩阵分解,以此来减少模型参数并减小计算量,矩阵分解是将权重矩阵分解为多个低阶矩阵,用低阶矩阵来表示高阶矩阵,大大加快了训练和测试网络模型的速度,缩短了训练和测试的时间。
结果检测模块:将待识别图像输入到特征提取和预测模块中训练好的网络模型,基于特征提取和预测模块返回的前向传播输出,得到待识别图像的目标对象的锚框(bounding boxes,bbox)及其类别,再使用非极大值抑制(Non-Maximum Suppression,NMS)方法过滤掉背景和得分不是很高的框,即得分低于指定阈值的框,以避免重复预测,输出预测框作为检测结果的输出,由于直接对bbox进行回归和分类,所以加快了运行速度,实现了实时处理视频。
本发明实施例所提供的基于YOLO网络压缩算法的安全帽识别智能监控系统的工作流程包括:
步骤一:在数据处理模块中,输入的每一张图像,通过随机调整亮度,随机调整对比度(Contrast)、色相(Hue)、饱和度(Saturation),随机光照噪声,随机扩展,随机裁剪,随机镜像和随机采集块域。
其中,随机调整亮度以0.5的随机概率,随机对图像每个像素添加一个值。在亮度调整后随机调整对比度、色相和饱和度,有两种选择(以0.5的概率随机选择),首先对比度处理,然后色相和饱和度;或者首先色相和饱和度处理,然后对比度处理,并且对比度是在RGB空间处理,色相和饱和度是在多达1.5倍HSV空间。因此,在进行每一步操作前需要先作对应的颜色空间转换,通过随机在一个上界和下界区间内选择形变的值,之后进行随机光照噪声(包括随机颜色通道交换),随机扩展。
数据处理模块会增加训练样本的个数,同时构造出更多的不同形状和大小的目标,并将其输入到网络中,可以使得网络学习到更多的特征,防止过拟合提高后续算法性能,最终使系统增强了对目标平移的敏感程度和对不同尺寸和纵横比的目标更具有鲁棒性。
步骤二,通过数据处理模块后,将图片输入特征提取与预测模块所设置的YOLO网络中,如图2所示。在训练之前,先在ImageNet上进行了预训练,其预训练的分类模型包括前20个卷积层,然后添加一个average-pool层和全连接层进行预训练,即该全连接层作为预训练的分类任务的输出层。
预训练之后,在预训练得到的20层卷积层之上加上随机初始化的4个卷积层和2个全连接层。由于检测任务需要更高清的图片,所以对网络的输入进行了调整,以适应更大尺寸的输入图像,本实施中,将输入从224*224增加到了448*448。具体来说,图像输入分辨率固定成448*448,并且被均匀分成多个格子(即多个网格),经过多层卷积(24层卷积)和一个全连接层后输出4096维的特征图(feature map),变为7*7*1024张量(图2倒数第2个立方体),最后经过两层全连接层,输出张量维度为7*7*30,即最后一层输出一个30维的向量,候选框的信息就包含在该30维的向量中,在30维的向量中包括一定数量(例如20个)的目标物体的概率、两个bbox置信度和两个bbox位置(一个bbox需要四个值表示其位置)。此外,用了一层Dropout,且最后一层的输出使用了线性激活函数,其他层全部使用Leaky Relu激活函数,其公式如下所示:
其中,每一个bbox由5个预测量组成(x,y,w,h,c),矩形框的中心点坐标x,y,长宽w,h以及是否属于被检测物体的置信度c。x,y,w,h经过归一化处理,取值在[0-1]之间。而置信度并不只是该bbox是待检测目标的概率,还是该bbox是待检测目标的概率乘上该bbox和真实位置的IoU(Intersection over Union)的积来反映出该bbox预测位置的精度,其计算如下:
其中,A,B为集合;P(物体)代表了该bbox是否包含检测的物体,也就是说如果不存在一个物体,则类别c应该为0,否则c为bbox与真实框(ground truth)之间的IoU。即若不存在一个物体,则P(物体)为0,否则为1。
除此以外,每个网格还产生C个条件概率P(类别i|物体)。特征检测与预测模块的网络的损失函数包括回归损失、分类损失和置信度损失三个部分。
如果检测到物体,那么每个网格的分类损失是每个分类的条件概率平方误差和,公式如下:
回归损失计算的是预测的bbox位置与实际尺寸的误差,其公式如下:
其中,是相对于网格i的bbox预测位置,是相对于网格i的第j个bbox的预测尺寸(宽度和高度),xi、yi、wi和hi分别表示网格i的第j个bbox的实际位置和尺寸,λcoord为权重(基于实际应用场景设置,优选取值为5),置信损失计算公式如下:
其中,为某个物体在bbox中被检测到的置信度损失,为某个物体不在bbox中的置信度损失,C为置信度,即c的值,为预测框与真实框IoU,是的补充,λnoobj为降低背景检测损失的权重(noobj即背景),优选取值设置为0.5。最终得到的损失函数是上述三者之和,如下式所示:
步骤三,对初始设置的网络模型对网络中的全连接层的4096维度的权重参数进行逐层矩阵分解,其过程如图3所示。假设压缩前权重参数Wm×n的大小为是m行n列的矩阵,经过压缩后将矩阵化为Pm×k和Qk×m相乘,即Wm×n=Pm×k×Qk×m,及其优化的目标函数如下式:
步骤四,在结果检测模块中预测出检测结果如图4所示,从特征提取与预测模块中得到的C个条件概率P(类别i|物体),在测试阶段进行非极大值抑制(NMS)处理时,对于每个bbox,按照下式衡量该框是否应该予以保留:
其中,Socre代表着某个类别i存在于第j个bbox的可能性,过滤一些大部分重叠的矩形框,输出检测物体的置信度,同时考虑了矩形框与类别,满足阈值的输出更加可信,对各类别分别进行NMS处理,其过程如下:
(1)设置一个Score的阈值,低于该阈值的候选对象排除掉(将该Score设为0)。
(2)遍历每一个对象类别,遍历该对象的所有得分(如图4中所示的98个),找到Score最大的那个对象及其bbox,添加到输出列表,对每个Score不为0的候选对象,计算其与输出对象的bbox的IoU,再根据预先设置的IoU阈值,所有高于该阈值(重叠度较高)的候选对象排除掉(将Score设为0);即所有的bbox要么在输出列表中,要么Score=0时,则该对象类别的NMS完成,返回步骤(2)处理下一种对象。
(3)输出列表即为预测的对象。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
以上所述的仅是本发明的一些实施方式。对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
Claims (5)
1.基于YOLO网络压缩算法的安全帽识别智能监控系统,其特征在于,包括:
数据处理模块,用于获取训练数据集;
特征提取和预测模块:用于设置对图像进行特征提取和目标识别的网络模型,所述网络模型为基于YOLO网络的网络模型;
网络压缩模块:用于对特征提取和预测模块中的网络模型的全连接层进行压缩处理,并触发特征提取和预测模块从数据处理模块读取训练数据对压缩处理后的网络模型进行模型参数学习训练,以及保存训练好的网络模型;
结果检测模块:将待识别图像输入到特征提取和预测模块中训练好的网络模型,基于特征提取和预测模块返回的前向传播输出,得到目标对象的预测锚框的位置和类别;并采用非极大值抑制处理对得到的预测锚框进行去冗余处理,得到当前待识别图像的识别结果并输出显示。
2.如权利要求1所述的系统,其特征在于,对图像进行特征提取和目标识别的网络模型网络模型的特征提取网络为YOLO网络的前20个卷积层结构,特征提取网络之后顺次连接4个卷积层和2个全连接层构成目标识别支路,最后一层全连接层采用了一层Dropout,且最后一层全连接层采用线性激活函数,网络模型中其它层涉及的激活函数均采用Leaky Relu激活函数。
3.如权利要求1或2所述的系统,其特征在于,训练时,所述网络模型的损失函数值为回归损失、分类损失和置信度损失之和。
4.如权利要求1或2所述的系统,其特征在于,所述特征提取网络采用预训练的方式获取特征提取网络的初始网络参数:在所述特征提取网络之后顺次连接一个平均池化层和全连接层,基于指定的图像识别任务,在公开的图像识别数据集上进行预训练。
5.如权利要求1或2所述的系统,其特征在于,数据处理模块获取训练数据集的方式包括:对输入图像进行多种数据预处理,包括:随机调整亮度,随机调整对比度、色相、饱和度,随机光照噪声,随机扩展,随机裁剪,随机镜像和随机采集块域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110661602.1A CN113449611B (zh) | 2021-06-15 | 2021-06-15 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110661602.1A CN113449611B (zh) | 2021-06-15 | 2021-06-15 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113449611A true CN113449611A (zh) | 2021-09-28 |
CN113449611B CN113449611B (zh) | 2023-07-07 |
Family
ID=77811414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110661602.1A Active CN113449611B (zh) | 2021-06-15 | 2021-06-15 | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449611B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740655A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 基于矩阵分解及神经协同过滤的物品评分预测方法 |
CN109948501A (zh) * | 2019-03-13 | 2019-06-28 | 东华大学 | 一种监控视频中人员和安全帽的检测方法 |
CN110119686A (zh) * | 2019-04-17 | 2019-08-13 | 电子科技大学 | 一种基于卷积神经网络的安全帽实时检测方法 |
CN110443208A (zh) * | 2019-08-08 | 2019-11-12 | 南京工业大学 | 一种基于YOLOv2的车辆目标检测方法、系统及设备 |
CN111428583A (zh) * | 2020-03-05 | 2020-07-17 | 同济大学 | 一种基于神经网络和触觉点阵的视觉补偿方法 |
WO2020234602A1 (en) * | 2019-05-21 | 2020-11-26 | Headlight AI Limited | Identifying at least one object within an image |
CN112446388A (zh) * | 2020-12-05 | 2021-03-05 | 天津职业技术师范大学(中国职业培训指导教师进修中心) | 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统 |
CN112686088A (zh) * | 2019-10-20 | 2021-04-20 | 广东毓秀科技有限公司 | 基于行人重识别的跨镜头的行人检索方法 |
CN112766165A (zh) * | 2021-01-20 | 2021-05-07 | 燕山大学 | 基于深度神经网络与全景分割的跌倒预判方法 |
-
2021
- 2021-06-15 CN CN202110661602.1A patent/CN113449611B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109740655A (zh) * | 2018-12-26 | 2019-05-10 | 西安电子科技大学 | 基于矩阵分解及神经协同过滤的物品评分预测方法 |
CN109948501A (zh) * | 2019-03-13 | 2019-06-28 | 东华大学 | 一种监控视频中人员和安全帽的检测方法 |
CN110119686A (zh) * | 2019-04-17 | 2019-08-13 | 电子科技大学 | 一种基于卷积神经网络的安全帽实时检测方法 |
WO2020234602A1 (en) * | 2019-05-21 | 2020-11-26 | Headlight AI Limited | Identifying at least one object within an image |
CN110443208A (zh) * | 2019-08-08 | 2019-11-12 | 南京工业大学 | 一种基于YOLOv2的车辆目标检测方法、系统及设备 |
CN112686088A (zh) * | 2019-10-20 | 2021-04-20 | 广东毓秀科技有限公司 | 基于行人重识别的跨镜头的行人检索方法 |
CN111428583A (zh) * | 2020-03-05 | 2020-07-17 | 同济大学 | 一种基于神经网络和触觉点阵的视觉补偿方法 |
CN112446388A (zh) * | 2020-12-05 | 2021-03-05 | 天津职业技术师范大学(中国职业培训指导教师进修中心) | 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统 |
CN112766165A (zh) * | 2021-01-20 | 2021-05-07 | 燕山大学 | 基于深度神经网络与全景分割的跌倒预判方法 |
Non-Patent Citations (4)
Title |
---|
FAN WU.ET AL.: "Helmet Detection Based On Improved YOLO V3 Deep Model", 《2019 IEEE 16TH INTERNATIONAL CONFERENCE ON NETWORKING, SENSING AND CONTROL (ICNSC)》 * |
林俊 党伟超 潘理虎 白尚旺 张睿: "基于YOLO的安全帽检测方法", 《计算机系统应用》 * |
段辉军: "基于改进YOLO网络的双通道显著性目标识别算法", 《激光与红外》 * |
段辉军: "基于改进YOLO网络的双通道显著性目标识别算法", 《激光与红外》, 20 November 2020 (2020-11-20) * |
Also Published As
Publication number | Publication date |
---|---|
CN113449611B (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
WO2019101221A1 (zh) | 一种基于场景多维特征的船只检测方法及系统 | |
CN112597815B (zh) | 一种基于Group-G0模型的合成孔径雷达图像舰船检测方法 | |
CN112288776B (zh) | 一种基于多时间步金字塔编解码器的目标跟踪方法 | |
CN113763427B (zh) | 一种基于从粗到精遮挡处理的多目标跟踪方法 | |
CN111091101A (zh) | 基于一步法的高精度行人检测方法、系统、装置 | |
CN115393690A (zh) | 一种轻量化神经网络的空对地观测多目标识别方法 | |
CN116246338B (zh) | 一种基于图卷积和Transformer复合神经网络的行为识别方法 | |
CN111462090A (zh) | 一种多尺度图像目标检测方法 | |
CN112560624A (zh) | 基于模型深度集成的高分遥感影像语义分割方法 | |
CN116740516A (zh) | 基于多尺度融合特征提取的目标检测方法及系统 | |
CN117611994A (zh) | 基于注意力机制加权特征融合的遥感图像目标检测方法 | |
CN116453033A (zh) | 一种视频监控场景下高精度低算量的人群密度估计方法 | |
CN117218545A (zh) | 基于LBP特征与改进Yolov5的雷达图像检测方法 | |
CN116935249A (zh) | 一种无人机场景下三维特征增强的小目标检测方法 | |
CN116310967A (zh) | 一种基于改进YOLOv5的化工厂安全帽佩戴检测方法 | |
CN115761552A (zh) | 面向无人机机载平台的目标检测方法、系统、设备及介质 | |
CN116311349A (zh) | 一种基于轻量神经网络的人体关键点检测方法 | |
CN114694042A (zh) | 一种基于改进Scaled-YOLOv4的伪装人员目标检测方法 | |
CN113449611B (zh) | 一种基于yolo网络压缩算法的安全帽识别智能监控系统 | |
CN112580442A (zh) | 一种基于多维金字塔层次模型的行为识别方法 | |
Zhang et al. | Dynamic Long-Short Range Structure Learning for Low-Illumination Remote Sensing Imagery HDR Reconstruction | |
Wei et al. | Pedestrian anomaly detection method using autoencoder | |
CN117876782B (zh) | 一种处理双时相遥感图像变化的多尺度特征交互网络实现方法 | |
CN118397357A (zh) | 改进bifpn与注意力机制的轻量化小目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |