CN113516082A - 安全帽的检测方法、装置、计算机设备及存储介质 - Google Patents
安全帽的检测方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN113516082A CN113516082A CN202110811733.3A CN202110811733A CN113516082A CN 113516082 A CN113516082 A CN 113516082A CN 202110811733 A CN202110811733 A CN 202110811733A CN 113516082 A CN113516082 A CN 113516082A
- Authority
- CN
- China
- Prior art keywords
- detection
- image
- model
- safety helmet
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 503
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000013145 classification model Methods 0.000 claims abstract description 50
- 239000003086 colorant Substances 0.000 claims abstract description 26
- 230000002159 abnormal effect Effects 0.000 claims description 65
- 238000010801 machine learning Methods 0.000 claims description 36
- 238000012360 testing method Methods 0.000 claims description 34
- 238000002372 labelling Methods 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 230000004913 activation Effects 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 230000001629 suppression Effects 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000006872 improvement Effects 0.000 claims description 5
- 238000007689 inspection Methods 0.000 claims 2
- 238000004422 calculation algorithm Methods 0.000 description 21
- 230000008901 benefit Effects 0.000 description 13
- 238000011161 development Methods 0.000 description 10
- 230000018109 developmental process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000005457 optimization Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种安全帽的检测方法、装置、计算机设备及存储介质,该方法包括:获取包括至少一个检测对象的目标检测图像;将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在目标检测图像中检测得到的至少一个检测对象的头部所在区域;根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。本发明实施例的技术方案可以有效提高安全帽的检测精度,在保证安全帽检测精度的基础上,同时可以提高对每个独立模型的训练和优化速度。
Description
技术领域
本发明实施例涉及图像处理技术,尤其涉及一种安全帽的检测方法、装置、计算机设备及存储介质。
背景技术
随着安全作业需求的不断增加,许多特殊作业场景需要用户佩戴安全帽,以保证安全生产。因此,各种在视频图像中识别安全帽的技术也不断涌现。
现有技术中,可以直接使用目标检测算法,例如YOLO(You Only Look Once)算法或者快速R-CNN(Region-Convolutional Neural Networks,区域卷积神经网络),训练得到安全帽检测模型,由同一个模型同时完成检测和分类两个任务,得到最终的安全帽检测结果。
发明人在实现本发明的过程中,发现现有技术存在如下缺陷:1、需要同时做多分类(佩戴安全帽和不佩戴安全帽,有时还需要区分安全帽颜色)任务和检测任务,两种任务耦合在一起容易导致数据采集和标注的时候类别不平衡的问题,同时会增加标注任务的难度;2、由于类别不平衡的问题会导致个别类别在训练过程中训练不充分,进而导致检测精度低;3、由于多个任务耦合在一个检测模型中,增加了模型优化难度。
发明内容
本发明实施例提供一种安全帽的检测方法、装置、计算机设备及存储介质,以优化现有的安全帽检测技术,提高安全帽的检测精度。
第一方面,本发明实施例提供了一种安全帽的检测方法,该方法包括:
获取目标检测图像,其中,目标检测图像中包括至少一个检测对象;
将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域;
根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;
将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
另外,根据本发明上述实施例的安全帽的检测方法,还可以具有如下附加的技术特征:
可选的,在将目标检测图像输入至预先训练的检测模型中之前,还包括:
获取预先标注有样本对象的头部所在区域的多个检测图像样本,并将各所述检测图像样本划分为训练样本集和测试样本集;
使用训练样本集和测试样本集对第一机器学习模型进行迭代训练和测试,直至所述第一机器学习模型的检测精度达到预设的检测精度阈值,以得到所述检测模型。
上述发明中的一个实施例具有如下优点或有益效果:仅通过使用标准有样本对象的头部所在区域的检测图像样本,即可快速、准确的训练得到高精度的检测模型,最大程度的减少了样本数据标注的成本,以及检测算法的优化难度,加快了检测算法的开发进度,并降低了检测算法的开发成本。
可选的,所述第一机器学习模型为融合特征金字塔网络和SSD(Single ShotMultiBox Detector,单次多边框检测器)网络的模型;
将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域,包括:
将目标检测图像输入至预先训练的检测模型中;
通过所述检测模型中的SSD网络输出多个不同尺度的特征图,并将各特征图输入至所述特征金字塔网络中,得到融合高低分辨率特征后的多个新的融合特征图;
通过所述特征金字塔网络将所述多个新的融合特征图输入至候选框检测网络中,在所述目标检测图像中标注得到至少一个头部区域候选框;
通过所述候选框检测网络将标注有所述头部区域候选框的目标检测图像输入至非极大值抑制网络中,获取在所述目标检测图像中检测得到的至少一个检测对象的头部区域。
上述发明中的一个实施例具有如下优点或有益效果:考虑到在本发明实施例所适用的具体应用场景中,所识别的安全帽一般目标较小,现有的检索算法无法对其有效识别的问题,创造性的提出使用融合特征金字塔网络和SSD网络的模型训练得到该检测模型,以提高检测模型对小目标的识别精准度。
可选的,在将各检测对象的头部区域图像分别输入至分类模型中之前,还包括:
获取与安全帽检测需求匹配的多个安全帽图像样本,并将各所述安全帽图像样本划分为训练样本集和测试样本集;
使用训练样本集和测试样本集对第二机器学习模型进行迭代训练和测试,直至所述第二机器学习模型的分类精度达到预设的分类精度阈值,以得到所述分类模型。
上述发明中的一个实施例具有如下优点或有益效果:仅通过使用安全帽图像样本,即可快速、准确的训练得到高精度的识别模型,最大程度的减少了样本数据标注的成本,以及识别算法的优化难度,加快了识别算法的开发进度,并降低了识别算法的开发成本。
可选的,获取与安全帽检测需求匹配的多个安全帽图像样本,包括下述至少一项:
响应于不限颜色的安全帽检测需求,获取多个不同颜色的第一类安全帽图像样本;
响应于目标颜色的安全帽检测需求,获取多个所述目标颜色的第二类安全帽图像样本;以及
响应于对安全帽和安全帽颜色的检测需求,获取多个不同颜色的第三类安全帽图像样本,各所述第三类安全帽图像样本中预先标注有匹配的安全帽颜色。
上述发明中的一个实施例具有如下优点或有益效果:通过针对不同的安全帽检测需求,构造并获取不同类型的安全帽图像样本,在不明显提高样本标注工作量的同时,丰富了本发明实施例所适用的安全帽的检测场景,提高了本案的通用性和拓展性。
可选的,所述第二机器学习模型为改进InceptionV3模型,所述改进InceptionV3模型中包括的改进Inception模块的数量值,小于标准InceptionV3模型中的标准Inception模块的数量值;
其中,改进Inception模块中仅包括:相连的卷积网络和激活网络;所述激活网络中使用带参数的线性整流函数作为激活函数。
上述发明中的一个实施例具有如下优点或有益效果:通过对改进InceptionV3模型中使用的改进Inception模块的数量,以及Inception模块的结构进行改进,可以在保证识别精度的同时,可以有效提高识别模型的训练和推理的速度。
可选的,在获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果之后,还包括:
根据分类模型输出的分类结果,获取未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象的头部区域图像;
根据所述异常检测对象的头部区域图像,在所述目标检测图像定位各异常检测对象的轮廓图像;
对各所述异常检测对象的头部区域图像进行人脸识别,并在各异常检测对象的轮廓图像中提取衣着特征信息;
根据与各异常检测对象的人脸识别结果以及衣着特征信息,获取各异常检测对象的身份识别信息;
根据各异常检测对象的身份识别信息,对各所述异常检测对象进行安全帽佩戴提示。
上述发明中的一个实施例具有如下优点或有益效果:在根据识别模型的输出结果确定存在未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象时,通过在目标检测图像中重新识别该异常检测对象的人脸特征以及衣着特征,可以精准的定位该异常检测对象,进而可以对该异常检测对象进行有效的安全帽佩戴提示,实现了对未佩戴安全帽用户的及时、精准的提示,以最大程度的降低安全风险。
第二方面,本发明实施例还提供了一种安全帽的检测装置,该装置包括:
目标检测图像获取模块,用于获取目标检测图像,其中,目标检测图像中包括至少一个检测对象;
头部所在区域检测模块,用于将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域;
头部区域图像截取模块,用于根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;
分类结果获取模块,用于将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
第三方面,本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明任一实施例所述的安全帽的检测方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例中任一所述的安全帽的检测方法。
本发明实施例通过获取包括有一个或者多个目标检测图像后,首先将目标检测图像输入至预先训练的检测模型中,得到各检测对象的头部所在区域,之后通过将各检测对象的头部区域图像分别输入至分类模型中,并得到各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果的技术手段,将现有的安全帽检测模块拆分为相互独立的检测模型和识别模型,进而能够降低对每个独立模型的训练样本的数据标注难度,减少数据标注的成本;同时,将两个任务进行解耦,让算法优化变得更加容易,加快算法开发进度,降低算法开发的成本,进而可以有效提高安全帽的检测精度,在保证安全帽检测精度的基础上,同时可以提高对每个独立模型的训练和优化速度。
附图说明
图1a是本发明实施例一中的一种安全帽的检测方法的流程图;
图1b是本发明实施例一中的方法的检测、识别过程的示例图;
图2a是本发明实施例二中的一种安全帽的检测方法的流程图;
图2b是本发明实施例二所适用的一种改进Inception模块与标准Inception模块的结构比对示意图;
图3是本发明实施例三中的一种安全帽的检测方法的流程图;
图4是本发明实施例四中的一种安全帽的检测装置的结构示意图;
图5是本发明实施例五中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明实施例作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明实施例,而非对本发明实施例的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明实施例相关的部分而非全部结构。
实施例一
图1a为本发明实施例一提供的一种安全帽的检测方法的流程图,本实施例可适用于使用相互独立的检测模型和识别模型对目标检测图像中的检测对象进行安全帽识别的情况,该方法可以由安全帽的检测装置来执行,该装置可以通过软件和/或硬件的方式实现,并一般可以集成在执行本方法的设备中,在本实施例中执行本方法的设备可以是服务器、计算机、平板电脑或者手机等可以执行数据计算功能的任意一种。具体的,参考图1a,该方法具体包括如下步骤:
S110、获取目标检测图像,其中,目标检测图像中包括至少一个检测对象。
其中,所述目标检测图像为在设定安全检测区域内采集得到的,包括有一个或者多个检测对象的图像。该安全检测区域具体是指要求用户佩戴安全帽才能活动的区域,例如,建筑工地或者地下矿井等特殊施工场景。该检测对象是指图像中包括的活体对象,也即,需要进行安全帽检测的人。
相应的,可以通过设置在安全检测区域内的一个或者多个摄像头,首先采集得到区域场景图像,之后对该区域场景图像进行人脸识别,并在确定该区域场景图像中包括有至少一张人脸时,将该区域场景图像作为目标检测图像。
或者,还可以在该安全检测区域内设置有活体检测装置,并在根据活体检测装置的输出结果,确定该安全检测区域内存在活体对象时,触发该安全检测区域内的一个或者多个摄像头,直接采集得到该目标检测图像。
S120、将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域。
在本实施例中,创造性的提出将安全帽的检测和识别任务,使用独立的检测模型和识别模型分别实现。相应的,需要首先通过检测模型在该目标检测图像中检测得到一个或者多个检测对象的头部所在区域。
具体的,该检测模型可以使用现有的各种可用于目标检测的通用机器学习模型,例如,CNN模型或者RNN模型等,进行适应性的训练后得到。
通过将目标检测图像输入至该检测模型中,该检测模型通过图像特征的提取,候选框检测,以及非极大值抑制等操作,可以最终以目标框标注的方式,在输出的目标检测图像中,标注出至少一个检测对象的头部所在区域。
S130、根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像。
在本实施例中,在获取检测模型标注得到的一个或者多个目标框之后,根据各目标框在目标检测图像中的图像位置坐标范围,可以在目标检测图像中分别截取得到与每个检测对象分别对应的头部区域图像。
其中,一个目标框用于标识一个检测对象的头部区域图像在目标检测图像中的检测位置。
S140、将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
在得到与每个检测对象分别对应的头部区域图像后,可以将每个头部区域图像分别输入至预先训练的分类模型中,由该分类模型对应输出每个检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
具体的,该分类模型可以使用现有的人工神经网络模型或者决策树模型等现有模型结构,进行适应性的训练后得到。
其中,在图1b中示出了本发明实施例一的方法的检测、识别过程的示例图。如图1b所示,本发明实施例的方案将检测和分类拆分为可分离的两个独立任务,通过上述拆分,可以将检测模型和分类模型的训练样本标注任务进行解耦,能够有效降低训练样本的标注难度。此外,通过将检测任务和分类任务进行解耦,可以让检测算法或者分类算法的算法优化变得更加容易。原因在于,如果将检测任务和分类任务耦合在一起,如果检测任务较为简单,分类任务较为复杂,那么对于一个整体的网络模型来说,既要负责检测也要负责分类,优化这一个网络就会导致算法比较复杂,如果将检测任务和分类任务进行解耦,那么检测部分的网络就可以设计的简单一些,分类任务的网络可以设计的复杂一些,而且对于大部分应用场景来说,需要分类的行人数量都不是很多,这样就可以有效提高系统性能。
本发明实施例通过获取包括有一个或者多个目标检测图像后,首先将目标检测图像输入至预先训练的检测模型中,得到各检测对象的头部所在区域,之后通过将各检测对象的头部区域图像分别输入至分类模型中,并得到各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果的技术手段,将现有的安全帽检测模块拆分为相互独立的检测模型和识别模型,进而能够降低对每个独立模型的训练样本的数据标注难度,减少数据标注的成本;同时,将两个任务进行解耦,让算法优化变得更加容易,加快算法开发进度,降低算法开发的成本,进而可以有效提高安全帽的检测精度,在保证安全帽检测精度的基础上,同时可以提高对每个独立模型的训练和优化速度。
实施例二
图2a是本发明实施例二中的一种安全帽检测方法的流程图,本实施例是对上述各技术方案的进一步细化,本实施例中的技术方案可以与上述一个或者多个实施例中的各个可选方案结合。如图2a所示,所述方法可以包括如下步骤:
S210、获取预先标注有样本对象的头部所在区域的多个检测图像样本,并将各所述检测图像样本划分为训练样本集和测试样本集。
在本实施例中,由于将检测任务和识别任务进行了解耦,因此,对于检测任务,数据标注的时候不需要特别关注类别平衡问题,只要获取预先标注有样本对象头部所在区域的多个检测图像样本作为正样本集合,并将该正样本集合划分为训练样本集和测试样本集后,对设定机器学习模型进行迭代训练即可。
具体的,所述样本对象同样是指活体对象。相应的,在各检测图像样本中包括的样本对象的数量可以相同或者不同,样本对象的姿态可以相同或者不同,样本对象的头部所在区域在检测图样样本中的所占的尺寸或位置可以相同或者不同。
S220、使用训练样本集和测试样本集对第一机器学习模型进行迭代训练和测试,直至所述第一机器学习模型的检测精度达到预设的检测精度阈值,以得到所述检测模型。
在本实施例中,可以首先使用训练样本集中设定数量(例如,100个)的训练样本对该第一机器学习模型进行训练,并在训练完成后,使用测试样本集中设定数量(例如,50个)的测试样本对该第一机器学习模型的检测精度进行验证,如果该检测精度超过预设的检测精度阈值(例如,98%),则可以停止使用训练样本集中的训练样本对该第一机器学习模型进行继续训练。如果该检测精度未达到该检测精度阈值,则可以继续使用训练样本集中设定数量的新的训练样本对该第一机器学习模型进行继续训练,直至使用测试样本集中设定数量的测试样本对该第一机器学习模型的检测精度进行验证后,该检测精度超过预设的检测精度阈值,以最终得到该检测模型。
在本实施例中,发明人考虑到目前的各种安全帽检测场景中,每个目标检测图像中包括的检测对象一般较多,进而每个检测对象在目标检测图像中所占的图像比例一般都非常小,也即,本发明实施例中的检测任务主要应用在小目标检测场景中。相应的,本实施例中所使用的所述第一机器学习模型为融合特征金字塔网络和单次多边框检测器网络的模型,以有效进行小目标检测。
其中,单次多边框检测器的主要原理是,提取了不同尺度的特征图来做检测,大尺度特征图(较靠前的特征图)可以用来检测小物体,而小尺度特征图(较靠后的特征图)用来检测大物体;此外,SSD采用了不同尺度和长宽比的先验框,预测得到密集的多个候选框,以最终获取对检测对象的头部区域候选框的标注结果。
特征金字塔网络(Feature Pyramid Networks,FPN)构架了一个可以进行端到端训练的特征金字塔;通过CNN网络的层次结构高效的进行强特征计算;通过结合bottom-up(自下而上的)与top-down(自上而下的)方法获得较强的语义特征,提高目标检测和实例分割在多个数据集上面的性能表现,这种网络结构,能够在增加较少计算量的前提下,融合低分辨率语义信息较强的特征图和高分辨率语义信息较弱,但空间信息丰富的特征图。
S230、获取与安全帽检测需求匹配的多个安全帽图像样本,并将各所述安全帽图像样本划分为训练样本集和测试样本集。
其中,获取与安全帽检测需求匹配的多个安全帽图像样本,包括下述至少一项:
响应于不限颜色的安全帽检测需求,获取多个不同颜色的第一类安全帽图像样本;响应于目标颜色的安全帽检测需求,获取多个所述目标颜色的第二类安全帽图像样本;以及响应于对安全帽和安全帽颜色的检测需求,获取多个不同颜色的第三类安全帽图像样本,各所述第三类安全帽图像样本中预先标注有匹配的安全帽颜色。
在本实施例中,可以针对不同的安全帽检测场景,构建不同类型的安全帽图像样本,以满足不同类型的安全帽测试需求。具体的,某些安全检测区域只要求进入其中的用户佩戴安全帽即可,不需要进一步限定所佩戴安全帽的颜色,或者,某一些安全检测区域的要求更加严格,必要要求进入其中的用户佩戴特定的一种或者多张颜色的安全帽才行。
相应的,可以根据不同的安全帽检测场景,标注匹配的安全帽图像样本,以训练得到相应的分类模型。
需要再次说明的是,由于对于检测任务,数据标注的时候不需要特别关注类别平衡问题,达到检测指标后,检测部分就不需要再进行标注了,后面只需要关注分类任务即可。相应的,分类任务的标注工作要比检测容易很多,只需要标注想要的类别,其他类别不用标注,如果检测和分类耦合在一起,如果分类精度达不到要求,那么在一张图像中,就不能只标注需要的那个类别,其他类别也需要标注,这样不仅增加标注工作流还很容易造成类别不平衡的问题。
相应的,在本实施例中,在标注用于训练分类模型的训练样本时,仅需要标注不限颜色的,或者设定的一个或者多个颜色的安全帽图像样本即可,这大大简化了样本的标注难度。
S240、使用训练样本集和测试样本集对第二机器学习模型进行迭代训练和测试,直至所述第二机器学习模型的分类精度达到预设的分类精度阈值,以得到所述分类模型。
在本实施例中,可以首先使用训练样本集中设定数量(例如,100个)的训练样本对该第二机器学习模型进行训练,并在训练完成后,使用测试样本集中设定数量(例如,50个)的测试样本对该第二机器学习模型的分类精度进行验证,如果该分类精度超过预设的分类精度阈值(例如,98%),则可以停止使用训练样本集中的训练样本对该第二机器学习模型进行继续训练。如果该分类精度未达到该分类精度阈值,则可以继续使用训练样本集中设定数量的新的训练样本对该第二机器学习模型进行继续训练,直至使用测试样本集中设定数量的测试样本对该第二机器学习模型的分类精度进行验证后,该分类精度超过预设的分类精度阈值,以最终得到该分类模型。
在本实施例的一个可选的实施方式中,所述第二机器学习模型可以为改进InceptionV3模型,所述改进InceptionV3模型中包括的改进Inception模块的数量值,小于标准InceptionV3模型中的标准Inception模块的数量值;
其中,改进Inception模块中仅包括:相连的卷积网络和激活网络;所述激活网络中使用带参数的线性整流函数作为激活函数。
现有技术中,标准InceptionV3模型由固定数量的标准Inception模块顺次相连构成,每个标准Inception模块中具体包括:顺次相连的卷积网络、标准化网络、归一化网络以及线性整流网络,也即ReLU(Rectified Linear Unit,带参数的线性整流函数)。
发明人在实现本发明的过程中,发现目前广泛使用的标准InceptionV3模型虽然精度较高,但是由于模型较大速度较慢,往往不能满足安全帽检测场景对实时性的需求。
相应的,本发明实施例基于具体的安全帽检测场景,提出了对该标准InceptionV3模型的下述改进。
首先,删除了标准Inception模块中的标准化网络和归一化网络,可以有效提高训练和推理的速度,同时,将标准Inception模块中的线性整流网络使用带参数的线性整流网络,也即PReLU(Parametric Rectified Linear Unit,带参数的线性整流函数)代替,可以有效避免ReLU在负数区间中斜率为0的问题,通过对标准Inception模块的上述修改,可以得到改进InceptionV3模块。相应的,将多个改进InceptionV3模块顺次相连,可以得到改进InceptionV3模型。
进一步的,可以减少改进InceptionV3模型中包括的改进InceptionV3模块的数量值,典型的,少于标准InceptionV3模型中的标准Inception模块的数量值,可以在保证识别精度的同时可以有效提高训练和推理的速度。
发明人通过实验发现,在改进InceptionV3模型中使用3个改进InceptionV3模块时,可以实现最大性能的有效性和可靠性的折中。
其中,在图2b中示出了本发明实施例二所适用的一种改进Inception模块与标准Inception模块的结构比对示意图。
S250、获取目标检测图像,其中,目标检测图像中包括至少一个检测对象。
S260、将目标检测图像输入至预先训练的检测模型中。
S270、通过所述检测模型中的SSD网络输出多个不同尺度的特征图,并将各特征图输入至所述特征金字塔网络中,得到融合高低分辨率特征后的多个新的融合特征图。
在本实施例中,通过使用特征金字塔网络,能够将高层和低层特征进行融合,增强了对小目标的特征提取能力,能够有效提高SSD对小目标的检测率。
S280、通过所述特征金字塔网络将所述多个新的融合特征图输入至候选框检测网络中,在所述目标检测图像中标注得到至少一个头部区域候选框。
S290、通过候选框检测网络将标注有所述头部区域候选框的目标检测图像输入至非极大值抑制(Non-Maximum Suppression,NMS)网络中,获取在所述目标检测图像中检测得到的至少一个检测对象的头部区域。
其中,非极大值抑制,顾名思义就是抑制不是极大值的元素,用于目标检测中,就是提取置信度高的目标检测框,而抑制置信度低的误检框。一般来说,用在当解析模型输出到目标框时,目标框会非常多,其中有很多重复的框定位到同一个目标,NMS用来去除这些重复的框,获得真正的目标框。
S2100、根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像。
S2110、将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
在本实施例中,根据分类模型所适用的安全帽检测需求,可以最终得到目标检测图像中包括的一个或者多个检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
本发明实施例的技术方案通过使用融合特征金字塔网络和SSD网络的模型训练得到的检测模型,可以增强了对小目标的特征提取能力,特别适用于安全帽检测场景中的安全帽检测,大大提高对安全帽的检测率;同时,通过对训练识别模型时所适用的改进InceptionV3模型中使用的改进Inception模块的数量,以及Inception模块的结构进行改进,可以在保证识别精度的同时,可以有效提高识别模型的训练和推理的速度。
实施例三
图3是本发明实施例三中的一种安全帽检测方法的流程图,本实施例是对上述各技术方案的进一步细化,本实施例中的技术方案可以与上述一个或者多个实施例中的各个可选方案结合。如图3所示,所述方法可以包括如下步骤:
S310、获取目标检测图像,其中,目标检测图像中包括至少一个检测对象。
S320、将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域。
S330、根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像。
S340、将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
S350、根据分类模型输出的分类结果,获取未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象的头部区域图像。
在本实施例中,考虑到根据对目标检测图像的识别,确定出现在安全检测区域内的用户是否佩戴符合安全规定的安全帽并不是最终的目的,对这些没有佩戴或者说没有正确佩戴安全帽的用户进行有效的安全提示,才是最终的目的。
基于此,本发明实施例的技术方案在根据分类模型输出的分类结果,获取未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象之后,需要进一步定位异常检测对象的身份信息,进而对上述异常检测对象进行有效的安全提示。
相应的,可以首先在目标检测图像中,提取与每个异常检测对象分别对应的头部区域图像,进而可以通过人脸识别技术,对上述各异常检测对象进行一次身份识别。
此外,发明人进一步考虑到目标检测图像中每个检测对象的姿态和朝向监控摄像头的角度都是未知的,因此,直接通过人脸识别的方式,可能无法准确的定位出每个异常检测对象的身份信息。基于此,发明人进一步考虑结合异常检测对象的衣着信息,与人脸识别结果一同进行身份识别。
S360、根据所述异常检测对象的头部区域图像,在所述目标检测图像定位各异常检测对象的轮廓图像。
如前所述,通过在目标检测图像中定位到每个异常检测对象的头部区域图像,可以进而在目标检测图像中定位到每个异常检测对象的轮廓图像。
S370、对各所述异常检测对象的头部区域图像进行人脸识别,并在各异常检测对象的轮廓图像中提取衣着特征信息。
具体的,所述衣着特征信息可以包括下述至少一项:上衣款式、上衣颜色配色方式、下衣款式、下衣颜色配色方式、鞋子款式以及鞋子颜色等。
S380、根据与各异常检测对象的人脸识别结果以及衣着特征信息,获取各异常检测对象的身份识别信息。
在本实施例中,发明人创造性的提出同时结合每个异常检测对象的人脸识别结果以及衣着特征信息,对每个异常检测对象进行身份识别,并获取相应的身份识别信息。
可选的,可以在每个用户进入安全检测区域之前,首先要求每个用户拍摄一张正面全身像,进而可以收集得到每个用户清晰而准确的标准人脸特征信息和标准衣着特征信息,通过将各异常检测对象的人脸识别结果以及衣着特征信息与上述各标准人脸特征信息和标准衣着特征信息,可以准确的识别出每个异常检测对象的身份识别信息。
S390、根据各异常检测对象的身份识别信息,对各所述异常检测对象进行安全帽佩戴提示。
具体的,可以通过发送短信、拨打电话的方式,在安全检测区域内广播的方式,对各所述异常检测对象进行安全帽佩戴提示。
当然,本领域技术人员可以理解的是,还可以采取其他的提示方式对各所述异常检测对象进行安全帽佩戴提示,本发明实施例对此并不进行限制。
本发明实施例的技术方案通过根据分类模型输出的分类结果,获取未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象的头部区域图像;根据所述异常检测对象的头部区域图像,在所述目标检测图像定位各异常检测对象的轮廓图像;对各所述异常检测对象的头部区域图像进行人脸识别,并在各异常检测对象的轮廓图像中提取衣着特征信息;根据与各异常检测对象的人脸识别结果以及衣着特征信息,获取各异常检测对象的身份识别信息;根据各异常检测对象的身份识别信息,对各所述异常检测对象进行安全帽佩戴提示的方式,可以实现在根据识别模型的输出结果确定存在未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象时,通过在目标检测图像中重新识别该异常检测对象的人脸特征以及衣着特征,可以精准的定位该异常检测对象,进而可以对该异常检测对象进行有效的安全帽佩戴提示,实现了对未佩戴安全帽用户的及时、精准的提示,以最大程度的降低安全风险。
实施例四
图4是本发明实施例四中的一种安全帽的检测装置的结构示意图,该装置可以执行上述各实施例中涉及到的安全帽的检测方法。参照图4,该装置包括:目标检测图像获取模块410、头部所在区域检测模块420、头部区域图像截取模块430以及分类结果获取模块440,其中:
目标检测图像获取模块410,用于获取目标检测图像,其中,目标检测图像中包括至少一个检测对象。
头部所在区域检测模块420,用于将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域。
头部区域图像截取模块430,用于根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像。
分类结果获取模块440,用于将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
本发明实施例通过获取包括有一个或者多个目标检测图像后,首先将目标检测图像输入至预先训练的检测模型中,得到各检测对象的头部所在区域,之后通过将各检测对象的头部区域图像分别输入至分类模型中,并得到各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果的技术手段,将现有的安全帽检测模块拆分为相互独立的检测模型和识别模型,进而能够降低对每个独立模型的训练样本的数据标注难度,减少数据标注的成本;同时,将两个任务进行解耦,让算法优化变得更加容易,加快算法开发进度,降低算法开发的成本,进而可以有效提高安全帽的检测精度,在保证安全帽检测精度的基础上,同时可以提高对每个独立模型的训练和优化速度。
在上述各实施例的基础上,还可以包括:
检测图像样本获取模块,用于在将目标检测图像输入至预先训练的检测模型中之前,获取预先标注有样本对象的头部所在区域的多个检测图像样本,并将各所述检测图像样本划分为训练样本集和测试样本集;
检测模型训练模块,用于使用训练样本集和测试样本集对第一机器学习模型进行迭代训练和测试,直至所述第一机器学习模型的检测精度达到预设的检测精度阈值,以得到所述检测模型。
在上述各实施例的基础上,所述第一机器学习模型可以为融合特征金字塔网络和单次多边框检测器SSD网络的模型;
相应的,头部所在区域检测模块420,具体可以用于:
将目标检测图像输入至预先训练的检测模型中;
通过所述检测模型中的SSD网络输出多个不同尺度的特征图,并将各特征图输入至所述特征金字塔网络中,得到融合高低分辨率特征后的多个新的融合特征图;
通过所述特征金字塔网络将所述多个新的融合特征图输入至候选框检测网络中,在所述目标检测图像中标注得到至少一个头部区域候选框;
通过所述候选框检测网络将标注有所述头部区域候选框的目标检测图像输入至非极大值抑制网络中,获取在所述目标检测图像中检测得到的至少一个检测对象的头部区域。
在上述各实施例的基础上,还可以包括:
安全帽图像样本获取模块,用于在将各检测对象的头部区域图像分别输入至分类模型中之前,获取与安全帽检测需求匹配的多个安全帽图像样本,并将各所述安全帽图像样本划分为训练样本集和测试样本集;
分类模型训练模块,用于使用训练样本集和测试样本集对第二机器学习模型进行迭代训练和测试,直至所述第二机器学习模型的分类精度达到预设的分类精度阈值,以得到所述分类模型。
在上述各实施例的基础上,安全帽图像样本获取模块,具体可以用于实现下述至少一项:
响应于不限颜色的安全帽检测需求,获取多个不同颜色的第一类安全帽图像样本;
响应于目标颜色的安全帽检测需求,获取多个所述目标颜色的第二类安全帽图像样本;以及
响应于对安全帽和安全帽颜色的检测需求,获取多个不同颜色的第三类安全帽图像样本,各所述第三类安全帽图像样本中预先标注有匹配的安全帽颜色。
在上述各实施例的基础上,所述第二机器学习模型可以为改进InceptionV3模型,所述改进InceptionV3模型中包括的改进Inception模块的数量值,小于标准InceptionV3模型中的标准Inception模块的数量值;
其中,改进Inception模块中可以仅包括:相连的卷积网络和激活网络;所述激活网络中使用带参数的线性整流函数作为激活函数。
在上述各实施例的基础上,还可以包括:安全帽佩戴提示模块,用于:
在获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果之后,根据分类模型输出的分类结果,获取未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象的头部区域图像;
根据所述异常检测对象的头部区域图像,在所述目标检测图像定位各异常检测对象的轮廓图像;
对各所述异常检测对象的头部区域图像进行人脸识别,并在各异常检测对象的轮廓图像中提取衣着特征信息;
根据与各异常检测对象的人脸识别结果以及衣着特征信息,获取各异常检测对象的身份识别信息;
根据各异常检测对象的身份识别信息,对各所述异常检测对象进行安全帽佩戴提示。
本发明实施例所提供的安全帽的检测装置可执行本发明任意实施例所提供的安全帽的检测方法,具备执行方法相应的功能模块和有益效果。
实施例五
图5为本发明实施例5提供的一种计算机设备结构示意图,如图5所示,该计算机设备包括处理器50、存储器51、输入装置52和输出装置53;计算机设备中处理器50的数量可以是一个或多个,图5中以一个处理器50为例;计算机设备中的处理器50、存储器51、输入装置52和输出装置53可以通过总线或其他方式连接,图5中以通过总线连接为例。
存储器51作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的安全帽的检测方法对应的程序指令/模块(例如,目标检测图像获取模块410、头部所在区域检测模块420、头部区域图像截取模块430以及分类结果获取模块440)。处理器50通过运行存储在存储器51中的软件程序、指令以及模块,从而执行设备/终端/服务器的各种功能应用以及数据处理,即实现上述的安全帽的检测方法,该方法包括:
获取目标检测图像,其中,目标检测图像中包括至少一个检测对象;
将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域;
根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;
将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
存储器51可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器51可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器51可进一步包括相对于处理器50远程设置的存储器,这些远程存储器可以通过网络连接至计算机设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置52可用于接收输入的数字或字符信息,以及产生与计算机设备的用户设置以及功能控制有关的键信号输入。输出装置53可包括显示屏等显示设备。
实施例六
本发明实施例六还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种安全帽的检测方法,该方法包括:
获取目标检测图像,其中,目标检测图像中包括至少一个检测对象;
将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域;
根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;
将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的安全帽的检测方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述安全帽的检测装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种安全帽的检测方法,其特征在于,包括:
获取目标检测图像,其中,目标检测图像中包括至少一个检测对象;
将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域;
根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;
将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
2.根据权利要求1所述的方法,其特征在于,在将目标检测图像输入至预先训练的检测模型中之前,还包括:
获取预先标注有样本对象的头部所在区域的多个检测图像样本,并将各所述检测图像样本划分为训练样本集和测试样本集;
使用训练样本集和测试样本集对第一机器学习模型进行迭代训练和测试,直至所述第一机器学习模型的检测精度达到预设的检测精度阈值,以得到所述检测模型。
3.根据权利要求2所述的方法,其特征在于,所述第一机器学习模型为融合特征金字塔网络和单次多边框检测器SSD网络的模型;
将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域,包括:
将目标检测图像输入至预先训练的检测模型中;
通过所述检测模型中的SSD网络输出多个不同尺度的特征图,并将各特征图输入至所述特征金字塔网络中,得到融合高低分辨率特征后的多个新的融合特征图;
通过所述特征金字塔网络将所述多个新的融合特征图输入至候选框检测网络中,在所述目标检测图像中标注得到至少一个头部区域候选框;
通过所述候选框检测网络将标注有所述头部区域候选框的目标检测图像输入至非极大值抑制网络中,获取在所述目标检测图像中检测得到的至少一个检测对象的头部区域。
4.根据权利要求1所述的方法,其特征在于,在将各检测对象的头部区域图像分别输入至分类模型中之前,还包括:
获取与安全帽检测需求匹配的多个安全帽图像样本,并将各所述安全帽图像样本划分为训练样本集和测试样本集;
使用训练样本集和测试样本集对第二机器学习模型进行迭代训练和测试,直至所述第二机器学习模型的分类精度达到预设的分类精度阈值,以得到所述分类模型。
5.根据权利要求4所述的方法,其特征在于,获取与安全帽检测需求匹配的多个安全帽图像样本,包括下述至少一项:
响应于不限颜色的安全帽检测需求,获取多个不同颜色的第一类安全帽图像样本;
响应于目标颜色的安全帽检测需求,获取多个所述目标颜色的第二类安全帽图像样本;以及
响应于对安全帽和安全帽颜色的检测需求,获取多个不同颜色的第三类安全帽图像样本,各所述第三类安全帽图像样本中预先标注有匹配的安全帽颜色。
6.根据权利要求5所述的方法,其特征在于,所述第二机器学习模型为改进InceptionV3模型,所述改进InceptionV3模型中包括的改进Inception模块的数量值,小于标准InceptionV3模型中的标准Inception模块的数量值;
其中,改进Inception模块中仅包括:相连的卷积网络和激活网络;所述激活网络中使用带参数的线性整流函数作为激活函数。
7.根据权利要求1-6任一项所述的方法,其特征在于,在获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果之后,还包括:
根据分类模型输出的分类结果,获取未佩戴安全帽或者未佩戴设定颜色的安全帽的异常检测对象的头部区域图像;
根据所述异常检测对象的头部区域图像,在所述目标检测图像定位各异常检测对象的轮廓图像;
对各所述异常检测对象的头部区域图像进行人脸识别,并在各异常检测对象的轮廓图像中提取衣着特征信息;
根据与各异常检测对象的人脸识别结果以及衣着特征信息,获取各异常检测对象的身份识别信息;
根据各异常检测对象的身份识别信息,对各所述异常检测对象进行安全帽佩戴提示。
8.一种安全帽的检测装置,其特征在于,包括:
目标检测图像获取模块,用于获取目标检测图像,其中,目标检测图像中包括至少一个检测对象;
头部所在区域检测模块,用于将目标检测图像输入至预先训练的检测模型中,并获取检测模型输出的,在所述目标检测图像中检测得到的至少一个检测对象的头部所在区域;
头部区域图像截取模块,用于根据检测模型输出的检测结果,在目标检测图像中分别截取各检测对象的头部区域图像;
分类结果获取模块,用于将各检测对象的头部区域图像分别输入至分类模型中,并获取分类模型输出的各检测对象是否佩戴安全帽,或者是否佩戴设定颜色的安全帽的分类结果。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的安全帽的检测方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的安全帽的检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110811733.3A CN113516082A (zh) | 2021-07-19 | 2021-07-19 | 安全帽的检测方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110811733.3A CN113516082A (zh) | 2021-07-19 | 2021-07-19 | 安全帽的检测方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113516082A true CN113516082A (zh) | 2021-10-19 |
Family
ID=78068504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110811733.3A Pending CN113516082A (zh) | 2021-07-19 | 2021-07-19 | 安全帽的检测方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516082A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495191A (zh) * | 2021-11-30 | 2022-05-13 | 珠海亿智电子科技有限公司 | 一种基于端侧的组合式安全帽佩戴实时检测方法 |
CN117853979A (zh) * | 2024-01-08 | 2024-04-09 | 北京远鉴信息技术有限公司 | 一种安全帽佩戴的检测方法、装置、电子设备及存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629261A (zh) * | 2017-03-24 | 2018-10-09 | 纬创资通股份有限公司 | 远距离的身份识别方法及其系统与计算机可读取记录媒体 |
CN110188724A (zh) * | 2019-06-05 | 2019-08-30 | 中冶赛迪重庆信息技术有限公司 | 基于深度学习的安全帽定位与颜色识别的方法及系统 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN111178252A (zh) * | 2019-12-27 | 2020-05-19 | 东北大学 | 多特征融合的身份识别方法 |
CN111191586A (zh) * | 2019-12-30 | 2020-05-22 | 安徽小眯当家信息技术有限公司 | 一种施工现场人员安全帽佩戴情况巡检方法及系统 |
CN111476083A (zh) * | 2020-02-07 | 2020-07-31 | 山东理工大学 | 一种电力员工安全帽佩戴自动识别方法 |
CN111815577A (zh) * | 2020-06-23 | 2020-10-23 | 深圳供电局有限公司 | 安全帽佩戴检测模型处理方法、装置、设备和存储介质 |
CN112084838A (zh) * | 2020-07-20 | 2020-12-15 | 河海大学 | 一种车间安全帽检测方法 |
CN112149512A (zh) * | 2020-08-28 | 2020-12-29 | 成都飞机工业(集团)有限责任公司 | 一种基于两阶段深度学习的安全帽佩戴识别方法 |
CN112149513A (zh) * | 2020-08-28 | 2020-12-29 | 成都飞机工业(集团)有限责任公司 | 基于深度学习的工业制造现场安全帽佩戴识别系统和方法 |
-
2021
- 2021-07-19 CN CN202110811733.3A patent/CN113516082A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108629261A (zh) * | 2017-03-24 | 2018-10-09 | 纬创资通股份有限公司 | 远距离的身份识别方法及其系统与计算机可读取记录媒体 |
CN110188724A (zh) * | 2019-06-05 | 2019-08-30 | 中冶赛迪重庆信息技术有限公司 | 基于深度学习的安全帽定位与颜色识别的方法及系统 |
CN110222672A (zh) * | 2019-06-19 | 2019-09-10 | 广东工业大学 | 施工现场的安全帽佩戴检测方法、装置、设备及存储介质 |
CN111178252A (zh) * | 2019-12-27 | 2020-05-19 | 东北大学 | 多特征融合的身份识别方法 |
CN111191586A (zh) * | 2019-12-30 | 2020-05-22 | 安徽小眯当家信息技术有限公司 | 一种施工现场人员安全帽佩戴情况巡检方法及系统 |
CN111476083A (zh) * | 2020-02-07 | 2020-07-31 | 山东理工大学 | 一种电力员工安全帽佩戴自动识别方法 |
CN111815577A (zh) * | 2020-06-23 | 2020-10-23 | 深圳供电局有限公司 | 安全帽佩戴检测模型处理方法、装置、设备和存储介质 |
CN112084838A (zh) * | 2020-07-20 | 2020-12-15 | 河海大学 | 一种车间安全帽检测方法 |
CN112149512A (zh) * | 2020-08-28 | 2020-12-29 | 成都飞机工业(集团)有限责任公司 | 一种基于两阶段深度学习的安全帽佩戴识别方法 |
CN112149513A (zh) * | 2020-08-28 | 2020-12-29 | 成都飞机工业(集团)有限责任公司 | 基于深度学习的工业制造现场安全帽佩戴识别系统和方法 |
Non-Patent Citations (2)
Title |
---|
张建明等: ""面向小目标检测结合特征金字塔网络的SSD 改进模型"", 《郑州大学学报理学版》, pages 1 - 7 * |
计算机视觉技术指南: ""CNN结构演变总结(二)轻量化模型"", 《知乎》, pages 1 - 5 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114495191A (zh) * | 2021-11-30 | 2022-05-13 | 珠海亿智电子科技有限公司 | 一种基于端侧的组合式安全帽佩戴实时检测方法 |
CN117853979A (zh) * | 2024-01-08 | 2024-04-09 | 北京远鉴信息技术有限公司 | 一种安全帽佩戴的检测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106372662B (zh) | 安全帽佩戴的检测方法和装置、摄像头、服务器 | |
CN108022235B (zh) | 高压输电铁塔关键部件缺陷识别方法 | |
CN111950424B (zh) | 一种视频数据处理方法、装置、计算机及可读存储介质 | |
CN111726586A (zh) | 一种生产体系操作规范监测提醒系统 | |
CN110543867A (zh) | 一种多摄像头条件下的人群密度估测系统及方法 | |
CN111814638B (zh) | 基于深度学习的安防场景火焰检测方法 | |
CN112381104B (zh) | 一种图像识别方法、装置、计算机设备及存储介质 | |
CN112052815B (zh) | 一种行为检测方法、装置及电子设备 | |
CN113516082A (zh) | 安全帽的检测方法、装置、计算机设备及存储介质 | |
CN113269091A (zh) | 一种面向智慧园区的人员轨迹分析方法、设备及介质 | |
CN112307886A (zh) | 行人重识别方法和装置 | |
CN115170792B (zh) | 红外图像处理方法、装置及设备、存储介质 | |
CN108960124A (zh) | 用于行人再识别的图像处理方法及装置 | |
CN111325133A (zh) | 一种基于人工智能识别的影像处理系统 | |
CN114943923B (zh) | 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统 | |
CN111738199A (zh) | 图像信息验证方法、装置、计算装置和介质 | |
CN113673308B (zh) | 对象识别方法、装置和电子系统 | |
CN111950507B (zh) | 数据处理和模型训练方法、装置、设备及介质 | |
CN116758493B (zh) | 基于图像处理的隧道施工监测方法、装置及可读存储介质 | |
CN112132011A (zh) | 一种面部识别方法、装置、设备及存储介质 | |
CN116189286A (zh) | 一种视频图像暴力行为检测模型及检测方法 | |
CN114038045A (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 | |
CN114241363A (zh) | 工序识别方法、装置、电子设备和存储介质 | |
CN115995093A (zh) | 一种基于改进YOLOv5的安全帽佩戴识别方法 | |
CN110751065B (zh) | 训练数据的采集方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220524 Address after: 211100 No. 519 Chengxin Avenue, Jiangning District, Nanjing City, Jiangsu Province Applicant after: SUGON NANJING RESEARCH INSTITUTE Co.,Ltd. Address before: 100193 No. 36 Building, No. 8 Hospital, Wangxi Road, Haidian District, Beijing Applicant before: Dawning Information Industry (Beijing) Co.,Ltd. |
|
TA01 | Transfer of patent application right |