CN111460902B - 视觉数据中防护设备的检测方法、系统、装置和存储介质 - Google Patents
视觉数据中防护设备的检测方法、系统、装置和存储介质 Download PDFInfo
- Publication number
- CN111460902B CN111460902B CN202010146025.8A CN202010146025A CN111460902B CN 111460902 B CN111460902 B CN 111460902B CN 202010146025 A CN202010146025 A CN 202010146025A CN 111460902 B CN111460902 B CN 111460902B
- Authority
- CN
- China
- Prior art keywords
- output layer
- yolo
- model
- visual data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种防护设备的检测方法、系统、装置和存储介质。所述检测方法包括获取视觉数据,将所述视觉数据输入到YOLO‑v3模型中,获取所述YOLO‑v3模型的输出结果,在对应同一防护设备类型的范围内,对各所述边界框进行非最大值抑制,以及对所有所述边界框进行非最大值抑制等步骤。本发明防护设备检测方法工作过程中无需与工作人员进行接触,具有不易受损的特点,且具有良好的客观性和可靠性;在实际使用时,只需要在合适位置设置视觉数据拍摄装置,即可实施防护设备检测方法,在拍摄装置的视野范围内的人员都属于检测范围,可以低成本、高效地进行检测。本发明广泛应用于图像检测技术领域。
Description
技术领域
本发明涉及图像检测技术领域,尤其是一种视觉数据中防护设备的检测方法、系统、装置和存储介质。
背景技术
对建设工地、生产流水线等的工作人员进行对个人防护设备(PPE)穿戴的检查和监督,可以促使工作人员合规穿戴防护设备,为安全生产提供有力支持。但是人工的检查和监督往往效率低、可靠性低,而且依赖人工去实现还伴随着疏忽甚至作弊等情况发生。
一种现有技术是对防护设备进行改装,例如向防护设备加装监控硬件,如果防护设备未被穿戴或未被正确穿戴,则监控硬件会发出警报信号。这种现有技术虽然能一定程度上提高效率和客观性,但是其安装在穿戴防护设备,存在损坏的可能性,当防护设备的数量较多时存在误报或漏报的可能性,而且由于需要投入新的硬件和软件,将产生较高的使用成本。
发明内容
针对上述至少一个技术问题,本发明的目的在于提供一种视觉数据中防护设备的检测方法、系统、装置和存储介质。
一方面,本发明实施例包括一种视觉数据中防护设备的检测方法,包括以下步骤:
获取视觉数据;所述视觉数据能够显示出至少一个人员;
将所述视觉数据输入到YOLO-v3模型中;所述YOLO-v3模型包括依次连接的第一输出层、第二输出层和第三输出层,所述第一输出层的尺寸为s1×s1×b×(2n+5),所述第二输出层的尺寸为s2×s2×b×(2n+5),所述第三输出层的尺寸为s3×s3×b×(2n+5),s1为所述第一输出层中每个网格的尺寸,s2为所述第二输出层中每个网格的尺寸,s3为所述第三输出层中每个网格的尺寸,b为所述第一输出层中每个网格所使用的边界框的数量,n为所要识别的防护设备的类型数量;所述第一输出层、第二输出层和第三输出层中的至少一个由多分类激活函数激活;
获取所述YOLO-v3模型的输出结果;所述YOLO-v3模型的输出结果为使用边界框标示出所述视觉数据中的所有人员,以及每个人员所穿戴的防护设备的类型;
在对应同一防护设备类型的范围内,对各所述边界框进行非最大值抑制;
对所有所述边界框进行非最大值抑制。
进一步地,所述多分类激活函数为Softmax激活函数。
进一步地,所述YOLO-v3模型的训练过程包括:
使用第一数据集对所述YOLO-v3模型进行训练,使得所述YOLO-v3模型中的各层获得权重;
使用第二数据集对所述YOLO-v3模型中的第一输出层、第二输出层和第三输出层进行训练,使得所述第一输出层、第二输出层和第三输出层获得权重。
进一步地,所述YOLO-v3模型的训练过程还包括:
对所述YOLO-v3模型中各层的权重进行调整,使得所述YOLO-v3模型的学习速率达到目标值。
进一步地,所述对所述YOLO-v3模型中的各层的权重进行调整,使得所述YOLO-v3模型的学习率达到目标值这一步骤,具体包括:
在每次调整所述YOLO-v3模型中各层的权重后,检测所述YOLO-v3模型的验证损失;
当连续三次调整对应的验证损失均不减小,则将学习率调整至一半的水平;
当连续三次调整对应的验证损失均不减小,则将学习率调整至零。
进一步地,所述第一数据集为COCO数据集,所述第二数据集为Pictor-v3数据集。
进一步地,所述检测方法还包括以下步骤:
对所述第一数据集和/或第二数据集进行数据增强操作;所述数据增强操作包括按比例放缩、平移、翻转以及色彩空间中的至少一种。
另一方面,本发明实施例还包括一种视觉数据中防护设备的检测系统,包括:
数据获取模块,用于获取视觉数据;所述视觉数据能够显示出至少一个人员;
数据输入模块,用于将所述视觉数据输入到YOLO-v3模型中;所述YOLO-v3模型包括依次连接的第一输出层、第二输出层和第三输出层,所述第一输出层的尺寸为s1×s1×b×(2n+5),所述第二输出层的尺寸为s2×s2×b×(2n+5),所述第三输出层的尺寸为s3×s3×b×(2n+5),s1为所述第一输出层中每个网格的尺寸,s2为所述第二输出层中每个网格的尺寸,s3为所述第三输出层中每个网格的尺寸,b为所述第一输出层中每个网格所使用的边界框的数量,n为所要识别的防护设备的类型数量;所述第一输出层、第二输出层和第三输出层中的至少一个由多分类激活函数激活;
数据输出模块,用于获取所述YOLO-v3模型的输出结果;所述YOLO-v3模型的输出结果为使用边界框标示出所述视觉数据中的所有人员,以及每个人员所穿戴的防护设备的类型;
第一抑制模块,用于在对应同一防护设备类型的范围内,对各所述边界框进行非最大值抑制;
第二抑制模块,用于对所有所述边界框进行非最大值抑制。
另一方面,本发明实施例还包括一种防护设备的检测装置,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行实施例中的防护设备的检测方法。
另一方面,本发明实施例还包括一种存储介质,其中存储有处理器可执行的指令,所述处理器可执行的指令在由处理器执行时用于执行实施例所述的物体形状测量方法。
本发明的有益效果是:实施例中的防护设备检测方法是基于对视觉数据的分析而进行的,由于视觉数据的获取过程中无需与工作人员进行接触,用于获取视觉数据的设备也不会被工作人员接触到,因此具有不易受损的特点;使用YOLO-v3模型和机器学习分类器的过程基于计算机数据处理,具有良好的客观性和可靠性;在实际使用时,只需要在建设工地以及生产流水线等场合的合适位置设置视觉数据拍摄装置,即可实施本实施例中的防护设备检测方法,在拍摄装置的视野范围内的工作人员都属于检测范围,因此可以低成本、高效地进行检测。
附图说明
图1为实施例中防护设备检测方法的流程图。
具体实施方式
实施例1
本实施例中的检测方法,目的是从包含有工作人员的视觉数据中,检测出含有工作人员的部分,并检测工作人员所穿戴的防护设备的类型,而工人未穿戴防护设备也可以视为工作人员所穿戴的防护设备的一种类型。所述视觉数据包括图像和视频等,具体可以是视频中的一个片段或一个帧,可以通过对建设工地和生产流水线等场合进行实时拍摄或者录像拍摄,从而获得视觉数据。所要检测的防护设备包括安全帽、安全背心、手套、护目镜和钢趾鞋等类型,可以通过对YOLO-v3模型的参数配置以及训练过程,来确定其所能检测到的防护设备的类型。本实施例中,所希望达到的效果是能够检测安全帽和安全背心这两种类型的防护设备。
参照图1,本实施例中的检测方法包括以下步骤:
S1.获取视觉数据;当视觉数据被播放出来时,能够显示出至少一个人员;
S2.将所述视觉数据输入到YOLO-v3模型中;
S3.获取所述YOLO-v3模型的输出结果;所述YOLO-v3模型的输出结果为使用边界框标示出所述视觉数据中的所有人员,以及每个人员所穿戴的防护设备的类型;
S4.在对应同一防护设备类型的范围内,对各所述边界框进行非最大值抑制;
S5.对所有所述边界框进行非最大值抑制。
由于本实施例中所面对的防护设备检测任务,其特点是视觉数据中所包含的不同的工作人员的大小和形状是相似的,也就是可以将不同的工作人员都视为一个类。这样,本实施例中所使用的YOLO-v3模型,其可以包含多个类的网格数量相对较少,尤其是网格的尺寸很小时将有更多的网格仅包含一个类或不包含类,因此可以包含多个类的网格数量更少。例如,如果一个工作人员被检测出来穿戴了安全背心和安全帽,那么对这一工作人员的检测过程将可以用于针对同一工作人员未穿戴安全背心而穿戴了安全帽、未穿戴安全帽而穿戴了安全背心、安全帽和安全背心均未穿戴的检测过程。
基于上述特点,本实施例中所使用的YOLO-v3模型可使用一个多分类激活函数来激活,这个多分类激活函数对应输出,它可以是Softmax函数:Softmax函数假定所有类都不相交,因此将所有类概率归一化,以使它们的总和等于1。
此外,被广泛使用的标准YOLO-v3模型,其通过单独考虑识别出的每个类来应用非最大值抑制,也就是说,现有的YOLO-v3模型将识别出的一个类对应的所有边界框中,具有最高置信度的那个边界框予以保留,而这个类对于的其余所有重叠边界框被认为是多余的,予以删除。本实施例中,步骤S4和S5的原理是:步骤S4与现有标准的YOLO-v3模型做法相同,也就是对于识别出的一个类(对应一种防护设备),对这个类的所有边界框进行一次非最大值抑制,对所有类都进行这样的操作;然后在步骤S5中,不再局限于类,而是对所有的边界框进行一次非最大值抑制,这样可以消除将视觉数据中同一工作人员检测成多个类的重复项,提高检测准确度。
同时,本实施例中所使用的YOLO-v3模型,还在标准的YOLO-v3模型基础上进行了其他改造,具体地是在标准的YOLO-v3模型的最后添加三个输出层,即第一输出层、第二输出层和第三输出层,从而得到本实施例中所使用的YOLO-v3模型。第一输出层、第二输出层和第三输出层的尺寸设置如下:
第一输出层:s1×s1×b×(2n+5);b为每个网格所使用的边界框的数量,s1为每个网格的尺寸,n为所要识别的防护设备的类型数量,本实施例中,YOLO-v3模型针对n种不同的防护设备类型所形成的2n种组合,因此存在一项2n+5;如果第一输出层中每个网格的尺寸为13×13,每个网格中使用3个边界框,那么第一输出层的尺寸为13×13×3×11;
第二输出层:s2×s2×b×(2n+5);与上述第一输出层的尺寸响应,第二输出层中每个网格的尺寸为26×26,每个网格中使用3个边界框,那么第一输出层的尺寸为26×26×3×11;
第三输出层:s3×s3×b×(2n+5);与上述第二输出层的尺寸响应,第三输出层中每个网格的尺寸为52×52,每个网格中使用3个边界框,那么第一输出层的尺寸为52×52×3×11。
第一输出层、第二输出层和第三输出层的设置,使得YOLO-v3模型与机器学习分类器能够实现清晰的分工:由YOLO-v3模型将视觉数据中工作人员所在区域裁剪出来,交由机器学习分类器检测工作人员所穿戴的防护设备的种类,这样可以提高检测效率。
在执行步骤S2之前,先执行以下对YOLO-v3模型的训练步骤:
P1.使用COCO数据集对所述YOLO-v3模型进行训练;完成使用COCO数据集进行的训练后,所述YOLO-v3模型中的各层获得了预定权重;对于第一输出层、第二输出层和第三输出层,则可以使用随机值作为它们的初始权重;这些权重使得YOLO-v3模型可从输入的视觉数据中提取出颜色和边缘等特征,从而区分出人、汽车、电脑、时钟等COCO数据集中包含的类;
P2.使用Pictor-v3数据集对所述YOLO-v3模型中的第一输出层、第二输出层和第三输出层进行再训练,使得所述第一输出层、第二输出层和第三输出层获得权重;在对第一输出层、第二输出层和第三输出层的再训练,并不改变YOLO-v3模型中其他层的权重;在对第一输出层、第二输出层和第三输出层的再训练过程中,可使用Adam优化器以10-3的学习率训练25个周期;
在执行步骤P1和P2的基础上,还可以执行以下训练步骤:
P3.对所述YOLO-v3模型中各层的权重进行调整,以使得YOLO-v3模型稍微修改在步骤P1和P2过程中学习到的检测能力,以更好地检测目标类别。
在对YOLO-v3模型各层权重调整后,YOLO-v3模型的学习率会下降,因此可以在每个调整周期后,通过监视YOLO-v3模型的验证损失来确定学习率的目标值,从而确定对YOLO-v3模型进行调整的水平,即所述步骤P3具体包括:
P301.在每次调整所述YOLO-v3模型中各层的权重后,检测所述YOLO-v3模型的验证损失;
P302.当连续三次调整对应的验证损失均不减小,则将学习率调整至原先一半的水平;
P303.当连续三次调整对应的验证损失均不减小,则将学习率调整至零。
通过对YOLO-v3模型中各层的权重进行微调,可以防止YOLO-v3模型的过拟合。
对于训练YOLO-v3模型时所使用的COCO数据集和Pictor-v3数据集,可以对其中的数据进行增强操作,例如按比例放大或缩小30%、水平或垂直平移30%、水平翻转50%,或者将色调、饱和度以及亮度等色彩空间在[-10%,10%]或[-33%,50%]等范围内改变,从而对数据集进行扩充,以克服对YOLO-v3模型进行训练时所面对的图像数据和标签数据的随机失真问题。
将经过步骤P1-P3训练的YOLO-v3模型用于步骤S2。通常,所接收的图像尺寸为416×416,如果视觉数据不是这个尺寸,可以使用双三次插值将其尺寸调整为416×416。通过沿视觉数据两条较短边方向的两侧进行均等填充,可以在调整尺寸时保持视觉数据的宽高比。
将视觉数据输入到YOLO-v3模型中,可以获得YOLO-v3模型所输出的边界框(或称检测盒子),它将视觉数据中的所有人员识别并标示出来。由于YOLO-v3模型的各输出层设置了合适的尺寸,因此YOLO-v3模型能够识别出n种防护设备所形成的2n种组合。
本实施例中的防护设备检测方法是基于对视觉数据的分析而进行的,由于视觉数据的获取过程中无需与工作人员进行接触,用于获取视觉数据的设备也不会被工作人员接触到,因此具有不易受损的特点;使用YOLO-v3模型和机器学习分类器的过程基于计算机数据处理,具有良好的客观性和可靠性;在实际使用时,只需要在建设工地以及生产流水线等场合的合适位置设置视觉数据拍摄装置,即可实施本实施例中的防护设备检测方法,在拍摄装置的视野范围内的工作人员都属于检测范围,因此可以低成本、高效地进行检测。
实施例2
将实施例1所记载的检测方法编写成相应的计算机代码并写入至存储介质中,当存储介质被连接到控制器时,其中的计算机程序代码可被读取出来并执行,从而自动执行步骤S1-S6或P1-P3,实现与实施例1中所述的相同的技术效果。
需要说明的是,如无特殊说明,当某一特征被称为“固定”、“连接”在另一个特征,它可以直接固定、连接在另一个特征上,也可以间接地固定、连接在另一个特征上。此外,本公开中所使用的上、下、左、右等描述仅仅是相对于附图中本公开各组成部分的相互位置关系来说的。在本公开中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。此外,除非另有定义,本实施例所使用的所有的技术和科学术语与本技术领域的技术人员通常理解的含义相同。本实施例说明书中所使用的术语只是为了描述具体的实施例,而不是为了限制本发明。本实施例所使用的术语“和/或”包括一个或多个相关的所列项目的任意的组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种元件,但这些元件不应限于这些术语。这些术语仅用来将同一类型的元件彼此区分开。例如,在不脱离本公开范围的情况下,第一元件也可以被称为第二元件,类似地,第二元件也可以被称为第一元件。本实施例所提供的任何以及所有实例或示例性语言(“例如”、“如”等)的使用仅意图更好地说明本发明的实施例,并且除非另外要求,否则不会对本发明的范围施加限制。
应当认识到,本发明的实施例可以由计算机硬件、硬件和软件的组合、或者通过存储在非暂时性计算机可读存储器中的计算机指令来实现或实施。所述方法可以使用标准编程技术-包括配置有计算机程序的非暂时性计算机可读存储介质在计算机程序中实现,其中如此配置的存储介质使得计算机以特定和预定义的方式操作——根据在具体实施例中描述的方法和附图。每个程序可以以高级过程或面向目标终端的编程语言来实现以与计算机系统通信。然而,若需要,该程序可以以汇编或机器语言实现。在任何情况下,该语言可以是编译或解释的语言。此外,为此目的该程序能够在编程的专用集成电路上运行。
此外,可按任何合适的顺序来执行本实施例描述的过程的操作,除非本实施例另外指示或以其他方式明显地与上下文矛盾。本实施例描述的过程(或变型和/或其组合)可在配置有可执行指令的一个或多个计算机系统的控制下执行,并且可作为共同地在一个或多个处理器上执行的代码(例如,可执行指令、一个或多个计算机程序或一个或多个应用)、由硬件或其组合来实现。所述计算机程序包括可由一个或多个处理器执行的多个指令。
进一步,所述方法可以在可操作地连接至合适的任何类型的计算平台中实现,包括但不限于个人电脑、迷你计算机、主框架、工作站、网络或分布式计算环境、单独的或集成的计算机平台、或者与带电粒子工具或其它成像装置通信等等。本发明的各方面可以以存储在非暂时性存储介质或设备上的机器可读代码来实现,无论是可移动的还是集成至计算平台,如硬盘、光学读取和/或写入存储介质、RAM、ROM等,使得其可由可编程计算机读取,当存储介质或设备由计算机读取时可用于配置和操作计算机以执行在此所描述的过程。此外,机器可读代码,或其部分可以通过有线或无线网络传输。当此类媒体包括结合微处理器或其他数据处理器实现上文所述步骤的指令或程序时,本实施例所述的发明包括这些和其他不同类型的非暂时性计算机可读存储介质。当根据本发明所述的方法和技术编程时,本发明还包括计算机本身。
计算机程序能够应用于输入数据以执行本实施例所述的功能,从而转换输入数据以生成存储至非易失性存储器的输出数据。输出信息还可以应用于一个或多个输出设备如显示器。在本发明优选的实施例中,转换的数据表示物理和有形的目标终端,包括显示器上产生的物理和有形目标终端的特定视觉描绘。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。
Claims (9)
1.一种视觉数据中防护设备的检测方法,其特征在于,包括以下步骤:
获取视觉数据;所述视觉数据能够显示出至少一个人员;
将所述视觉数据输入到YOLO-v3模型中;所述YOLO-v3模型包括依次连接的第一输出层、第二输出层和第三输出层,所述第一输出层的尺寸为s1×s1×b×(2n+5),所述第二输出层的尺寸为s2×s2×b×(2n+5),所述第三输出层的尺寸为s3×s3×b×(2n+5),s1为所述第一输出层中每个网格的尺寸,s2为所述第二输出层中每个网格的尺寸,s3为所述第三输出层中每个网格的尺寸,b为所述第一输出层中每个网格所使用的边界框的数量,n为所要识别的防护设备的类型数量;所述第一输出层、第二输出层和第三输出层中的至少一个由多分类激活函数激活;所述多分类激活函数为
获取所述YOLO-v3模型的输出结果;所述YOLO-v3模型的输出结果为使用边界框标示出所述视觉数据中的所有人员,以及每个人员所穿戴的防护设备的类型;
在对应同一防护设备类型的范围内,对各所述边界框进行非最大值抑制;
对所有所述边界框进行非最大值抑制。
2.根据权利要求1所述的检测方法,其特征在于,所述YOLO-v3模型的训练过程包括:
使用第一数据集对所述YOLO-v3模型进行训练,使得所述YOLO-v3模型中的各层获得权重;
使用第二数据集对所述YOLO-v3模型中的第一输出层、第二输出层和第三输出层进行训练,使得所述第一输出层、第二输出层和第三输出层获得权重。
3.根据权利要求2所述的检测方法,其特征在于,所述YOLO-v3模型的训练过程还包括:
对所述YOLO-v3模型中各层的权重进行调整,使得所述YOLO-v3模型的学习速率达到目标值。
4.根据权利要求3所述的检测方法,其特征在于,所述对所述YOLO-v3模型中的各层的权重进行调整,使得所述YOLO-v3模型的学习率达到目标值这一步骤,具体包括:
在每次调整所述YOLO-v3模型中各层的权重后,检测所述YOLO-v3模型的验证损失;
当连续三次调整对应的验证损失均不减小,则将学习率调整至一半的水平;
当连续三次调整对应的验证损失均不减小,则将学习率调整至零。
5.根据权利要求2-4任一项所述的检测方法,其特征在于,所述第一数据集为COCO数据集,所述第二数据集为Pictor-v3数据集。
6.根据权利要求2-4任一项所述的检测方法,其特征在于,还包括以下步骤:
对所述第一数据集和/或第二数据集进行数据增强操作;所述数据增强操作包括按比例放缩、平移、翻转以及色彩空间中的至少一种。
7.一种视觉数据中防护设备的检测系统,其特征在于,包括:
数据获取模块,用于获取视觉数据;所述视觉数据能够显示出至少一个人员;
数据输入模块,用于将所述视觉数据输入到YOLO-v3模型中;所述YOLO-v3模型包括依次连接的第一输出层、第二输出层和第三输出层,所述第一输出层的尺寸为s1×s1×b×(2n+5),所述第二输出层的尺寸为s2×s2×b×(2n+5),所述第三输出层的尺寸为s3×s3×b×(2n+5),s1为所述第一输出层中每个网格的尺寸,s2为所述第二输出层中每个网格的尺寸,s3为所述第三输出层中每个网格的尺寸,b为所述第一输出层中每个网格所使用的边界框的数量,n为所要识别的防护设备的类型数量;所述第一输出层、第二输出层和第三输出层中的至少一个由多分类激活函数激活;所述多分类激活函数为
数据输出模块,用于获取所述YOLO-v3模型的输出结果;所述YOLO-v3模型的输出结果为使用边界框标示出所述视觉数据中的所有人员,以及每个人员所穿戴的防护设备的类型;
第一抑制模块,用于在对应同一防护设备类型的范围内,对各所述边界框进行非最大值抑制;
第二抑制模块,用于对所有所述边界框进行非最大值抑制。
8.一种防护设备的检测装置,其特征在于,包括存储器和处理器,所述存储器用于存储至少一个程序,所述处理器用于加载所述至少一个程序以执行权利要求1-6任一项所述方法。
9.一种存储介质,其中存储有处理器可执行的指令,其特征在于,所述处理器可执行的指令在由处理器执行时用于执行如权利要求1-6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010146025.8A CN111460902B (zh) | 2020-03-03 | 2020-03-03 | 视觉数据中防护设备的检测方法、系统、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010146025.8A CN111460902B (zh) | 2020-03-03 | 2020-03-03 | 视觉数据中防护设备的检测方法、系统、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111460902A CN111460902A (zh) | 2020-07-28 |
CN111460902B true CN111460902B (zh) | 2023-03-14 |
Family
ID=71682682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010146025.8A Active CN111460902B (zh) | 2020-03-03 | 2020-03-03 | 视觉数据中防护设备的检测方法、系统、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111460902B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852183A (zh) * | 2019-10-21 | 2020-02-28 | 广州大学 | 一种未佩戴安全帽人员识别方法、系统、装置和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200019628A1 (en) * | 2018-07-16 | 2020-01-16 | Microsoft Technology Licensing, Llc | Visual intent triggering for visual search |
-
2020
- 2020-03-03 CN CN202010146025.8A patent/CN111460902B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852183A (zh) * | 2019-10-21 | 2020-02-28 | 广州大学 | 一种未佩戴安全帽人员识别方法、系统、装置和存储介质 |
Non-Patent Citations (1)
Title |
---|
基于局部傅里叶变换的相位提取方法研究;蔡长青 等;《赤峰学院学报(自然科学版)》;20151231;第31卷(第24期);第1-2页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111460902A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508688B (zh) | 基于骨架的行为检测方法、终端设备及计算机存储介质 | |
AU2018217437B2 (en) | System for identifying a defined object | |
JP7196952B2 (ja) | 顔認識システム、表示制御装置、表示制御方法および表示制御プログラム | |
CN108846841A (zh) | 显示屏质量检测方法、装置、电子设备及存储介质 | |
CN112364715B (zh) | 核电作业异常监控方法、装置、计算机设备和存储介质 | |
Xie et al. | A convolutional neural network based approach towards real-time hard hat detection | |
WO2011148439A1 (ja) | 動作解析装置および動作解析方法 | |
CN111460895B (zh) | 视觉数据中防护设备的检测方法、装置和存储介质 | |
CN113688709B (zh) | 一种安全帽佩戴智能检测方法、系统、终端及介质 | |
CN111652046A (zh) | 基于深度学习的安全穿戴检测方法、设备及系统 | |
CN111401131A (zh) | 隧道管廊的图像处理方法、装置、计算机设备和存储介质 | |
KR20160108740A (ko) | 작업 현장 영상 데이터 내의 작업자 인식 방법 | |
CN110210530A (zh) | 基于机器视觉的智能监控方法、装置、设备、系统和存储介质 | |
CN112001963A (zh) | 消防通道的排查的方法、系统和计算机设备 | |
CN117726991B (zh) | 一种高空吊篮安全带检测方法及终端 | |
CN111460902B (zh) | 视觉数据中防护设备的检测方法、系统、装置和存储介质 | |
CN110956102A (zh) | 银行柜台监控方法、装置、计算机设备和存储介质 | |
KR20230051848A (ko) | 위험 영역의 안전사고 예방을 위한 시스템 및 시스템의 동작 방법 | |
CN111460896B (zh) | 视觉数据中防护设备的检测方法、装置和存储介质 | |
CN117437749A (zh) | 一种车间安全控制方法及系统 | |
CN112347989A (zh) | 反光衣识别方法、装置、计算机设备和可读存储介质 | |
CN111582183A (zh) | 一种公共场所的口罩识别方法及系统 | |
CN115995097A (zh) | 一种基于深度学习的安全头盔佩戴标准判断方法 | |
CN114758294A (zh) | 分拨中心危险行为的监控方法、装置、设备和存储介质 | |
CN114241354A (zh) | 仓库人员行为识别方法、装置、计算机设备、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |