CN113486860A - 一种基于YOLOv5的安全护具佩戴检测方法及系统 - Google Patents
一种基于YOLOv5的安全护具佩戴检测方法及系统 Download PDFInfo
- Publication number
- CN113486860A CN113486860A CN202110887767.0A CN202110887767A CN113486860A CN 113486860 A CN113486860 A CN 113486860A CN 202110887767 A CN202110887767 A CN 202110887767A CN 113486860 A CN113486860 A CN 113486860A
- Authority
- CN
- China
- Prior art keywords
- detection
- feature
- safety
- network
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于YOLOv5的安全护具佩戴检测方法及系统,方法包括:获取待检测的图像数据;将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置;根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。本发明能够提高对安全护具佩戴的检测精度和检测速度从而实现对施工人员安全护具佩戴情况的实时检测。
Description
技术领域
本发明涉及安全护具检测领域,特别是涉及一种基于YOLOv5的安全护具佩戴检测方法及系统。
背景技术
在施工建设中,为保证施工人员的安全与健康,必须确保施工人员在施工时正确佩戴各种安全护具,其中安全护具包括安全帽、安全带和安全服。若作业人员未佩戴安全护具进行高处作业,则存在较大的安全隐患和事故风险。
目前,为确保施工人员在现场按要求佩戴安全护具施工,现行方法是通过人工审核的方式检测现场施工人员是否按要求佩戴安全护具,人工审核方法准确性高但费时费力,且无法保证安全护具检测的实时性。因此,如何实时保证安全护具检测的准确性、减少人工审核成本,是该问题需解决的难点。
此问题在计算机视觉研究方向中隶属于目标检测领域。目标检测是计算机视觉的重要研究领域之一,其主要任务是找出图像中特定的目标物体,并用检测框标记将物体的位置标记。目标检测的算法可以分为传统算法和基于深度学习的算法。传统的图像识别方法,主要依靠人工来提取特征。随着深度学习技术的出现,目标检测的研究取得了重大进展。相比于基于手工标注特征的传统算法,基于深度学习技术的方法具有结构灵活、特征自动提取、检测精度高、检测速度快等优点,因而受到广泛关注。
发明内容
本发明的目的是提供一种基于YOLOv5(You Only Look Once v5)的安全护具佩戴检测方法及系统,以提高对安全护具佩戴的检测精度和检测速度从而实现实时检测。
为实现上述目的,本发明提供了如下方案:
一种基于YOLOv5的安全护具佩戴检测方法,包括:
获取待检测的图像数据;
将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置;
根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。
为实现上述目的,本发明还提供了如下方案:
一种基于YOLOv5的安全护具佩戴检测系统,包括:
图像数据获取模块,用于获取待检测的图像数据;
预测模块,用于将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置;
安全护具检测模块,用于根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明提供的基于YOLOv5的安全护具佩戴检测方法及系统,通过YOLOv5网络对待检测的图像数据进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置;在通过根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。采用YOLOv5卷积神经网络模型,与目标检测的传统方法相比,采用检测框回归的方法,减少了网络模型的计算次数,速度更快,准确率更高,从而实现对施工人员安全护具的佩戴情况进行实时检测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明提供的基于YOLOv5的安全护具佩戴检测方法流程图;
图2为本发明提供的基于YOLOv5的安全护具佩戴检测方法的具体步骤流程图;
图3为本发明提供的基于YOLOv5的安全护具佩戴检测方法的YOLOv5网络结构示意图;
图4为本发明提供的基于YOLOv5的安全护具佩戴检测方法的YOLOv5网络结构各模块示意图;
图5为本发明提供的基于YOLOv5的安全护具佩戴检测方法的反向传播示意图;
图6为本发明提供的基于YOLOv5的安全护具佩戴检测方法具体预测特征图结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于YOLOv5的安全护具佩戴检测方法及系统,以提高对安全护具佩戴的检测精度和检测速度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例一
如图1所示,本发明提供的一种基于YOLOv5的安全护具佩戴检测方法,包括:
其中,步骤101之前,还包括:
获取待检测的视频数据。
对所述待检测的视频数据进行分解,得到待检测的图像数据。
步骤101:获取待检测的图像数据。
步骤102:将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置。其中,步骤102,具体包括:
利用Mosaic数据增强算法对所述待检测的图像数据进行预处理,得到预处理后的图像数据。
将所述预处理后的图像数据输入所述YOLOv5网络中的特征提取网络进行特征提取,得到显著特征图。其中,所述将所述预处理后的图像数据输入所述YOLOv5网络中的所述特征提取网络进行特征提取,得到显著特征图,具体包括:
利用所述特征提取网络的Focus模块对所述预处理后的图像数据进行切片、拼接和卷积处理,得到第一特征提取图。
利用所述特征提取网络的Conv模块组对所述第一特征提取图进行卷积处理,得到第二特征提取图。
利用所述特征提取网络的BCSP模块组对所述第二特征提取图进行Bottleneck卷积和拼接处理,得到第三特征提取图。
利用所述特征提取网络的SPP模块对所述第三特征提取图进行池化和拼接处理,得到显著特征图。
其中,Conv模块组包括多个Conv模块,BCSP模块组包括多个BCSP模块。
将所述显著特征图输入所述YOLOv5网络中的特征处理网络进行特征处理,得到特征图。所述将所述显著特征图输入所述YOLOv5网络中的特征处理网络进行特征处理,得到特征图,具体包括:
利用所述特征处理网络的Conv模块组对所述显著特征图进行卷积处理,得到第一特征处理图。
利用所述特征处理网络的Upsample模块组对所述第一特征处理图进行采样和扩充处理,得到第二特征处理图。
利用所述特征处理网络的Concat模块组对所述第二特征处理图在通道维度上进行拼接处理,得到第三特征处理图。
利用所述特征处理网络的BCSP模块组对所述第三特征处理图进行Bottleneck卷积和拼接处理,得到第四特征处理图。
利用所述特征处理网络的Detect模块对所述第四特征处理图进行卷积处理,得到特征图。
其中,Conv模块组包括多个Conv模块,Upsample模块组包括多个Upsample模块,Concat模块组包括多个Concat模块,BCSP模块组包括多个BCSP模块。
步骤103:根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。其中,步骤103,具体包括:
根据所述目标物体类别和所述检测框位置确定安全护具检测类别;所述安全护具检测类别包括安全帽检测、反光衣检测和安全绳检测。
根据所述安全护具检测类别和所述目标物体个数确定施工人员是否正确佩戴安全护具。所述根据所述安全护具检测类别和所述目标物体个数确定施工人员是否正确佩戴安全护具,具体包括:
当所述安全护具检测类别为安全帽检测时,根据所述目标物体类别、所述目标物体个数和所述检测框位置确定安全帽佩戴结果。
当所述安全护具检测类别为反光衣检测时,根据所述目标物体类别、所述目标物体个数和所述检测框位置确定反光衣穿戴结果。
当所述安全护具检测类别为安全绳检测时,根据所述目标物体类别、所述目标物体个数和所述检测框位置确定安全绳穿戴结果。
根据所述安全帽佩戴结果、所述反光衣穿戴结果和所述安全绳穿戴结果确定施工人员是否正确佩戴安全护具。
实施例二
本发明还提供了一种基于YOLOv5的安全护具佩戴检测方法更为具体的执行过程,如图2和图5所示,具体包括以下四个步骤:
1.图像数据集的生成。数据图像中包含施工人员、安全帽、安全带和安全服等各类物体。在每张图像上对各类物体标注标签,并将数据集分为训练集、验证集和测试集。
2.图像特征的提取和处理。搭建特征提取网络模型和特征处理网络模型,对输入的图像进行多尺度特征提取和处理,输出预测目标物体的信息。
3.优化网络模型权重。将网络模型预测的信息与标记的真实数据进行对比,计算损失函数并进行反向传播,迭代训练网络模型的权重。
4.安全护具佩戴的检测。通过训练后的网络模型对图像、视频两类数据的检测信息进行逻辑判断,最终实现各类安全护具的佩戴检测。
具体步骤的详细描述如下:
1:图像数据集的生成
1.1:图像的标注
在图像中标注施工人员、安全帽、安全绳和反光衣等安全护具,设原始图像数据集为C,C={c1,c2,...,cn},其中ci(1≤i≤n)为图像数据集C中的未经标注的原始图像。对ci进行标注,得到对应的真实标注数据Li(1≤i≤n),Li中有5个数据值lcls、lx、ly、lw和lh,即Li={lcls,lx,ly,lw,lh}。其中lcls为目标物体类别的编号,lx为目标物体x轴的位置标注值,ly为目标物体y轴的位置标注值,lw为目标物体的位置标注值的宽度比,lh为目标物体的位置标注值的高度比;将图像ci左上角的像素点设为坐标原点,向右为x轴,向下为y轴,通过公式(1-1)计算得出lx、ly、lw和lh。C中的图像经过标注后形成对应的标注数据集L={L1,L2,...,Ln},最终将C和L合并得到数据集D={C,L}。
1.2:数据集划分
将步骤1.1中数据集D分为训练数据集Dtrain、验证数据集Dval、测试数据集Dtest,比例设定为80:5:15,即为D={Dtrain,Dval,Dtest},其中Dtrain用于训练网络模型,Dval用于调节训练参数,Dtest用于测试模型的准确程度。
2:网络模型的前向传播
训练卷积神经网络模型主要包括两个阶段:第一阶段是搭建网络模型,图像数据传入网络模型中前向传播,对图像特征进行提取和处理的阶段。第二阶段是计算损失函数并传入网络模型进行反向传播训练,迭代更新网络权重的阶段。网络模型在结构上分为特征提取网络Backbone和特征处理网络Head,如附图3所示。
其中,网络的前向传播包括以下三个步骤:步骤一对数据进行处理,将训练数据集中的图像进行数据增强和尺寸变换,方便网络模型进行计算。步骤二将处理后的图像输入特征提取网络Backbone,提取出各尺度的特征图。步骤三将提取出的特征图输入特征处理网络Head进行特征处理,最终输出包含目标物体检测框信息的特征图。
其中的特征图是指卷积神经网络中卷积层的数据。数据以三维形式存在,特征图M可表示为i×j×c维的数据,如下所示
M中的i、j和c分别为特征图的宽度、高度和通道数,mij表示第i行第j列的数值。基于卷积神经网络提取图像特征的过程,即为特征图与卷积核进行卷积操作而形成新的特征图的过程。
2.1输入训练图像的处理
将步骤1中Dtrain中的图像通过Mosaic数据增强算法进行处理。具体步骤如下:在Dtrain中选择4张图像P1、P2、P3和P4,并进行剪裁和缩放,再将经过变换后的四张图像P1′、P2′、P3′和P4′分别放置于底板的左上角、右上角、左下角和右下角,并将此底板存储为一张新生成的图像Pm。将Pm通过插值标准化缩放为符合特征提取网络Backbone运算的尺寸640×640×3(宽度像素值×高度像素值×RGB三通道)。
2.2特征提取网络Backbone
如图3所示,将步骤2.1的Pm输入特征提取网络Backbone,提取特征图的信息。Backbone的网络结构如表1所示,表1为特征提取网络Backbone的网络结构表。
表1.特征提取网络Backbone的网络结构表
网络层数 | 模块名称 | 输入特征图 | 输出特征图 |
1 | Focus模块 | P<sub>m</sub> | M<sub>1</sub> |
2 | Conv模块 | M<sub>1</sub> | M<sub>2</sub> |
3 | BCSP-1模块 | M<sub>2</sub> | M<sub>3</sub> |
4 | Conv模块 | M<sub>3</sub> | M<sub>4</sub> |
5 | BCSP-3模块 | M<sub>4</sub> | M<sub>5</sub> |
6 | Conv模块 | M<sub>5</sub> | M<sub>6</sub> |
7 | BCSP-3模块 | M<sub>6</sub> | M<sub>7</sub> |
8 | Conv模块 | M<sub>7</sub> | M<sub>8</sub> |
9 | SPP模块 | M<sub>8</sub> | M<sub>9</sub> |
10 | BCSP-1模块 | M<sub>9</sub> | M<sub>10</sub> |
Backbone网络由四类模块组成:如图4(c)所示的Focus模块、Conv模块、如图4(a)所示的BCSP模块和如图4(d)所示的SPP模块。Focus模块对Pm进行切片操作,将图像分为4份,再将每份图像数据在通道(channel)维度进行拼接和卷积,得到特征图M1。此步骤可以有效减少训练过程中的计算量,提高训练效率。Conv模块对特征图M1进行卷积操作,并采用公式(2-1)的LeakyReLU作为激活函数进行激活,得到M2。
其中,a为设定参数的取值,在本发明中a=0.1。
BCSP模块对M2进行Bottleneck卷积,再将输出的特征图M2′与M2拼接得到M3。如图4(b)所示的BCSP-n模块表示经过n个BCSP模块的计算。Bottleneck卷积是一种的基于残差的卷积结构,可以使网络的参数减少,更快速地进行训练。SPP模块对输入的特征图M8采用5×5、9×9、13×13三种最大池化,并将经过三种最大池化的特征图M5×5、M9×9、M13×13和M8在通道维度进行拼接,得到M9。SPP模块的目的是在保持特征图大小不变的情况下,提取出特征图中最显著的特征。
按照表1构建特征提取网络Backbone,并将计算得到的特征图M5,M7和M10输入特征处理网络Head进行图像特征的处理。
2.3特征处理网络Head
将步骤2.2的特征图M5、M7和M10输入特征处理网络Head,结构如表2所示,表2为特征处理网络Head的网络结构表。
表2.特征处理网络Head的网络结构表
特征处理网络Head由以下模块组成:Conv模块、Upsample模块、Concat模块、BCSP-1模块和如图4(e)所示的Detect模块。其中Conv模块和BCSP-1模块为步骤2.2中特征提取网络Backbone中的模块。Upsample模块对特征图M11进行两倍上采样,将M11的宽度和高度n×n扩充为原来的两倍2n×2n,即将M11中的信息[a]复制到相邻的位置,扩充为得到特征图M12。Concat模块对特征图M7(w×h×c1)和M12(w×h×c2)在通道维度进行拼接,得到M13(w×h×(c1+c2))。Detect模块对输入的三个不同尺度的特征图M18、M21和M24分别进行卷积操作,最终输出预测结果R1、R2和R3。以M18为例,对特征图M18(w×h×cm)进行卷积操作,得到R1(w×h×cr),其中cr由目标物体的种类数量决定。
按照表2构建特征处理网络Head,对M5、M7和M10进行特征处理,最终得到特征图R1、R2和R3。
3:网络模型的反向传播
YOLOv5卷积神经网络的反向传播可分为以下四个步骤:步骤一对数据集中的标注信息进行处理,将L={l1,l2,...,ln}转化为特征图形式。步骤二筛选出R1,R2,R3中最有可能包含目标物体的锚框,并转化为特征图形式。步骤三根据前两个步骤中得到的特征图计算损失函数。步骤四根据损失函数计算梯度,将梯度传回网络模型中,进行反向传播,更新权重,最终得到预测效果最佳的网络模型权重。网络模型的反向传播步骤如附图5所示。
3.1真实框的特征图的计算
检测目标物体,首先要将输入图像Pm的标注信息L={l1,l2,...,ln}转化为与特征图R={R1,R2,R3}相同尺度的特征图,具体转化方式为:
3.1.1:锚框(anchor)的设置:
锚框是一种提前设置好宽度和高度的框选区域,网络模型预测的检测框用锚框和对应的偏移量表示。将输入图像Pm划分为20×20、40×40、80×80维度的网格(grid),其中20×20的网格负责表示图像中大尺寸的物体,40×40的网格负责表示中等尺寸的物体,80×80的网格负责表示小尺寸的物体。每个网格中设置3个large锚框、3个medium锚框和3个small锚框。初始锚框的大小如表3所示,表3为初始锚框和锚框大小表。
表3.初始锚框和锚框大小
3.1.2:特征图R={R1,R2,R3}的分析:
步骤2.3中输出的特征图R={R1,R2,R3},其特征图R的维度为wr×hr×[nanchor×(nclass+ncoordinate)],其中wr和hr为特征图的高度和宽度;nanchor=9表示每个网格中初始锚框的数量,nclass表示目标物体类别的数量;ncoordinate由po,tx,ty,tw,th组成,po表示网格中是否存在目标物体,tx,ty,tw,th表示该网格中锚框的偏移量。
3.1.3:真实特征图Mv1、Mv2和Mv3的分析:
根据输入图像Pm的标注信息L={lx,ly,lw,lh}确定标记的真实框中心在网格k中,并选择网格k中9个初始锚框里与真实框最相似的一个锚框anchorgt来表示真实框的坐标,通过公式(3-2)计算IoU。最终将真实框抽取为特征向量v,v={(po,ax,ay,aw,ah,p1,p2,…pc)×na},其中po为目标性得分,表示网格中是否有目标物体。ax、ay、aw和ah分别表示真实框与对应锚框anchorgt的偏移量,由公式(3-1)计算得出,其中cx和cy为网格k左上角的x和y坐标,pw和ph为选定锚框anchorgt的宽和高。p1,p2,…pc表示c类目标物体分别对应的置信度得分,例如锚框anchorgt中的物体类别为“1”,则p1=1,其余pi(1<i≤c)的值都为0。na为初始锚框的个数,如na=9表示每个网格中有9个初始锚框表示真实框的位置。最终每个网格得到的特征向量v拼接得到特征图Mv1、Mv2和Mv3。
3.2最优检测框的选取
将步骤2.3输出的特征图R1、R2和R3,针对每个类别的目标物体预测出所有的检测框采用NMS(Non-maximum Suppression)非极大值抑制方法,筛选出置信度得分最大的检测框Bbest。
NMS非极大值抑制方法的步骤如下:先选取当前类别的检测框中置信度得分最大的那一个检测框Bc,计算Bc与其余的检测框的IoU,若其IoU大于设定的阈值η=0.5(0≤η≤1),则舍弃,最终保留所有剩余的n检测框B={B1,B2,...,Bn}。通过公式(3-2)计算IoU,IoU为交互比,度量两个检测框的交叠程度。
将B用初始锚框和偏移量表示为特征向量vB的形式,并将每个网格的vB拼接为特征图Mb1、Mb2和Mb3。
3.3损失函数的计算
根据步骤3.2中的Mb1、Mb2、Mb3与步骤3.1的Mv1、Mv2、Mv3计算损失函数,旨在迭代优化网络模型权重文件,提升模型准确率。
损失函数包括分类损失、定位损失、置信度损失和总体损失:
(3)定位损失定位损失是卷积神经网络模型中预测的检测框和训练数据中人工标注的误差损失,使用公式(3-5)计算网络模型的定位损失。其中v是比较真实框和检测框宽高比的度量,为真实框的宽高比,wgt为真实框的宽,hgt为真实框的高,为检测框的宽高比,w为检测框的宽,h为检测框的高。IoU是真实框和检测框的交互比,ρ2(b,bgt)为预测锚框和真实锚框中心点的距离的平方,c2为检测框和真实框所构成的最长距离的平方。
3.4网络权重的迭代更新
根据步骤3.3中计算得到的总体损失函数计算梯度g,g由损失函数对各变量求偏导数计算得出。采用SGD(Stochastic Gradient Descent)随机梯度下降的优化方式对网络模型中的权重参数进行优化,按照公式(3-7)优化权重中参数,其中wt和wt+1分别为权重参数和经过SGD优化后的参数,ε为学习率,gt代表一批次样本的平均梯度。
wt+1=wt-εgt (3-7)
经过多次迭代计算,更新网络权重,最终得到网络模型的权重文件W。训练网络模型时,需设置迭代周期epoch,迭代周期epoch表示网络模型遍历处理Dtrain训练数据集的次数。在训练结束后,通过Dtest测试数据集测试各迭代周期产生的权重文件,选取预测准确率最高的权重文件Wbest作为网络模型的权重。3.5视频检测数据的分布式训练
将云南移动5G建设施工的视频数据V逐帧分解为图像CV进行预测,再将预测的检测框信息存储为标注信息LV,将CV和LV合并为新的数据集DV。由于DV的数据量较大,本发明提出了基于多GPU(Graphics Processing Unit)的分布式训练方法来解决大规模数据的训练问题,训练步骤如下:
将DV中的数据经过数据增强算法得到图像Pm1,Pm2,…Pmn。对Pm1,Pm2,…Pmn使用x个进程j1,j2,...,jx处理,每个进程ji(1≤i≤x)具有相同的网络模型结构、初始权重Winit和GPU算力。令ji(1≤i≤x)加载不同的图像数据,在网络中进行前向传播输出特征图,并且计算出损失函数和梯度gi。各进程ji(1≤i≤x)将梯度gi进行加权平均计算得到gav。将gav共享给所有进程,在网络模型中进行反向传播,更新权重的参数。所有进程的网络参数进行了相同的梯度优化,则每个进程在反向传播结束时具有相同的权重Wav。在训练结束后,通过Dtest测试数据集测试各迭代周期产生的权重文件,选取得到预测准确率最高的权重文件Wbest作为网络模型的权重。利用分布式思想处理数据,充分应用GPU算力资源,提升了网络模型的训练速度。
4:安全护具佩戴的检测
4.1安全护具的信息预测
将步骤1.2中Dtest测试数据集中的图像ctest进行矩形推理变换:将输入图像ctest保持宽高比例进行缩放操作,剩余部分采用灰色填充,最终输出为640×640大小的图像cr。
图像ctest经过已固定好权重为Wbest的网络模型预测后可以得到安全护具的预测信息,包括预测的类别和个数、检测框位置、以及目标物体的置信度得分。预测得到的数据如表4所示,表4为经过网络模型预测后输出的数据表。
表4.经过网络模型预测后输出的数据表
目标物体类别 | 物体个数 | 检测框位置 | 置信度得分 |
施工人员O<sub>1</sub> | n<sub>1</sub> | B<sub>1</sub> | s<sub>1</sub> |
头部O<sub>2</sub> | n<sub>2</sub> | B<sub>2</sub> | s<sub>2</sub> |
安全帽O<sub>3</sub> | n<sub>3</sub> | B<sub>3</sub> | s<sub>3</sub> |
反光衣O<sub>4</sub> | n<sub>4</sub> | B<sub>4</sub> | s<sub>4</sub> |
普通衣O<sub>5</sub> | n<sub>5</sub> | B<sub>5</sub> | s<sub>5</sub> |
安全绳O<sub>6</sub> | n<sub>6</sub> | B<sub>6</sub> | s<sub>6</sub> |
4.2正确佩戴安全护具的判断规则
根据步骤4.1得到的安全护具检测框类别O,个数n,位置B等信息,进行逻辑判断,最终得到施工人员是否正确佩戴安全护具,佩戴的安全护具种类等信息。
逻辑检测可以分为安全帽检测、反光衣检测和安全绳检测的逻辑判断:
1.安全帽检测的逻辑判断有如下情况:
(1)若施工人员个数n1>0,头部个数n2=0且安全帽的个数n3=n1,即安全帽个数与施工人员个数相等,并根据施工人员的检测框位置B1和安全帽的检测框位置B3进行位置判断,若B1与B3的位置有80%以上重合,且B3的位置在B1的上部,则说明图像中的施工人员都已佩戴安全帽。
(2)若施工人员个数n1=0,且安全帽数n3>0,则说明图像中仅有安全帽。
(3)若头部数n2>0,则说明图像中有人未佩戴安全帽。
(4)若施工人员个数n1=0,则说明图像中没有施工人员。
2.反光衣检测的逻辑判断有如下情况:
(1)若施工人员个数n1>0,普通衣个数n5=0且反光衣的个数n4=n1,即佩反光衣个数与施工人员个数相等,则说明图像中的施工人员都已穿戴反光衣。
(2)若施工人员个数n1=0,且反光衣个数n3>0,则说明图像中仅有反光衣。
(3)若施工人员个数n1>0且普通衣个数n5>0,则说明图像中有人未穿戴反光衣。
3.安全绳检测的逻辑判断有如下情况:
(1)若施工人员个数n1>0,安全绳的个数n6=n1,则说明图像中的施工人员都已穿戴安全绳。
(2)若施工人员个数n1=0,且安全绳个数n6>0,则说明图像中仅有安全绳。
(3)若施工人员个数n1>0,安全绳个数n6≠n1,则说明图像中有人未穿戴安全绳。
4.若未检测出任何目标物体,即n1=n2=n3=n4=n5=n6=0,则对该图片重新检测。若仍未检测出任何物体,则转为人工审核处理。
4.3基于视频数据的正确佩戴安全护具判断
首先对视频数据进行分解,设视频共有n帧,将视频中的每一帧保存为图像数据pn,再对图像数据pn按照步骤4.2进行检测,从而得到n个检测结果dn。在n个检测结果dn中,若检测合格的结果数量占比大于阈值r=0.9(0≤r≤1),即可认为视频中的施工人员已正确佩戴安全护具,若检测合格的结果数量占比小于阈值r,则判定为施工人员未正确佩戴安全护具。
实施例三
本发明还提供了基于YOLOv5的安全护具佩戴检测方法在实际应用中的另一种实施例,具体如下:
1:生成图像数据集
通过图像标注工具LabelImg对原始图像数据集C进行标注,将施工人员,头部,安全帽,反光衣,普通衣,安全绳这六类物体在每张图像ci(1≤i≤n)中用矩形框进行标注。然后将原始图像和标注数据合并得到标注数据集L={l1,l2,...,ln},并将图像数据集C和标注数据集合L合并得到数据集D=(C,L),最后将数据集D划分为Dtrain训练数据集、Dval验证数据集、Dtest测试数据集,比例设定为80∶5∶15。
以附图6为例,图6(a)为原始图像,图6(b)为标注后的图像。图像中施工人员个数为2,头部个数为0,安全帽个数为2,反光衣个数为2,普通衣个数为0,安全绳个数为0。根据公式(1-1),此图像的标注数据如表5所示,图像数据标注例表,表5为设物体类别0表示施工人员,2表示安全帽,3表示反光衣。
表5.图像数据标注例表
物体类别 | l<sub>x</sub> | l<sub>y</sub> | l<sub>w</sub> | l<sub>h</sub> |
0 | 0.351818 | 0.70297 | 0.227273 | 0.569307 |
0 | 0.474545 | 0.752475 | 0.214545 | 0.480198 |
2 | 0.372727 | 0.701733 | 0.276364 | 0.576733 |
2 | 0.455455 | 0.751238 | 0.183636 | 0.487624 |
3 | 0.442727 | 0.806931 | 0.154545 | 0.351485 |
3 | 0.307273 | 0.784653 | 0.145675 | 0.40099 |
2:网络模型的前向传播
首先搭建网络模型,通过调整BCSP模块的数量参数Hdm和Conv模块卷积核的数量参数Hwm控制网络模型权重的参数数量。网络模型权重参数越多,准确率越高,但速度越慢。本实施例将Hdm和Hwm分别设置为0.5和0.33,在确保准确率的情况下保证高效性。
对步骤1中输入的数据集进行图像缩放和数据增强操作,得到640×640×3的图像,输入特征提取网络Backbone和特征处理网络Head,数据流如表6所示,表6为图像在网络模型中的数据流表。
表6.图像在网络模型中的数据流表
图像数据通过网络模型的计算,最终输出R180×80×33、R240×40×33、R320×20×33三个特征图。
3:网络模型的反向传播
(1)计算真实框的特征图
按照步骤2,得到输出特征图R={R1,R2,R3},R1的维度为80×80×3×(5+6),R2的维度为40×40×3×(5+6),R3的维度为20×20×3×(5+6),则真实特征图需与R1、R2和R3的维度一致。
以其中一个维度的(5+6)的特征向量为例,设该特征向量为(po,ax,ay,aw,ah,p1,p2,p3,p4,p5,p6),其中若该锚框中有标记的真实物体,则po=1;根据标记数据lx,ly,lw,lh和公式(3-1)计算ax,ay,aw,ah;若该锚框标记的物体为人物,则表示人物类别的p1=1,其余p2,p3,p4,p5,p6=0。分别计算20×20×3、40×40×3和80×80×3这三个维度上所有的特征向量,拼接后即为真实特征图Mv180×80×3×11,Mv240×40×3×11和Mv320×20×3×11。
(2)选取最优检测框
将具体步骤3.2中得到的预测锚框特征图Mr1、Mr2和Mr3,对其中预测每个类别在20×20、40×40和80×80尺度上的锚框采用NMS非极大值抑制方法,NMS的阈值η设置为0.5,最终筛选出置信度得分最大的检测框Bbest。将所有类别求出的检测框Bbest拼接为特征图Mb180×80×3×11,Mb240×40×3×11和Mb320×20×3×11。
(3)计算损失函数和更新网络权重
通过最优的检测特征图Mb1、Mb2和Mb3和真实特征图Mv1、Mv2和Mv3根据公式(3-3)、(3-4)和(3-5)分别计算分类损失、置信度损失和定位损失,根据公式(3-6)和(3-7)计算总体损失函数和梯度g,并将g传入反向传播,对网络模型的权重文件进行更新优化。每经过一个批次(batch)更新优化一次权重。
表7为训练模型时保存的损失函数值:其中数据集共7000张5G施工图像,设置epoch为100,batch size为16。
表7.训练模型过程中的损失函数值
如表7所示,可以发现,损失函数随着训练次数的增加而不断减小,即训练的网络模型的检测效果越来越好。训练结束后通过输入测试数据集Dtest验证训练各阶段的权重文件,最终选取预测效果最好的权重Wbest。
4:预测结果匹配分类
按照步骤3,计算得到网络模型权重Wbest,对输入的图像进行六类目标物体的检测。根据检测得到的结果,判断施工人员是否佩戴相应的安全护具。
以附图6为例,该图像检测出施工人员的个数为2,头部个数为0,安全帽个数为2,反光衣个数为2,普通衣个数为0,安全绳个数为0。根据具体步骤4.2的逻辑判断,可得到检测结果为:该图像中施工人员都已佩戴安全帽,都已穿着反光衣,未佩戴安全绳。
实施例四
本发明还提供了一种基于YOLOv5的安全护具佩戴检测系统,包括:
图像数据获取模块,用于获取待检测的图像数据。
预测模块,用于将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置。其中,所述预测模块,具体包括:预处理单元,用于利用Mosaic数据增强算法对所述待检测的图像数据进行预处理,得到预处理后的图像数据。特征提取单元,用于将所述预处理后的图像数据输入所述YOLOv5网络中的特征提取网络进行特征提取,得到显著特征图。特征处理单元,用于将所述显著特征图输入所述YOLOv5网络中的特征处理网络进行特征处理,得到特征图。
安全护具检测模块,用于根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。
作为一种可选的实施方式,还包括:
视频数据获取模块,用于获取待检测的视频数据。
分解模块,用于对所述待检测的视频数据进行分解,得到待检测的图像数据。
本发明提供的方法具体优势如下:
(1)本发明针对云南移动5G施工现场的图像数据,采用Mosaic数据增强算法对训练的图像数据进行处理,丰富了训练数据的背景,减少了计算量。采用矩形推理方法对检测图像进行处理,提高了网络模型的检测速度。
(2)本发明提供的方法采用YOLOv5卷积神经网络模型,与目标检测的传统方法相比,采用检测框回归的计算方法,减少了网络模型的计算次数,速度更快、准确率更高。引入了Focus、BCSP-n模块,减少了网络模型计算量和体积,提高了训练和检测的速度。
(3)本发明可支持实时检测图像、视频两种形式的数据,适应能力强。并提出了将视频数据应用于网络模型训练,扩充为新的训练数据集的方法,扩大了训练数据集的规模,通过迭代训练使网络模型更好地拟合,提升了检测的准确率。
(4)本发明对视频训练数据,提出了分布式训练的处理方法,采用多进程的思想,在多个进程中同时对网络模型进行训练,充分应用了GPU算力资源,提升了网络模型的训练速度。
(5)本发明将基于卷积神经网络模型的目标检测算法和安全护具佩戴情况的逻辑判断相结合,利用计算机实现安全护具的佩戴检测,可7×24小时不间断进行检测,节约人力成本;并在未能检测出结果的情况下设置了重新检测和转人工检测的机制,保证检测的顺利进行。
(6)本发明提供的方法可调节网络模型的大小,满足各类应用场景,运行在移动客户端时可以采用较小的网络模型,在计算能力有限的情况下保证计算的快速和准确。运行在服务器端时可以采用较大的网络模型,在计算能力充足的情况下提升安全护具检测的准确率,在实际中具有较好的可用性。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于YOLOv5的安全护具佩戴检测方法,其特征在于,包括:
获取待检测的图像数据;
将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置;
根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。
2.根据权利要求1所述的基于YOLOv5的安全护具佩戴检测方法,其特征在于,所述获取待检测的图像数据之前,还包括:
获取待检测的视频数据;
对所述待检测的视频数据进行分解,得到待检测的图像数据。
3.根据权利要求1所述的基于YOLOv5的安全护具佩戴检测方法,其特征在于,所述将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图,具体包括:
利用Mosaic数据增强算法对所述待检测的图像数据进行预处理,得到预处理后的图像数据;
将所述预处理后的图像数据输入所述YOLOv5网络中的特征提取网络进行特征提取,得到显著特征图;
将所述显著特征图输入所述YOLOv5网络中的特征处理网络进行特征处理,得到特征图。
4.根据权利要求3所述的基于YOLOv5的安全护具佩戴检测方法,其特征在于,所述将所述预处理后的图像数据输入所述YOLOv5网络中的所述特征提取网络进行特征提取,得到显著特征图,具体包括:
利用所述特征提取网络的Focus模块对所述预处理后的图像数据进行切片、拼接和卷积处理,得到第一特征提取图;
利用所述特征提取网络的Conv模块组对所述第一特征提取图进行卷积处理,得到第二特征提取图;
利用所述特征提取网络的BCSP模块组对所述第二特征提取图进行Bottleneck卷积和拼接处理,得到第三特征提取图;
利用所述特征提取网络的SPP模块对所述第三特征提取图进行池化和拼接处理,得到显著特征图。
5.根据权利要求3所述的基于YOLOv5的安全护具佩戴检测方法,其特征在于,所述将所述显著特征图输入所述YOLOv5网络中的特征处理网络进行特征处理,得到特征图,具体包括:
利用所述特征处理网络的Conv模块组对所述显著特征图进行卷积处理,得到第一特征处理图;
利用所述特征处理网络的Upsample模块组对所述第一特征处理图进行采样和扩充处理,得到第二特征处理图;
利用所述特征处理网络的Concat模块组对所述第二特征处理图在通道维度上进行拼接处理,得到第三特征处理图;
利用所述特征处理网络的BCSP模块组对所述第三特征处理图进行Bottleneck卷积和拼接处理,得到第四特征处理图;
利用所述特征处理网络的Detect模块对所述第四特征处理图进行卷积处理,得到特征图。
6.根据权利要求1所述的基于YOLOv5的安全护具佩戴检测方法,其特征在于,所述根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具,具体包括:
根据所述目标物体类别和所述检测框位置确定安全护具检测类别;所述安全护具检测类别包括安全帽检测、反光衣检测和安全绳检测;
根据所述安全护具检测类别和所述目标物体个数确定施工人员是否正确佩戴安全护具。
7.根据权利要求6所述的基于YOLOv5的安全护具佩戴检测方法,其特征在于,所述根据所述安全护具检测类别和所述目标物体个数确定施工人员是否正确佩戴安全护具,具体包括:
当所述安全护具检测类别为安全帽检测时,根据所述目标物体类别、所述目标物体个数和所述检测框位置确定安全帽佩戴结果;
当所述安全护具检测类别为反光衣检测时,根据所述目标物体类别、所述目标物体个数和所述检测框位置确定反光衣穿戴结果;
当所述安全护具检测类别为安全绳检测时,根据所述目标物体类别、所述目标物体个数和所述检测框位置确定安全绳穿戴结果;
根据所述安全帽佩戴结果、所述反光衣穿戴结果和所述安全绳穿戴结果确定施工人员是否正确佩戴安全护具。
8.一种基于YOLOv5的安全护具佩戴检测系统,其特征在于,包括:
图像数据获取模块,用于获取待检测的图像数据;
预测模块,用于将所述待检测的图像数据输入YOLOv5网络进行预测,得到特征图;所述特征图包括目标物体类别、目标物体个数和检测框位置;
安全护具检测模块,用于根据所述目标物体类别、所述目标物体个数和所述检测框位置确定施工人员是否正确佩戴安全护具。
9.根据权利要求8所述的基于YOLOv5的安全护具佩戴检测系统,其特征在于,还包括:
视频数据获取模块,用于获取待检测的视频数据;
分解模块,用于对所述待检测的视频数据进行分解,得到待检测的图像数据。
10.根据权利要求8所述的基于YOLOv5的安全护具佩戴检测系统,其特征在于,所述预测模块,具体包括:
预处理单元,用于利用Mosaic数据增强算法对所述待检测的图像数据进行预处理,得到预处理后的图像数据;
特征提取单元,用于将所述预处理后的图像数据输入所述YOLOv5网络中的特征提取网络进行特征提取,得到显著特征图;
特征处理单元,用于将所述显著特征图输入所述YOLOv5网络中的特征处理网络进行特征处理,得到特征图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110887767.0A CN113486860A (zh) | 2021-08-03 | 2021-08-03 | 一种基于YOLOv5的安全护具佩戴检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110887767.0A CN113486860A (zh) | 2021-08-03 | 2021-08-03 | 一种基于YOLOv5的安全护具佩戴检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113486860A true CN113486860A (zh) | 2021-10-08 |
Family
ID=77944516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110887767.0A Pending CN113486860A (zh) | 2021-08-03 | 2021-08-03 | 一种基于YOLOv5的安全护具佩戴检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113486860A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114973122A (zh) * | 2022-04-29 | 2022-08-30 | 韶关学院 | 基于改进YOLOv5的安全帽佩戴检测方法 |
CN115223206A (zh) * | 2022-09-19 | 2022-10-21 | 季华实验室 | 工作服穿戴情况检测方法、装置、电子设备及存储介质 |
CN116189066A (zh) * | 2021-11-18 | 2023-05-30 | 重庆药羚科技有限公司 | 实验室ppe合规穿戴监测方法及系统、存储介质及终端 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948501A (zh) * | 2019-03-13 | 2019-06-28 | 东华大学 | 一种监控视频中人员和安全帽的检测方法 |
CN110399905A (zh) * | 2019-07-03 | 2019-11-01 | 常州大学 | 施工场景中安全帽佩戴情况的检测及描述方法 |
CN111931573A (zh) * | 2020-07-07 | 2020-11-13 | 南京南瑞信息通信科技有限公司 | 基于yolo进化深度学习模型的安全帽检测与预警方法 |
CN112541393A (zh) * | 2020-11-10 | 2021-03-23 | 国网浙江嵊州市供电有限公司 | 一种基于深度学习的变电站人员检测方法及装置 |
CN112686595A (zh) * | 2020-12-15 | 2021-04-20 | 上海东普信息科技有限公司 | 物流操作违规行为的检测方法、装置、设备和存储介质 |
-
2021
- 2021-08-03 CN CN202110887767.0A patent/CN113486860A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109948501A (zh) * | 2019-03-13 | 2019-06-28 | 东华大学 | 一种监控视频中人员和安全帽的检测方法 |
CN110399905A (zh) * | 2019-07-03 | 2019-11-01 | 常州大学 | 施工场景中安全帽佩戴情况的检测及描述方法 |
CN111931573A (zh) * | 2020-07-07 | 2020-11-13 | 南京南瑞信息通信科技有限公司 | 基于yolo进化深度学习模型的安全帽检测与预警方法 |
CN112541393A (zh) * | 2020-11-10 | 2021-03-23 | 国网浙江嵊州市供电有限公司 | 一种基于深度学习的变电站人员检测方法及装置 |
CN112686595A (zh) * | 2020-12-15 | 2021-04-20 | 上海东普信息科技有限公司 | 物流操作违规行为的检测方法、装置、设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
徐守坤等: "基于YOLOv3的施工场景安全帽佩戴的图像描述", 《 计算机科学》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189066A (zh) * | 2021-11-18 | 2023-05-30 | 重庆药羚科技有限公司 | 实验室ppe合规穿戴监测方法及系统、存储介质及终端 |
CN114973122A (zh) * | 2022-04-29 | 2022-08-30 | 韶关学院 | 基于改进YOLOv5的安全帽佩戴检测方法 |
CN115223206A (zh) * | 2022-09-19 | 2022-10-21 | 季华实验室 | 工作服穿戴情况检测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110399905B (zh) | 施工场景中安全帽佩戴情况的检测及描述方法 | |
CN108416307B (zh) | 一种航拍图像路面裂缝检测方法、装置及设备 | |
CN111160440B (zh) | 一种基于深度学习的安全帽佩戴检测方法及装置 | |
CN113486860A (zh) | 一种基于YOLOv5的安全护具佩戴检测方法及系统 | |
CN112150821B (zh) | 轻量化车辆检测模型构建方法、系统及装置 | |
CN103049763B (zh) | 一种基于上下文约束的目标识别方法 | |
CN114120019A (zh) | 一种轻量化的目标检测方法 | |
CN106650740B (zh) | 一种车牌识别方法及终端 | |
CN108537743A (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN113159120A (zh) | 一种基于多尺度跨图像弱监督学习的违禁物检测方法 | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
CN112419327A (zh) | 一种基于生成对抗网络的图像分割方法、系统和装置 | |
CN110175248B (zh) | 一种基于深度学习和哈希编码的人脸图像检索方法和装置 | |
CN114241522B (zh) | 现场作业安全穿戴识别方法、系统、设备及存储介质 | |
CN116665148A (zh) | 基于合成孔径雷达数据的海上船舶检测方法 | |
CN111368637B (zh) | 一种基于多掩模卷积神经网络的搬运机器人识别目标方法 | |
CN107832794A (zh) | 一种卷积神经网络生成方法、车系识别方法及计算设备 | |
CN115359360A (zh) | 一种电力现场作业场景检测方法、系统、设备和存储介质 | |
CN109902697A (zh) | 多目标检测方法、装置及移动终端 | |
CN116863271A (zh) | 一种基于改进yolo v5的轻量级红外火焰检测方法 | |
CN111739037A (zh) | 一种针对室内场景rgb-d图像的语义分割方法 | |
CN115423995A (zh) | 一种轻量化幕墙裂纹目标检测方法及系统、安全预警系统 | |
CN117726991B (zh) | 一种高空吊篮安全带检测方法及终端 | |
US11361589B2 (en) | Image recognition method, apparatus, and storage medium | |
CN113627302A (zh) | 一种登高施工合规性检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |