CN113850134A - 一种融合注意力机制相的安全帽佩戴检测方法及系统 - Google Patents
一种融合注意力机制相的安全帽佩戴检测方法及系统 Download PDFInfo
- Publication number
- CN113850134A CN113850134A CN202110971619.7A CN202110971619A CN113850134A CN 113850134 A CN113850134 A CN 113850134A CN 202110971619 A CN202110971619 A CN 202110971619A CN 113850134 A CN113850134 A CN 113850134A
- Authority
- CN
- China
- Prior art keywords
- yolov5
- senet
- network model
- network
- safety helmet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融合注意力机制相的安全帽佩戴检测方法及系统,其通过分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5‑SEnet网络模型,从而实现将SEnet网络与YOLOV5算法进行融合,并使用TensorRT序列化的方式对训练好的YOLOV5‑SEnet网络模型进行优化加速,得到加速后的YOLOV5‑SEnet网络模型;实现模型加速;使用该方法进行检测得到的结果准确率高,模型部署难度小,处理速度快,具有较强的实用性。
Description
技术领域
本发明涉及安防监控技术领域,尤其是涉及一种融合注意力机制相的安全帽佩戴检测方法及系统。
背景技术
在建筑工地或某些工厂进行生产作业时,工人是否佩戴有安全帽对工人的安全保障有着举足轻重的意义。通过大量的数据统计,在存在较多安全隐患的工作场地,安全帽的佩戴可以有效地降低事故的发生概率。目前大部分的工地,主要是通过人工的方式对是否佩戴安全帽进行监督,这种非自动化的方式十分不智能,需要管理人员实时地、不间断地进行检查,费时费力,而且还很容易出现漏检的情况。
现阶段,计算机视觉技术发展日益成熟,尤其是基于深度学习的目标检测技术。基于深度学习的目标检测模型需要大量的数据进行训练,目前网上尚未有公开的比较完善的安全帽佩戴检测数据集。基于深度学习的目标检测模型含有的参数较多,对工程的部署的硬件环境要求较高,同时检测速度也很容易跟不上,不利于管理人员做出及时的处理。
发明内容
本发明提出一种融合注意力机制相的安全帽佩戴检测方法及系统,以克服上述技术不足。
为达到上述技术目的,本发明的技术方案第一方面提供一种融合注意力机制相的安全帽佩戴检测方法,其包括如下步骤:
采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集;
分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练;
使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型;
将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
本发明第二方面提供一种融合注意力机制相的安全帽佩戴检测系统,其包括如下功能模块:
数据采集模块,用于采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集;
网络构建训练模块,用于分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练;
网络加速模块,用于使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型;
目标检测模块,用于将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
本发明第三方面提供一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述一种融合注意力机制相的安全帽佩戴检测方法的步骤。
本发明第四方面提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述一种融合注意力机制相的安全帽佩戴检测方法的步骤。
与现有技术相比,本发明所述一种融合注意力机制相的安全帽佩戴检测方法及系统,其通过将SEnet网络与YOLOV5算法进行融合,得到YOLOV5-SEnet算法,并对训练好的YOLOV5-SEnet模型进行序列化,实现模型加速;使用该方法进行检测得到的结果准确率高,模型部署难度小,处理速度快,具有较强的实用性。
附图说明
图1是本发明实施例所述一种融合注意力机制相的安全帽佩戴检测方法的流程框图;
图2是图1中步骤S3的分步骤流程框图;
图3是本发明实施例所述文件结构目录示意图;
图4是本发明实施例所述YOLOV5-SEnet网络模型的结构示意图;
图5是本发明实施例所述一种融合注意力机制相的安全帽佩戴检测系统的模块框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
基于上述内容,本发明实施例提供一种融合注意力机制相的安全帽佩戴检测方法,如图1所示,其包括如下步骤:
S1、采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集。
通过采集工厂卡口视频以及网络爬虫的方式,收集大量与工厂场景相关的图像以及部分生活场景图像。采集的图像包括:不同场景下的,如室内、室外的;不同天气下的,如晴天,雨天等;不同光照下的,如白天的、晚上的;不同姿态下的,如人员头部区域的正面、侧面以及背面。
采用labelimg为图像的标注工具,标注文件会以xml的格式进行保存,文件中包括图像的大小,目标框的坐标以及目标的类别。
本发明实施例对人员的头部进行标注,具体分为两个类别:佩戴安全帽与未佩戴安全帽。人员佩戴安全帽时,将人的头部和安全帽一起画框,同时标注为类别1。人员未佩戴安全帽时,仅将人的头部框出,同时标注为类别0。特别地,当人员的头部区域的尺寸小于60*60个像素点时不进行标注,当图像中出现的头部区域比例小于30%时不进行标注。
按照比例将图像与标注文件分为训练集、验证集和测试集。在本发明实施例中,采集的图像共有15500张,按照8:1:1的比例随机将图像分为了训练集,验证集,测试集。同时将xml格式的数据转为txt格式的数据,每一行分别存放目标类别,和目标框的归一化后中心点坐标与宽、高。将分好的训练集和验证集分别放入images和labels文件夹中,以备深度神经网络的训练,对应的文件结构目录如图3所示。
S2、分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练。
本发明采用的深度神经网络的基础结构为YOLOV5,YOLOV5网络结构主要由四个部分构成:输入端、基准网络(backbone)、Neck网络、Head输出层。
其中,输入端主要对输入的图像进行一些预处理,例如会对图片进行放缩并进行归一化等操作。特别地,在进行训练时,采用Mosaic数据增强的方法对训练集进行处理,用以增加网络的精度和鲁棒性。本发明实施例中,输入的图像的大小为608*608。
基准网络用来提取图像中的通用特征表示,其主要包括Focus结构、CBL结构、CSP1_3结构、SPP结构。所述Focus结构将输入图像进行切片操作,具体的,将608*608*3的图像变成304*304*12的特征图,然后送入CBL结构。CBL结构由卷积层(Conv)、归一化层(BN)和Leaky_relu激活函数构成。CSP1_3结构由CBL模块、残差模块以及卷积层、Concate组成。SPP结构将特征图分别采用1*1、5*5、9*9和13*13的最大池化方式处理后,在通过concat操作进行多尺度的特征融合。
Neck网络包括有FPN和PAN模块组成,通过特征金字塔的方式将基准网络中得到的某些特征层进行融合,进一步提升特征的鲁棒性和多样性。特征金字塔会增强模型对于不同缩放尺度对象的检测,从而能够识别不同大小和尺度的同一个物体。
Head输出层为最终的检测部分,共输出三组结果,大小分别为:batchsize*n*80*80,batchsize*n*40*40,batchsize*n*20*20,其中n的计算方式为na*(nc+1+4),na为每组锚框的尺寸数量,本发明中na为3,nc为类比的数量,本发明中nc为2,计算公式中的1代表的是前景背景的置信度,数字4代表的是目标中心点的坐标和矩形框的宽高。进一步,在进行训练的时候,针对分类任务采用的损失函数为交叉熵损失函数,如公式1,其中M表示类别的数量,yic为指示变量,如果该类别与样本i的类别相同则yic为1,否则为0,pic表示对于观测样本i属于类别c的预测概率;对目标框的回归采用的是GIOU损失函数,如公式2,对于任意两个框A、B,C为它们的最小封闭形状,C可以把A,B包含在内。
SEnet模块通过对卷积得到的特征图进行处理,得到一个和通道数一样的一维向量作为每个通道的评价分数,然后将改分数分别施加到对应的通道上,得到其结果。SEnet模块主要是学习了channel之间的相关性,筛选出了针对通道的注意力,虽然增加了少量的计算,但是效果比较好。所述SEnet模块包括Sequeeze单元、Excitation单元以及特征重标定单元。
其中,Sequeeze单元用于顺着空间维度来进行特征压缩,将每个二维的特征通道变成一个实数,这个实数某种程度上具有全局的感受野,并且输出的维度和输入的特征通道数相匹配。它表征着在特征通道上响应的全局分布,而且使得靠近输入的层也可以获得全局的感受野。具体操作就是对原特征图C*W*H进行globalaverage pooling,然后得到了一个1*1*C大小的特征图,这个特征图具有全局感受野。
Excitation单元用于输出的1*1*C特征图,再经过两个全连接神经网络,最后用一个类似于循环神经网络中门的机制。通过参数来为每个特征通道生成权重,其中参数被学习用来显式地建模特征通道间的相关性。
特征重标定单元用于使用Excitation得到的结果作为权重,然后通过乘法逐通道加权到U的C个通道上,完成在通道维度上对原始特征的重标定,并作为下一级的输入数据。
通过在YOLOV5中引入通道注意力机制,即Senet模块,能够提取更多图像中含有佩戴安全帽头部区域的通道特征,在增加较少的计算量的同时进一步提高了检测精度。如图4所示,分别在每一个输入Neck网络的特征层后面加入SEnet模块,具体包括,在第二个CBL结构、CSP1_3结构、SPP结构后面增加SEnet结构,对应的用于全局平均池化的通道数分别为256,512,1024。
具体的,本发明实施例训练时采用的系统为ubuntu16.04,使用的深度学习框架为pytorch1.8.0,使用的显卡为一张TitanRTX,批处理大小Batchsize设置为16、训练轮回Epoch设置为200,采用的是衰减学习率,初始学习率为1*10-3,当训练轮回在50次、100次和150次时,学习率分别降为1*10-4、1*10-5、1*10-6。
S3、使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型。
如图2所示,所述步骤S3包括如下分步骤:
S31、使用TensorRT对YOLOV5-SEnet网络模型进行重构和优化,达到加速效果;
S32、将YOLOV5-SEnet网络模型转化为二进制文件wts;
S33、对二进制文件wts使用TensorRT序列化,得到加速后的YOLOV5-SEnet网络模型。
具体的,首先将服务器上训练好的网络模型YOLOV5-SEnet.pt转化为二进制文件YOLOV5-SEnet.wts;然后配置TensorRT相关环境,并根据YOLOV5-SEnet网络模型编写相应的TensorRT引擎代码;接下来将wts文件通过TensorRT序列化转化为YOLOV5-SEnet.engine引擎文件。在进行推理演算时直接加载YOLOV5-SEnet.engine文件即可,不需要YOLOV5-SEnet.pt或者YOLOV5-SEnet.wts,同时也不需要拥有pytorch的环境,十分有利于工程化。
S4、将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
采用融合注意力机制相的安全帽佩戴检测方法对安全帽佩戴进行检测,其在测试集上的平均精度达到96.5%,相比同数据集下训练的YOLOV5模型在精度上有1.5%的提高;在对YOLOV5-SEnet模型进行加速后,在一块TitanRTX显卡下的处理速度达到220fps,相比未使用序列化加速的125fps,提高近一倍的速度。
本发明所述一种融合注意力机制相的安全帽佩戴检测方法,其通过将SEnet网络与YOLOV5算法进行融合,得到YOLOV5-SEnet算法,并对训练好的YOLOV5-SEnet模型进行序列化,实现模型加速;使用该方法进行检测得到的结果准确率高,模型部署难度小,处理速度快,具有较强的实用性。
如图5所示,本发明实施例还提供一种融合注意力机制相的安全帽佩戴检测系统,其包括如下功能模块:
数据采集模块10,用于采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集;
网络构建训练模块20,用于分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练;
网络加速模块30,用于使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型;
目标检测模块40,用于将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
本实施例一种融合注意力机制相的安全帽佩戴检测系统的执行方式与上述融合注意力机制相的安全帽佩戴检测方法基本相同,故不作详细赘述。
本实施例服务器为提供计算服务的设备,通常指具有较高计算能力,通过网络提供给多个消费者使用的计算机。该实施例的服务器包括:存储器、处理器以及系统总线,所述存储器包括存储其上的可运行的程序,本领域技术人员可以理解,本实施例的终端设备结构并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储器可用于存储软件程序以及模块,处理器通过运行存储在存储器的软件程序以及模块,从而执行终端的各种功能应用以及数据处理。存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
在存储器上包含一种融合注意力机制相的安全帽佩戴检测方法的可运行程序,所述可运行程序可以被分割成一个或多个模块/单元,所述一个或多个模块/单元被存储在所述存储器中,并由处理器执行,以完成信息的获取及实现过程,所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述服务器中的执行过程。例如,所述计算机程序可以被分割为数据采集模块10、网络构建训练模块20、网络加速模块30、目标检测模块40。
处理器是服务器的控制中心,利用各种接口和线路连接整个终端设备的各个部分,通过运行或执行存储在存储器内的软件程序和/或模块,以及调用存储在存储器内的数据,执行终端的各种功能和处理数据,从而对终端进行整体监控。可选的,处理器可包括一个或多个处理单元;优选的,处理器可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器中。
系统总线是用来连接计算机内部各功能部件,可以传送数据信息、地址信息、控制信息,其种类可以是例如PCI总线、ISA总线、VESA总线等。处理器的指令通过总线传递至存储器,存储器反馈数据给处理器,系统总线负责处理器与存储器之间的数据、指令交互。当然系统总线还可以接入其他设备,例如网络接口、显示设备等。
所述服务器应至少包括CPU、芯片组、内存、磁盘系统等,其他构成部件在此不再赘述。
在本发明实施例中,该终端所包括的处理器执行的可运行程序具体为:一种融合注意力机制相的安全帽佩戴检测方法,其包括如下步骤:
采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集;
分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练;
使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型;
将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种融合注意力机制相的安全帽佩戴检测方法,其特征在于,包括如下步骤:
采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集;
分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练;
使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型;
将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
2.根据权利要求1所述融合注意力机制相的安全帽佩戴检测方法,其特征在于,分别在YOLOV5网络的基准网络中的第二个CBL结构、CSP1_3结构、SPP结构后面增加SEnet结构。
3.根据权利要求2所述融合注意力机制相的安全帽佩戴检测方法,其特征在于,增加SEnet结构之后的第二个CBL结构、CSP1_3结构、SPP结构所对应的用于全局平均池化的通道数依次翻倍递增。
4.根据权利要求1所述融合注意力机制相的安全帽佩戴检测方法,其特征在于,在利用数据集对YOLOV5-SEnet网络模型进行训练之前,需要确定卷积神经网络的训练参数和网络参数优化的方法,以及配置卷积神经网络YOLOV5-SEnet中数据读取的地址。
5.根据权利要求1所述融合注意力机制相的安全帽佩戴检测方法,其特征在于,在对YOLOV5-SEnet网络模型进行训练时,采用Mosaic数据增强的方法对训练图像进行处理。
6.根据权利要求1所述融合注意力机制相的安全帽佩戴检测方法,其特征在于,所述使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型,包括如下内容:
使用TensorRT对YOLOV5-SEnet网络模型进行重构和优化,达到加速效果;
将YOLOV5-SEnet网络模型转化为二进制文件wts;
对二进制文件wts使用TensorRT序列化,得到加速后的YOLOV5-SEnet网络模型。
7.根据权利要求1所述融合注意力机制相的安全帽佩戴检测方法,其特征在于,在将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中的同时,需要编写基于TensorRT的推理代码。
8.一种融合注意力机制相的安全帽佩戴检测系统,其特征在于,包括如下功能模块:
数据采集模块,用于采集不同参数下的安全帽佩戴图像数据,标注安全帽佩戴类别并制作数据集;
网络构建训练模块,用于分别在YOLOV5网络结构中的每一个输入Neck网络的特征层后面加入SEnet模块,构建得到YOLOV5-SEnet网络模型,利用数据集对YOLOV5-SEnet网络模型进行训练;
网络加速模块,用于使用TensorRT序列化的方式对训练好的YOLOV5-SEnet网络模型进行优化加速,得到加速后的YOLOV5-SEnet网络模型;
目标检测模块,用于将待检测的图片输入到经过TensorRT加速后的YOLOV5-SEnet网络模型中,运行得到图片中头部或者佩戴有安全帽头部的目标位置、目标类别以及置信度。
9.一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述融合注意力机制相的安全帽佩戴检测方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述融合注意力机制相的安全帽佩戴检测方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110971619.7A CN113850134A (zh) | 2021-08-24 | 2021-08-24 | 一种融合注意力机制相的安全帽佩戴检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110971619.7A CN113850134A (zh) | 2021-08-24 | 2021-08-24 | 一种融合注意力机制相的安全帽佩戴检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113850134A true CN113850134A (zh) | 2021-12-28 |
Family
ID=78975998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110971619.7A Pending CN113850134A (zh) | 2021-08-24 | 2021-08-24 | 一种融合注意力机制相的安全帽佩戴检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113850134A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
-
2021
- 2021-08-24 CN CN202110971619.7A patent/CN113850134A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189115A (zh) * | 2023-04-24 | 2023-05-30 | 青岛创新奇智科技集团股份有限公司 | 车型识别方法、电子设备和可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112166439A (zh) | 真实到合成图像域转移 | |
CN112541393A (zh) | 一种基于深度学习的变电站人员检测方法及装置 | |
CN112381005A (zh) | 一种面向复杂场景的安全帽检测系统 | |
CN112492297B (zh) | 一种对视频的处理方法以及相关设备 | |
CN113160231A (zh) | 一种样本生成方法、样本生成装置及电子设备 | |
CN114170144A (zh) | 一种输电线路销钉缺陷检测方法、设备及介质 | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
CN113850134A (zh) | 一种融合注意力机制相的安全帽佩戴检测方法及系统 | |
CN114399734A (zh) | 一种基于视觉信息的森林火灾预警方法 | |
CN117197746A (zh) | 基于深度学习的安全监测系统及方法 | |
CN114120436A (zh) | 动作识别模型的训练方法、动作识别方法及相关装置 | |
CN115760886B (zh) | 基于无人机鸟瞰图的地块划分方法、装置及相关设备 | |
CN116630668A (zh) | 一种快速轻量级的安全帽佩戴异常识别方法 | |
CN116543333A (zh) | 电力系统的目标识别方法、训练方法、装置、设备和介质 | |
CN115375964A (zh) | 一种基于YOLOv5模型改进的方法及装置 | |
CN113902744B (zh) | 基于轻量级网络的图像检测方法、系统、设备和存储介质 | |
CN116778214A (zh) | 一种行为检测方法、装置、设备及其存储介质 | |
CN115311518A (zh) | 一种获取视觉属性信息的方法、装置、介质及电子设备 | |
CN114881103A (zh) | 一种基于通用扰动贴纸的对抗样本检测方法及装置 | |
CN117036658A (zh) | 一种图像处理方法及相关设备 | |
CN106874835A (zh) | 一种图像处理方法及装置 | |
Achaji et al. | Analysis over vision-based models for pedestrian action anticipation | |
CN117423138B (zh) | 基于多分支结构的人体跌倒检测方法、装置及系统 | |
CN116798067A (zh) | 基于ShuffleNetv2-YOLOv5s的朱鹮进食行为实时检测方法 | |
US20230118460A1 (en) | Segmenting and removing objects from media items |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |