CN112084866A - 一种基于改进YOLO v4算法的目标检测方法 - Google Patents

一种基于改进YOLO v4算法的目标检测方法 Download PDF

Info

Publication number
CN112084866A
CN112084866A CN202010788543.XA CN202010788543A CN112084866A CN 112084866 A CN112084866 A CN 112084866A CN 202010788543 A CN202010788543 A CN 202010788543A CN 112084866 A CN112084866 A CN 112084866A
Authority
CN
China
Prior art keywords
layer
feature
module
output
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010788543.XA
Other languages
English (en)
Other versions
CN112084866B (zh
Inventor
董辉
金雨芳
董高锋
吴祥
俞立
郭方洪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202010788543.XA priority Critical patent/CN112084866B/zh
Publication of CN112084866A publication Critical patent/CN112084866A/zh
Application granted granted Critical
Publication of CN112084866B publication Critical patent/CN112084866B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进YOLO v4算法的目标检测方法,包括:获取安全帽检测数据集SHWD,并对安全帽检测数据集SHWD进行数据扩充得到样本集;基于YOLO v4算法构建改进型YOLO v4网络结构,得到改进YOLO v4算法;利用样本集对改进YOLO v4算法进行训练,将训练后最佳的权重文件加载至改进YOLO v4算法得到目标检测网络;针对获取的待分类图像,采用所述目标检测网络输出对应的目标检测结果。本发明的方法具有较高的检测速度和小目标检测精度。

Description

一种基于改进YOLO v4算法的目标检测方法
技术领域
本申请属于计算机视觉技术领域,具体涉及一种基于改进YOLO v4算法的目标检测方法,可以应用于各类施工现场用于实时安全帽佩戴检测。
背景技术
目标检测作为计算机视觉领域的研究热点,学术界已有将近二十年的研究历史。近些年随着深度学习技术的火热发展,目标检测算法也从基于手工特征的传统算法转向了基于深度神经网络的检测技术。然而,目标检测如安全帽检测方面仍有诸多问题亟待解决。
传统的目标检测算法的核心思想是在多尺度图像上应用多尺度窗口进行滑窗,每个roi(滑动窗口)位置提取出固定长度的特征向量,然后采用SVM进行学习判别,这在小数据上比较奏效,然而这种方法有很多弊端。首先,滑动窗口的区域选择策略没有针对性,时间复杂度高,会造成大量冗余的预选框生成,导致学习效率低下,容易在分类出现大量的假正样本。另外,手工设计的特征对于多样性的变化没有很好的鲁棒性。
近年来人工智能发展迅速,机器视觉作为其重要的研究方向,也迎来了第三波热潮。目标检测作为计算机视觉领域的研究热点,学术界已有将近二十年的研究历史。近些年随着深度学习技术的火热发展,目标检测算法也从基于手工特征的传统算法转向了基于深度神经网络的检测技术。从最初2013年提出的R-CNN、OverFeat,到后面的Fast/Faster R-CNN,SSD,YOLO系列,再到2018年最近的Pelee。短短不到五年时间,基于深度学习的目标检测技术,在网络结构上,从two stage到one stage,从bottom-up only到Top-Down,从single scale network到feature pyramid network,都涌现出许多好的算法技术,这些算法在开放目标检测数据集上的检测效果和性能都很出色。
YOLO系列算法作为one-stage算法的代表,将对象检测重新定义为一个回归问题。目前最新的YOLO v4算法在前代YOLO v3的基础上,AP和FPS分别提高了10%和12%,实现了精度与速度的双提升。然而,在实际应用中,YOLO v4仍然与大部分深度学习目标检测算法相同,在小目标检测上仍有所欠缺。
针对上述问题,对目标帽检测的研究需要提高小目标检测精度,同时,保证较高的检测速度。
发明内容
本申请的目的在于提供一种基于改进YOLO v4算法的目标检测方法,该方法具有较高的检测速度和小目标检测精度。
为实现上述目的,本申请所采取的技术方案为:
一种基于改进YOLO v4算法的目标检测方法,用于安全帽佩戴的实时检测,所述基于改进YOLO v4算法的目标检测方法,包括:
步骤S1、获取安全帽检测数据集SHWD,并对所述安全帽检测数据集SHWD进行数据扩充得到样本集;
步骤S2、基于YOLO v4算法构建改进型YOLO v4网络结构,得到改进YOLO v4算法;
步骤S3、利用所述样本集对所述改进YOLO v4算法进行训练,将训练后最佳的权重文件加载至改进YOLO v4算法得到目标检测网络;
步骤S4、针对获取的待分类图像,采用所述目标检测网络输出对应的目标检测结果,所述目标检测结果包括待分类图像中目标区域的位置以及每个目标区域对应的类别,其中目标区域的类别为佩戴安全帽或未佩戴安全帽;
其中,所述改进型YOLO v4网络结构包括特征提取骨干网络、SPP模块、特征融合模块和多分类器模块,所述特征提取骨干网络为CSPDarknet53网络结构,所述CSPDarknet53网络结构输出四个大小分别为152*152、76*76、38*38、19*19的特征图,大小为19*19的特征图输入所述SPP模块,经SPP模块最大池化后拼接得到池化特征图,将所述池化特征图以及CSPDarknet53网络结构输出的大小分别为152*152、76*76、38*38的特征图输入所述特征融合模块,所述多分类器模块基于特征融合模块输出的76*76、38*38、19*19三个尺度的融合特征进行分类检测,输出最终的目标检测结果。
以下还提供了若干可选方式,但并不作为对上述总体方案的额外限定,仅仅是进一步的增补或优选,在没有技术或逻辑矛盾的前提下,各可选方式可单独针对上述总体方案进行组合,还可以是多个可选方式之间进行组合。
作为优选,所述步骤S1,对所述安全帽检测数据集SHWD进行数据扩充得到样本集,包括:
向获取的所述安全帽检测数据集SHWD中加入若干张图片,若干张图片中一部分图片为佩戴非安全帽的帽子的图片,另一部分图片为佩戴安全帽或未佩戴安全帽的图片;
对加入若干张图片后的安全帽检测数据集SHWD进行数据增强处理得到样本集。
作为优选,所述CSPDarknet53网络结构包括依次连接的DarknetConv2D_BN_Mish模块、第一Resblock_body模块、第二Resblock_body模块、第三Resblock_body模块、第四Resblock_body模块和第五Resblock_body模块;
所述第二Resblock_body模块输出大小为152*152的特征图,所述第三Resblock_body模块输出大小为76*76的特征图,所述第四Resblock_body模块输出大小为38*38的特征图,所述第五Resblock_body模块输入大小为19*19的特征图。
作为优选,所述SPP模块包括四个并行的最大池化层,四个最大池化层的池化核大小分别为13*13、9*9、5*5、1*1;
所述SPP模块对输入的大小为19*19的特征图分别利用四个最大池化层进行处理,并将四个最大池化层处理后的输出进行拼接,得到池化特征图输出。
作为优选,所述特征融合模块包括依据数据流向依次连接的第一上采样层、第一拼接层、第二上采样层、第二拼接层、第三拼接层、第三上采样层、第四拼接层、第五拼接层、第六拼接层、卷积层、下采样层以及第七拼接层;
所述SPP模块输出的池化特征图输入至所述第一上采样层,所述池化特征图同时经过第四上采样层后输入第二拼接层,所述池化特征图同时经过第五上采样层后输入第五拼接层,同时所述池化特征图作为大小为19*19的融合特征输出至多分类器模块;
所述CSPDarknet53网络结构输出的大小为38*38的特征图输入至所述第一拼接层,所述第一拼接层的输出作为所述第二上采样层的输入,所述第一拼接层的输出经过第六上采样层后输入第四拼接层,所述第一拼接层的输出同时作为大小为38*38的融合特征输出至多分类器模块;
所述CSPDarknet53网络结构输出的大小为76*76的特征图输入至所述第三拼接层,所述第三拼接层的输出同时作为第三上采样层和第七拼接层的输入,所述第七拼接层的输出作为大小为76*76的融合特征输出至多分类器模块;
所述CSPDarknet53网络结构输出的大小为152*152的特征图输入至所述第六拼接层,所述第六拼接层的输出作为卷积层的输入,所述卷积层的输出经所述下采样层后输入至所述第七拼接层。
作为优选,所述多分类器模块包括第一Yolo Head分类器、第二Yolo Head分类器和第三Yolo Head分类器,所述第一Yolo Head分类器用于接收所述特征融合模块输出的大小为19*19的融合特征,所述第二Yolo Head分类器用于接收所述特征融合模块输出的大小为38*38的融合特征,所述第三Yolo Head分类器用于接收所述特征融合模块输出的大小为76*76的融合特征。
本申请提供的基于改进YOLO v4算法的目标检测方法,基于现有最新的YOLO v4算法,基础网络的精度和速度都有极大保障,将原有的特征提取骨干网络CSPDarknet53输出三个不同尺寸的特征图改为输出四个不同大小的特征图,分别为152*152、76*76、38*38、19*19,使得特征图的八倍下采样变为四倍下采样,从而增强网络的小目标检测能力。
附图说明
图1为本申请的基于改进YOLO v4算法的目标检测方法的流程图;
图2为本申请的改进型YOLO v4网络结构的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中在本申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是在于限制本申请。
其中一个实施例中,提供一种基于改进YOLO v4算法的目标检测方法,该目标检测方法具有较高的检测速度,并且对小目标检测的准确度高。
容易理解的是,本申请的目标检测方法在所有的小目标检测上均具有较优的应用效果,但为了便于对目标检测方法的描述,本实施例以应用于安全帽佩戴的实时检测为例进行说明。
如图1所示,本实施例的基于改进YOLO v4算法的目标检测方法,包括:
步骤S1、获取安全帽检测数据集SHWD(SafetyHelmetWearing-Dataset),并对所述安全帽检测数据集SHWD进行数据扩充得到样本集。
安全帽检测数据集SHWD为公开的数据集,总共有7581张图像,包含9044个佩戴安全帽的bounding box(正类),以及111514个未佩戴安全帽的bounding box(负类),所有的图像用labelimg标注出目标区域及类别。
在对原始的安全帽检测数据集SHWD进行数据集扩充时,向安全帽检测数据集SHWD中增加若干(本实施例中为1500)张图片,若干张图片中一部分图片为佩戴非安全帽的帽子的图片,另一部分图片为佩戴安全帽或未佩戴安全帽的图片。对于本实施例增加的1500张图片,其中包含500张佩戴类似安全帽帽子的图片,1000张包含目标(佩戴或者未佩戴安全帽)的图片,从而提高神经网络分辨真假安全帽的能力。
容易理解的是,向安全帽检测数据集SHWD增加图片的张数以及类型比例可根据实际情况进行调整,例如可以大于1500张或小于1500,本实施例增加1500张后安全帽检测数据集SHWD中共有9081张图片,图片数量适宜,确保训练速度和训练精度达到期望值;例如还可以在增加的图片中提供不同类型的安全帽的图片,以提高神经网络对安全帽的识别精度。
并且对加入若干张图片后的安全帽检测数据集SHWD进行数据增强处理得到样本集。数据增强处理基于现有方法实现即可,例如Mosaic数据增强、SAT数据增强、Labelsmoothing数据增强和DropBlock数据增强等方法。
样本集中样本标签共两类:当目标区域为佩戴安全帽则将其标注为hat,表示目标区域的类别为佩戴安全帽;当目标区域未佩戴安全帽则将其标注为person,表示目标区域的类别为未佩戴安全帽。
需要说明的是,以上为本实施例提供的样本集,在其他实施例中,保证具有足够有效的测试样本的情况下,可以对样本集的获取方式、数量以及标注方式等进行调整。
步骤S2、基于YOLO v4算法构建改进型YOLO v4网络结构,得到改进YOLO v4算法。
YOLO v4算法在检测速度和检测精度方面均具有较优的效果,本实施例在现有的YOLO v4算法的基础上进行改进,改进的重点为针对YOLO v4算法中的网络结构进行改进,构建改进型YOLO v4网络结构,从而得到改进YOLO v4算法,以提升目标检测效果。
如图2所示,本实施例中改进型YOLO v4网络结构包括特征提取骨干网络、SPP模块、特征融合模块和多分类器模块。
特征提取骨干网络为CSPDarknet53网络结构,所述CSPDarknet53网络结构输出四个大小分别为152*152、76*76、38*38、19*19的特征图,大小为19*19的特征图输入所述SPP模块,经SPP模块最大池化后拼接得到池化特征图,将所述池化特征图以及CSPDarknet53网络结构输出的大小分别为152*152、76*76、38*38的特征图输入所述特征融合模块,所述多分类器模块基于特征融合模块输出的76*76、38*38、19*19三个尺度的融合特征进行分类检测,输出最终的目标检测结果。
具体的,改进型YOLO v4网络结构的各个模块如下。
1、特征提取骨干网络
本实施例中的特征提取网络为CSPDarknet53网络结构,CSPDarknet53网络结构具体包括:根据数据流向(数据流向应理解为数据输入输出的顺序方向,本实施例数据流向与图2箭头指向相同)依次连接的DarknetConv2D_BN_Mish模块、第一Resblock_body模块、第二Resblock_body模块、第三Resblock_body模块、第四Resblock_body模块和第五Resblock_body模块。并且CSPDarknet53网络结构中的Inputs表示输入,本实施例中的输入为608*608大小的图片。
其中第二Resblock_body模块输出大小为152*152的特征图,所述第三Resblock_body模块输出大小为76*76的特征图,所述第四Resblock_body模块输出大小为38*38的特征图,所述第五Resblock_body模块输入大小为19*19的特征图。
本实施例中使用的DarknetConv2D_BN_Mish模块以及各Resblock_body模块与现有的YOLO v4算法的网络结构中的模块结构相同,这里就不再进行赘述。
与现有技术不同的是,本实施例将CSPDarknet53网络结构原有输出三个不同尺寸的特征图修改为输出四个不同尺寸的特征图,使得特征图的八倍下采样变为四倍下采样,从而增强网络的小目标检测能力。
2、SPP模块
本实施例的SPP模块包括四个并行的最大池化层,四个最大池化层的池化核大小分别为13*13、9*9、5*5、1*1。
SPP模块对输入的大小为19*19的特征图分别利用四个最大池化层进行处理,并将四个最大池化层处理后的输出进行拼接,得到池化特征图输出。
3、所述特征融合模块
本实施例中特征融合模块包括依据数据流向依次连接的第一上采样层、第一拼接层、第二上采样层、第二拼接层、第三拼接层、第三上采样层、第四拼接层、第五拼接层、第六拼接层、卷积层、下采样层以及第七拼接层。
其中SPP模块输出的池化特征图输入至第一上采样层,池化特征图同时经过第四上采样层后输入第二拼接层,池化特征图同时经过第五上采样层后输入第五拼接层,同时所述池化特征图作为大小为19*19的融合特征输出至多分类器模块。
CSPDarknet53网络结构输出的大小为38*38的特征图输入至所述第一拼接层,所述第一拼接层的输出作为所述第二上采样层的输入,所述第一拼接层的输出经过第六上采样层后输入第四拼接层,所述第一拼接层的输出同时作为大小为38*38的融合特征输出至多分类器模块。
CSPDarknet53网络结构输出的大小为76*76的特征图输入至所述第三拼接层,所述第三拼接层的输出同时作为第三上采样层和第七拼接层的输入,所述第七拼接层的输出作为大小为76*76的融合特征输出至多分类器模块。
CSPDarknet53网络结构输出的大小为152*152的特征图输入至所述第六拼接层,所述第六拼接层的输出作为卷积层的输入,所述卷积层的输出经所述下采样层后输入至所述第七拼接层。
容易理解的是,关于特征融合模块中未具体说明数据输入输出的层依据数据流向依次传递数据即可,这里不进一步赘述。
为了保证正常的数据传递,在特征融合模块的各层中还叠加有conv层(卷积层),本实施例中的一种叠加方式如下:
第一上采样层前叠加有一个conv层、第一拼接层后叠加有五个conv层、第二上采样层前叠加有一个conv层、第二拼接层后叠加有一个conv层、第三拼接层后叠加有五个conv层、第三上采样层前叠加有一个conv层、第四拼接层后叠加有一个conv层、第五拼接层后叠加有两个conv层、第六拼接层后叠加有五个conv层、卷积层为两个conv层、第七拼接层后叠加有两个conv层、第四上采样层前叠加有两个conv层、第五上采样层前叠加有两个conv层、第六上采样层前叠加有一个conv层。
本实施例的特征融合模块将深层特征层经过上采样与所有浅层特征层相连,经过三次上采样使四个不同尺寸的特征图逐个串联。较深层的特征图经过上采样并与所有较浅层的特征图进行拼接,如19×19特征层经过2倍上采样与38×38特征层拼接,同时分别经过4倍、8倍上采样后与72×72和152×152特征层拼接。从而形成类似密集块的特征融合网络。采用上述结构的目的是达到特征重用的作用,使浅层特征层可以融合所有较深层特征图特征,从而使后续分类器分类得到表达效果更好的特征。由改进后网络结构图可知,本实施例中加入的152×152特征层在与较深层特征层拼接后采用下采样方法与72×72特征层进行拼接,这一过程也是一个特征重复提取的过程,从而达到丰富卷积层的语义信息来提高检测精度的目的。
最后,仍然采用76×76、38×38、19×19三个尺度的融合特征层分别做检测,而最浅层的152×152融合特征层,经过下采样与76×76融合特征层进行拼接,起到特征反复提取的作用。
经过上述特征融合模块,可以使负责小目标检测的浅层融合特征层最大限度融合深层特征,从而达到提高小目标检测的目的。另外,密集连接还有很好的减小梯度消失、抗过拟合和泛化性能。由于安全帽一般相对于整个图片而言面积相对较小,所以对网络小目标检测要求更高,密集连接的方式可以实现特征的重用,提升梯度的反向传播,加强了特征的传播,从而提升小目标的检测。
4、所述多分类器模块
多分类器模块包括第一Yolo Head分类器、第二Yolo Head分类器和第三YoloHead分类器,所述第一Yolo Head分类器用于接收所述特征融合模块输出的大小为19*19的融合特征,所述第二Yolo Head分类器用于接收所述特征融合模块输出的大小为38*38的融合特征,所述第三Yolo Head分类器用于接收所述特征融合模块输出的大小为76*76的融合特征。需要说明的是,本实施例中使用的Yolo Head分类器的具体结构与现有YOLO v4算法中的相同,这里就不再进行赘述。
即特征融合模块最深层19×19特征直接输出至第一Yolo Head分类器进行分类,并通过2倍上采样与38×38特征拼接,拼接完后输出至第二Yolo Head分类器进行分类,同时经过2倍上采样与76×76特征、4倍上采样后的19×19特征三个特征进行拼接,再经过2倍上采样与152×152特征、4倍上采样后的38×38特征、8倍上采样后的19×19特征四个特征进行拼接,最后经过卷积和2倍下采样后与之前的三个特征拼接后的76×76特征进行拼接,拼接的特征输入第三Yolo Head分类器进行分类。
采用76×76、38×38、19×19三个尺度的融合特征层分别做检测,采用独立的logistic分类器。以19×19为例,将输入图片划分为19×19的单元格,如果目标的真值框中心落在某个单元格区域内,则由这个单元格作为预测目标的单元格,每个单元格可产生三个预测框,共生成19×19×3=1083个预测框。当目标的类别置信度大于设置好的阈值时,相应单元格产生的三个预选框将会被保留,在通过非极大值抑制(NMS)筛选出最合适的边界框。所以三个尺度最多可检测(76×76)+(38×38)+(19×19)=7581个目标,共可以生成7581×3=22743个预选框。
用三个不同尺寸预测,从而满足不同大小的目标物体,最浅层特征图(152×152)经过下采样与下一层特征图(76×76)进行拼接,具有较小的感受野,适用于检测小物体。最深层特征图(19×19),具有较大的感受野,适用于大目标的检测。剩余特征层(38×38),具有中等尺度的感受野,适合检测中等尺寸的对象,使得本实施例的改进型YOLO v4网络结构适用范围大,对各体积的物体均具有较优的检测结果。
步骤S3、利用所述样本集对改进YOLO v4算法进行训练,将训练后最佳的权重文件加载至改进YOLO v4算法得到目标检测网络。
本实施例在训练时,按4:1的比例将样本集划分为训练集和验证集,将训练集中的样本图像输入改进YOLO v4算法,通过不断迭代训练得到安全帽目标检测最优的权重文件。其本质就是利用损失函数不断调节网络中的权重,再利用验证集计算平均精度mAP,从而验证训练结果是否达标,直至得到达标的权重文件,并将该权重文件加载至改进YOLO v4算法中得到作为目标检测的目标检测网络。
本实施例中使用多尺度训练的方法提高算法对不同尺度的检测精度,即采用76×76、38×38、19×19三个尺度的融合特征层分别做检测。并且在训练过程中采用以下方法来保证训练的有效性。
a、使用Mosaic数据增强方法,利用四张图片进行拼接,从而使拼接后的图片具有丰富的物体检测背景,且在BN计算时会一次计算四张图片的数据。
b、采用Label Smoothing标签平滑。简单来说就是加入一个惩罚因子,让模型分类不会过于准确,防止过拟合。
c、采用CIOU。不同于IOU简单比值的概念,CIOU将目标与anchor(候选框)之间的距离,重叠率、尺度以及惩罚项都考虑进去,使得目标框回归变得更加稳定,不会像IOU和GIOU一样出现训练过程中发散等问题。而惩罚因子把预测框长宽比拟合目标框的长宽比考虑进去。CIOU公式如下:
Figure BDA0002622935940000101
其中,IOU为预选框和真值框的交并比,ρ2(b,bgt)分别代表了预测框和真实框的中心点的欧式距离,c代表的是能够同时包含预测框和真实框的最小闭包区域的对角线距离。
而α和v的公式如下:
Figure BDA0002622935940000102
Figure BDA0002622935940000103
其中ωgt、hgt、ω、h分别表示真值框和预测框的宽和高。
1-CIOU就可以得到相应LOSS函数:
Figure BDA0002622935940000104
d、学习率余弦退火衰减。学习率会先上升再下降。
e、采用Dropblock正则化方法。Dropblock是Dropout在卷积层上的推广,Dropout是一种特征增强方法,就是按照一定概率屏蔽一部分神经元,使其参数不参与本轮更新,多用于全连接层。类似于模拟遮挡的思想,而Dropblock就是借鉴了这种思想,在卷积层进行相似操作,但并不是一个一个点而是一块一块进行归零操作。
f、设置anchor尺寸。根据安全帽监测数据集,使用k-means聚类算法对安全帽尺寸进行分类,从而获得获取9种尺寸的anchor,从而得到最适合安全帽检测的anchor从小到大分别为(9,18)、(12,25)、(19,36)、(30,51)、(45,77)、(69,116)、(99,179)、(159,255)、(296,399)。
步骤S4、针对获取的待分类图像,采用所述目标检测网络输出对应的目标检测结果,所述目标检测结果包括待分类图像中目标区域的位置以及每个目标区域对应的类别,其中目标区域的类别为目标佩戴安全帽或目标未佩戴安全帽。
针对施工区域的安全帽检测而言,可以通过安装在施工区域的摄像头实时采集视频信息,通过视频帧截取,并对截取的每一帧图像进行预处理,进行裁剪或者填充使其符合608*608大小,然后作为待分类图像输入目标检测网络中。
由于一帧图像内可能存在多个人员信息,因此目标检测网络输出的目标检测结果中包含多个目标区域,并且每个目标区域的类别为目标佩戴安全帽或目标未佩戴安全帽。
需要说明的是,对于如何将输出的目标检测结果呈现在待分类图像上本申请不做严格限制。例如可以根据目标区域的位置在待分类图像上标注相应的框,并且在框的附近标注识别号以区别佩戴安全帽和未佩戴安全帽;或者直接以不同颜色的框表示不同类别的目标区域。
本实施例的目标检测方法基于现有最新的YOLO v4算法,基础网络的精度和速度都有极大保障,并且将原有的特征提取骨干网络CSPDarknet53输出三个不同尺寸的特征图改为输出四个不同大小的特征图,使得特征图的八倍下采样变为四倍下采样,从而增强网络的小目标检测能力。
进一步的,目标检测网络中使较深层的特征图与较浅层的所有特征图进行拼接,从而形成类似密集块的特征融合网络,达到特征重用的作用,使浅层特征层可以融合所有较深层特征图特征,从而使后续分类器分类得到更好的特征。因此可以使负责小目标检测的浅层融合特征层最大限度融合深层特征,从而达到提高小目标检测的目的。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (6)

1.一种基于改进YOLO v4算法的目标检测方法,用于安全帽佩戴的实时检测,其特征在于,所述基于改进YOLO v4算法的目标检测方法,包括:
步骤S1、获取安全帽检测数据集SHWD,并对所述安全帽检测数据集SHWD进行数据扩充得到样本集;
步骤S2、基于YOLO v4算法构建改进型YOLO v4网络结构,得到改进YOLO v4算法;
步骤S3、利用所述样本集对所述改进YOLO v4算法进行训练,将训练后最佳的权重文件加载至改进YOLO v4算法得到目标检测网络;
步骤S4、针对获取的待分类图像,采用所述目标检测网络输出对应的目标检测结果,所述目标检测结果包括待分类图像中目标区域的位置以及每个目标区域对应的类别,其中目标区域的类别为佩戴安全帽或未佩戴安全帽;
其中,所述改进型YOLO v4网络结构包括特征提取骨干网络、SPP模块、特征融合模块和多分类器模块,所述特征提取骨干网络为CSPDarknet53网络结构,所述CSPDarknet53网络结构输出四个大小分别为152*152、76*76、38*38、19*19的特征图,大小为19*19的特征图输入所述SPP模块,经SPP模块最大池化后拼接得到池化特征图,将所述池化特征图以及CSPDarknet53网络结构输出的大小分别为152*152、76*76、38*38的特征图输入所述特征融合模块,所述多分类器模块基于特征融合模块输出的76*76、38*38、19*19三个尺度的融合特征进行分类检测,输出最终的目标检测结果。
2.如权利要求1所述的基于改进YOLO v4算法的目标检测方法,其特征在于,所述步骤S1,对所述安全帽检测数据集SHWD进行数据扩充得到样本集,包括:
向获取的所述安全帽检测数据集SHWD中加入若干张图片,若干张图片中一部分图片为佩戴非安全帽的帽子的图片,另一部分图片为佩戴安全帽或未佩戴安全帽的图片;
对加入若干张图片后的安全帽检测数据集SHWD进行数据增强处理得到样本集。
3.如权利要求1所述的基于改进YOLO v4算法的目标检测方法,其特征在于,所述CSPDarknet53网络结构包括依次连接的DarknetConv2D_BN_Mish模块、第一Resblock_body模块、第二Resblock_body模块、第三Resblock_body模块、第四Resblock_body模块和第五Resblock_body模块;
所述第二Resblock_body模块输出大小为152*152的特征图,所述第三Resblock_body模块输出大小为76*76的特征图,所述第四Resblock_body模块输出大小为38*38的特征图,所述第五Resblock_body模块输入大小为19*19的特征图。
4.如权利要求1所述的基于改进YOLO v4算法的目标检测方法,其特征在于,所述SPP模块包括四个并行的最大池化层,四个最大池化层的池化核大小分别为13*13、9*9、5*5、1*1;
所述SPP模块对输入的大小为19*19的特征图分别利用四个最大池化层进行处理,并将四个最大池化层处理后的输出进行拼接,得到池化特征图输出。
5.如权利要求1所述的基于改进YOLO v4算法的目标检测方法,其特征在于,所述特征融合模块包括依据数据流向依次连接的第一上采样层、第一拼接层、第二上采样层、第二拼接层、第三拼接层、第三上采样层、第四拼接层、第五拼接层、第六拼接层、卷积层、下采样层以及第七拼接层;
所述SPP模块输出的池化特征图输入至所述第一上采样层,所述池化特征图同时经过第四上采样层后输入第二拼接层,所述池化特征图同时经过第五上采样层后输入第五拼接层,同时所述池化特征图作为大小为19*19的融合特征输出至多分类器模块;
所述CSPDarknet53网络结构输出的大小为38*38的特征图输入至所述第一拼接层,所述第一拼接层的输出作为所述第二上采样层的输入,所述第一拼接层的输出经过第六上采样层后输入第四拼接层,所述第一拼接层的输出同时作为大小为38*38的融合特征输出至多分类器模块;
所述CSPDarknet53网络结构输出的大小为76*76的特征图输入至所述第三拼接层,所述第三拼接层的输出同时作为第三上采样层和第七拼接层的输入,所述第七拼接层的输出作为大小为76*76的融合特征输出至多分类器模块;
所述CSPDarknet53网络结构输出的大小为152*152的特征图输入至所述第六拼接层,所述第六拼接层的输出作为卷积层的输入,所述卷积层的输出经所述下采样层后输入至所述第七拼接层。
6.如权利要求1所述的基于改进YOLO v4算法的目标检测方法,其特征在于,所述多分类器模块包括第一Yolo Head分类器、第二Yolo Head分类器和第三Yolo Head分类器,所述第一Yolo Head分类器用于接收所述特征融合模块输出的大小为19*19的融合特征,所述第二Yolo Head分类器用于接收所述特征融合模块输出的大小为38*38的融合特征,所述第三Yolo Head分类器用于接收所述特征融合模块输出的大小为76*76的融合特征。
CN202010788543.XA 2020-08-07 2020-08-07 一种基于改进YOLO v4算法的目标检测方法 Active CN112084866B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010788543.XA CN112084866B (zh) 2020-08-07 2020-08-07 一种基于改进YOLO v4算法的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010788543.XA CN112084866B (zh) 2020-08-07 2020-08-07 一种基于改进YOLO v4算法的目标检测方法

Publications (2)

Publication Number Publication Date
CN112084866A true CN112084866A (zh) 2020-12-15
CN112084866B CN112084866B (zh) 2022-11-04

Family

ID=73734885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010788543.XA Active CN112084866B (zh) 2020-08-07 2020-08-07 一种基于改进YOLO v4算法的目标检测方法

Country Status (1)

Country Link
CN (1) CN112084866B (zh)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112597915A (zh) * 2020-12-26 2021-04-02 上海有个机器人有限公司 对室内近距离行人进行识别的方法、装置、介质和机器人
CN112633174A (zh) * 2020-12-23 2021-04-09 电子科技大学 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质
CN112699808A (zh) * 2020-12-31 2021-04-23 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN112749681A (zh) * 2021-01-25 2021-05-04 长威信息科技发展股份有限公司 一种基于边缘设备和深度学习的违章检测方法
CN112819010A (zh) * 2021-01-26 2021-05-18 奥特酷智能科技(南京)有限公司 一种基于yolo v3改进的小目标检测方法
CN112861767A (zh) * 2021-02-26 2021-05-28 北京农业信息技术研究中心 一种粘虫板图像上小体积害虫检测方法及系统
CN112906533A (zh) * 2021-02-07 2021-06-04 成都睿码科技有限责任公司 一种基于自适应检测区域的安全帽佩戴检测方法
CN112906535A (zh) * 2021-02-09 2021-06-04 哈尔滨理工大学 一种基于神经网络的适用于多尺度多目标的摔倒检测方法
CN112949389A (zh) * 2021-01-28 2021-06-11 西北工业大学 一种基于改进目标检测网络的雾霾图像目标检测方法
CN113076871A (zh) * 2021-04-01 2021-07-06 华南理工大学 一种基于目标遮挡补偿的鱼群自动检测方法
CN113240001A (zh) * 2021-05-11 2021-08-10 华中农业大学 一种棉花花药开裂状态识别方法及系统
CN113269710A (zh) * 2021-03-19 2021-08-17 广州天越电子科技有限公司 一种基于目标检测的aau施工工艺检测系统
CN113283296A (zh) * 2021-04-20 2021-08-20 晋城鸿智纳米光机电研究院有限公司 安全帽佩戴检测方法、电子装置及存储介质
CN113298024A (zh) * 2021-06-11 2021-08-24 长江大学 一种基于轻量化神经网络的无人机对地小目标识别方法
CN113298130A (zh) * 2021-05-14 2021-08-24 嘉洋智慧安全生产科技发展(北京)有限公司 目标图像的检测、目标对象检测模型的生成方法
CN113326771A (zh) * 2021-05-28 2021-08-31 北京环境特性研究所 一种基于深度学习的震动触发目标监测装置及方法
CN113378753A (zh) * 2021-06-23 2021-09-10 华南农业大学 一种基于改进YOLOv4的苗期水稻田边界目标识别方法
CN113468992A (zh) * 2021-06-21 2021-10-01 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113486949A (zh) * 2021-07-02 2021-10-08 江苏罗思韦尔电气有限公司 基于YOLO v4渐进定位的遮挡目标检测方法及装置
CN113516076A (zh) * 2021-07-12 2021-10-19 大连民族大学 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN113592825A (zh) * 2021-08-02 2021-11-02 安徽理工大学 一种基于yolo算法的煤矸实时检测方法
CN113591992A (zh) * 2021-08-02 2021-11-02 中国民用航空飞行学院 一种燃气涡轮发动机的孔探智能检测辅助系统及方法
CN113705423A (zh) * 2021-08-25 2021-11-26 西安电子科技大学 基于改进YOLOv3算法的红外车辆快速检测方法
CN113963299A (zh) * 2021-10-26 2022-01-21 大连民族大学 一种基于改进yolo v4算法的乒乓球检测方法
CN113971811A (zh) * 2021-11-16 2022-01-25 北京国泰星云科技有限公司 一种基于机器视觉和深度学习的集装箱特征智能识别方法
CN114186615A (zh) * 2021-11-22 2022-03-15 浙江华是科技股份有限公司 船舶检测半监督在线训练方法、装置及计算机存储介质
WO2022171002A1 (zh) * 2021-02-10 2022-08-18 北京灵汐科技有限公司 任务处理的方法和装置、众核系统、计算机可读介质
CN114998220A (zh) * 2022-05-12 2022-09-02 湖南中医药大学 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN115761815A (zh) * 2023-01-10 2023-03-07 合肥中科类脑智能技术有限公司 人体检测模型的训练方法及人体检测方法、设备、介质
CN116152721A (zh) * 2023-04-18 2023-05-23 北京航空航天大学 一种基于退火式标签迁移学习的目标检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180211117A1 (en) * 2016-12-20 2018-07-26 Jayant Ratti On-demand artificial intelligence and roadway stewardship system
CN111241959A (zh) * 2020-01-06 2020-06-05 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法
AU2020100711A4 (en) * 2020-05-05 2020-06-11 Chang, Cheng Mr The retrieval system of wearing safety helmet based on deep learning
CN111476083A (zh) * 2020-02-07 2020-07-31 山东理工大学 一种电力员工安全帽佩戴自动识别方法
CN111488804A (zh) * 2020-03-19 2020-08-04 山西大学 基于深度学习的劳保用品佩戴情况检测和身份识别的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180211117A1 (en) * 2016-12-20 2018-07-26 Jayant Ratti On-demand artificial intelligence and roadway stewardship system
CN111241959A (zh) * 2020-01-06 2020-06-05 重庆大学 一种通过工地视频流检测未佩戴安全帽人员的方法
CN111476083A (zh) * 2020-02-07 2020-07-31 山东理工大学 一种电力员工安全帽佩戴自动识别方法
CN111488804A (zh) * 2020-03-19 2020-08-04 山西大学 基于深度学习的劳保用品佩戴情况检测和身份识别的方法
AU2020100711A4 (en) * 2020-05-05 2020-06-11 Chang, Cheng Mr The retrieval system of wearing safety helmet based on deep learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALEXEY BOCHKOVSKIY 等: "YOLOv4: Optimal Speed and Accuracy of Object Detection", 《HTTPS://ARXIV.ORG/ABS/2004.10934》 *
AOLAF: "【目标检测】—— YOLO V4", 《HTTPS://BLOG.CSDN.NET/WEIXIN_42454048/ARTICLE/DETAILS/107014616》 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633174A (zh) * 2020-12-23 2021-04-09 电子科技大学 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质
CN112633174B (zh) * 2020-12-23 2022-08-02 电子科技大学 一种基于改进的YOLOv4高穹顶场景下火灾检测方法、存储介质
CN112597915A (zh) * 2020-12-26 2021-04-02 上海有个机器人有限公司 对室内近距离行人进行识别的方法、装置、介质和机器人
CN112597915B (zh) * 2020-12-26 2024-04-09 上海有个机器人有限公司 对室内近距离行人进行识别的方法、装置、介质和机器人
CN112699808A (zh) * 2020-12-31 2021-04-23 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN112699808B (zh) * 2020-12-31 2024-06-07 深圳市华尊科技股份有限公司 密集目标检测方法、电子设备及相关产品
CN112749681A (zh) * 2021-01-25 2021-05-04 长威信息科技发展股份有限公司 一种基于边缘设备和深度学习的违章检测方法
CN112819010A (zh) * 2021-01-26 2021-05-18 奥特酷智能科技(南京)有限公司 一种基于yolo v3改进的小目标检测方法
CN112949389A (zh) * 2021-01-28 2021-06-11 西北工业大学 一种基于改进目标检测网络的雾霾图像目标检测方法
CN112906533A (zh) * 2021-02-07 2021-06-04 成都睿码科技有限责任公司 一种基于自适应检测区域的安全帽佩戴检测方法
CN112906533B (zh) * 2021-02-07 2023-03-24 成都睿码科技有限责任公司 一种基于自适应检测区域的安全帽佩戴检测方法
CN112906535A (zh) * 2021-02-09 2021-06-04 哈尔滨理工大学 一种基于神经网络的适用于多尺度多目标的摔倒检测方法
CN112906535B (zh) * 2021-02-09 2022-03-18 哈尔滨理工大学 一种基于神经网络的适用于多尺度多目标的摔倒检测方法
WO2022171002A1 (zh) * 2021-02-10 2022-08-18 北京灵汐科技有限公司 任务处理的方法和装置、众核系统、计算机可读介质
CN112861767A (zh) * 2021-02-26 2021-05-28 北京农业信息技术研究中心 一种粘虫板图像上小体积害虫检测方法及系统
CN113269710B (zh) * 2021-03-19 2024-04-09 广州天越电子科技有限公司 一种基于目标检测的aau施工工艺检测系统
CN113269710A (zh) * 2021-03-19 2021-08-17 广州天越电子科技有限公司 一种基于目标检测的aau施工工艺检测系统
CN113076871A (zh) * 2021-04-01 2021-07-06 华南理工大学 一种基于目标遮挡补偿的鱼群自动检测方法
CN113283296A (zh) * 2021-04-20 2021-08-20 晋城鸿智纳米光机电研究院有限公司 安全帽佩戴检测方法、电子装置及存储介质
CN113240001A (zh) * 2021-05-11 2021-08-10 华中农业大学 一种棉花花药开裂状态识别方法及系统
CN113298130A (zh) * 2021-05-14 2021-08-24 嘉洋智慧安全生产科技发展(北京)有限公司 目标图像的检测、目标对象检测模型的生成方法
CN113298130B (zh) * 2021-05-14 2023-05-09 嘉洋智慧安全科技(北京)股份有限公司 目标图像的检测、目标对象检测模型的生成方法
CN113326771A (zh) * 2021-05-28 2021-08-31 北京环境特性研究所 一种基于深度学习的震动触发目标监测装置及方法
CN113298024A (zh) * 2021-06-11 2021-08-24 长江大学 一种基于轻量化神经网络的无人机对地小目标识别方法
CN113468992A (zh) * 2021-06-21 2021-10-01 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113468992B (zh) * 2021-06-21 2022-11-04 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113378753A (zh) * 2021-06-23 2021-09-10 华南农业大学 一种基于改进YOLOv4的苗期水稻田边界目标识别方法
CN113486949A (zh) * 2021-07-02 2021-10-08 江苏罗思韦尔电气有限公司 基于YOLO v4渐进定位的遮挡目标检测方法及装置
CN113516076B (zh) * 2021-07-12 2023-09-01 大连民族大学 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN113516076A (zh) * 2021-07-12 2021-10-19 大连民族大学 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法
CN113592825A (zh) * 2021-08-02 2021-11-02 安徽理工大学 一种基于yolo算法的煤矸实时检测方法
CN113591992B (zh) * 2021-08-02 2022-07-01 中国民用航空飞行学院 一种燃气涡轮发动机的孔探智能检测辅助系统及方法
CN113591992A (zh) * 2021-08-02 2021-11-02 中国民用航空飞行学院 一种燃气涡轮发动机的孔探智能检测辅助系统及方法
CN113705423A (zh) * 2021-08-25 2021-11-26 西安电子科技大学 基于改进YOLOv3算法的红外车辆快速检测方法
CN113705423B (zh) * 2021-08-25 2024-05-17 西安电子科技大学 基于改进YOLOv3算法的红外车辆快速检测方法
CN113963299A (zh) * 2021-10-26 2022-01-21 大连民族大学 一种基于改进yolo v4算法的乒乓球检测方法
CN113971811A (zh) * 2021-11-16 2022-01-25 北京国泰星云科技有限公司 一种基于机器视觉和深度学习的集装箱特征智能识别方法
CN114186615A (zh) * 2021-11-22 2022-03-15 浙江华是科技股份有限公司 船舶检测半监督在线训练方法、装置及计算机存储介质
CN114998220A (zh) * 2022-05-12 2022-09-02 湖南中医药大学 一种基于改进的Tiny-YOLO v4自然环境下舌像检测定位方法
CN115761815A (zh) * 2023-01-10 2023-03-07 合肥中科类脑智能技术有限公司 人体检测模型的训练方法及人体检测方法、设备、介质
CN116152721A (zh) * 2023-04-18 2023-05-23 北京航空航天大学 一种基于退火式标签迁移学习的目标检测方法及装置
CN116152721B (zh) * 2023-04-18 2023-06-20 北京航空航天大学 一种基于退火式标签迁移学习的目标检测方法及装置

Also Published As

Publication number Publication date
CN112084866B (zh) 2022-11-04

Similar Documents

Publication Publication Date Title
CN112084866B (zh) 一种基于改进YOLO v4算法的目标检测方法
Wei et al. Enhanced object detection with deep convolutional neural networks for advanced driving assistance
CN111767882A (zh) 一种基于改进yolo模型的多模态行人检测方法
CN110598788B (zh) 目标检测方法、装置、电子设备及存储介质
CN114359851A (zh) 无人驾驶目标检测方法、装置、设备及介质
CN113420607A (zh) 无人机多尺度目标检测识别方法
CN114445430B (zh) 轻量级多尺度特征融合的实时图像语义分割方法及系统
WO2023030182A1 (zh) 图像生成方法及装置
CN107315990A (zh) 一种基于xcs‑lbp特征以及级联aksvm的行人检测算法
CN116452937A (zh) 基于动态卷积与注意力机制的多模态特征目标检测方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN115810157A (zh) 一种基于轻量级特征融合的无人机目标检测方法
CN113724286A (zh) 显著性目标的检测方法、检测设备及计算机可读存储介质
CN114708566A (zh) 一种基于改进YOLOv4的自动驾驶目标检测方法
CN116052212A (zh) 一种基于双重自监督学习的半监督跨模态行人重识别方法
CN112669343A (zh) 一种基于深度学习的壮族少数民族服饰分割方法
CN114782979A (zh) 一种行人重识别模型的训练方法、装置、存储介质及终端
CN113936299A (zh) 建筑工地中危险区域检测方法
CN114596548A (zh) 目标检测方法、装置、计算机设备及计算机可读存储介质
CN117351487A (zh) 一种邻近区域与边缘信息融合的医学图像分割方法、系统
CN117315752A (zh) 人脸情绪识别网络模型的训练方法、装置、设备和介质
CN116977948A (zh) 基于改进YOLOv5的交通安全头盔佩戴检测系统及方法
Sun et al. Flame Image Detection Algorithm Based onComputer Vision.
CN116311154A (zh) 一种基于YOLOv5模型优化的车辆检测与识别方法
CN111242114A (zh) 文字识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant