CN112836657A - 一种基于轻量化YOLOv3的行人检测方法及系统 - Google Patents

一种基于轻量化YOLOv3的行人检测方法及系统 Download PDF

Info

Publication number
CN112836657A
CN112836657A CN202110171542.5A CN202110171542A CN112836657A CN 112836657 A CN112836657 A CN 112836657A CN 202110171542 A CN202110171542 A CN 202110171542A CN 112836657 A CN112836657 A CN 112836657A
Authority
CN
China
Prior art keywords
layer
pedestrian detection
lightweight
yolov3
convolution layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110171542.5A
Other languages
English (en)
Other versions
CN112836657B (zh
Inventor
杨利红
甘彤
商国军
张琦珺
程剑
刘海涛
窦曼莉
任好
房思思
卢安安
聂建华
姜少波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 38 Research Institute
Original Assignee
CETC 38 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 38 Research Institute filed Critical CETC 38 Research Institute
Priority to CN202110171542.5A priority Critical patent/CN112836657B/zh
Publication of CN112836657A publication Critical patent/CN112836657A/zh
Application granted granted Critical
Publication of CN112836657B publication Critical patent/CN112836657B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明发明公开了一种基于轻量化YOLOv3的行人检测方法,包括:建立针对周界入侵防护应用场景的行人数据集;构建轻量化YOLOv3行人检测网络;划分行人检测训练集,训练轻量化YOLOv3行人检测网络得到轻量化行人检测模型;划分行人检测验证集,验证训练得到的轻量化行人检测模型效果;将轻量化YOLOv3行人检测模型部署到嵌入式前端设备中。本方法采用高精度的轻量化骨干网络替换传统YOLOv3检测网络的骨干网络,大幅降低了行人检测网络的前向运算量和行人检测网络的参数数据量,在保证了行人检测的精度的同时大幅提升了行人检测速度,适用于计算能力较低、存储空间较小的嵌入式设备。

Description

一种基于轻量化YOLOv3的行人检测方法及系统
技术领域
本发明涉及目标识别技术领域,具体来说涉及一种基于轻量化YOLOv3的行人检测方法。
背景技术
周界安防系统广泛应用于看守所、监狱、机场、核电厂、油库等建筑场所,用于防范非法入侵。随着社会科技不断进步,要地安防面临的挑战越来越严峻,打造更强大更智能的周界安防系统已经迫在眉睫。传统周界安防系统由封闭围栏和大量监控相机构成,比较容易受到恶劣天气等自然环境因素的影响,存在虚警率过高的问题,用户使用体验不佳。
近年来,随着硬件技术的飞速进步和深度学习技术的跨越式发展,周界安防系统将人工智能技术引入要地防护,利用基于深度学习的目标识别算法对非法入侵目标进行判别,能够精确识别出感兴趣的入侵目标,使得周界安防系统不受光照阴影、雨雪雾、沙尘、树木晃动、小动物等因素干扰,大幅降低了周界安防系统的虚警率。
基于深度学习的目标识别算法普遍存在网络前向运算量巨大和模型参数数据量过大的问题,需要运行在具有强大运算能力的高性能服务器上。由于周界安防系统部署环境复杂,将前端监控相机采集的图像实时传输到后端高性能服务器进行处理存在数据量过大导致的时延、丢包等诸多问题。而将目标识别算法部署于前端嵌入式设备中,将目标识别结果返回到后端进行展示则能有效减轻传输系统的压力。为解决上述问题,需要设计轻量化目标识别算法,降低网络前向运算量,减少模型参数数据量,使其能够使用在计算能力较低同时存储空间受限的嵌入式设备中。
如申请号为CN201910500483.4公开的一种基于轻量化YOLOv3的车辆和车牌检测及长短焦融合测距方法,该方法建立车辆和车牌数据集,设计并训练轻量化YOLOv3网络。针对YOLOv3网络参数量大、计算时间长的问题,用轻量化网络替换主干网络,重新构建其余卷积层构架,保证检测精度的前提下极大提高了检测速度,有利于目标检测网络迁移至车载嵌入式单元。该发明中设计的轻量化网络大幅降低了YOLOv3原有骨干网络的参数量和运算量,但仍存在进一步降低运算量的空间,通过设计更为高效的轻量化网络,能够进一步提升嵌入式设备中检测算法的运行效率。
发明内容
本发明所要解决的技术问题在于如何在确保行人检测精确度的同时提升行人检测网络在嵌入式设备中的运行速度,提供了一种基于轻量化YOLOv3的行人检测方法。
本发明通过以下技术手段实现解决上述技术问题:
一种基于轻量化YOLOv3的行人检测方法,包括以下步骤:
S1,建立周界安防行人检测数据集;所述数据集包括获取被防护要地场景中的真实行人图像并标注;提取开源数据集中包含的自然场景行人图像并转换其标注信息;搜集与行人图像数量相当的无人图像作为背景图像并为每个背景图像构建空白文件作为标注;
S2,构建轻量化YOLOv3行人检测网络;所述轻量化YOLOv3行人检测网络采用的轻量化骨干网络结构如下:依次包含卷积层conv1,轻量化层3,轻量化层2、轻量化层1,轻量化层2、轻量化层1×2,轻量化层3、轻量化层1×3,轻量化层2、轻量化层1×2,轻量化层2、轻量化层1×2,轻量化层3,卷积层conv2;
S3,划分行人检测训练集,训练轻量化YOLOv3行人检测网络;
S4,划分行人检测验证集,验证轻量化YOLOv3行人检测模型效果;
S5,嵌入式设备部署轻量化YOLOv3行人检测模型。
本发明构建了轻量化YOLOv3行人检测网络,采用轻量化骨干网络替换了传统YOLOv3使用的darknet53骨干网络,所述的轻量化YOLOv3行人检测网络计算量相较于传统YOLOv3前向运算量降低了71%,进行每帧图像行人检测的速度大幅提升;轻量化骨干网络中各个轻量化层在进行卷积操作提取特征前均通过扩增卷积层增加了参与运算的特征通道数量,提取到的图像特征更为丰富;轻量化层1将低维度的特征和高纬度特征进行融合,进一步提升了特征表达能力,确保整个轻量化骨干网络具备优异的特征表达能力。
进一步的,所述S2中构建轻量化YOLOv3行人检测网络提取特征;采用三尺度检测模块检测行人:小尺度输出用于检测目标占比较大的行人,中等尺度输出用于检测目标占比居中的行人,大尺度输出用于检测目标占比较小的行人。
进一步的,所述S2中构建轻量化YOLOv3行人检测网络采用的检测模块结构如下:小尺度依次包含卷积层conv3,卷积层conv4,卷积层conv5,卷积层conv6,卷积层conv7,卷积层conv8,卷积层conv9;中等尺度依次包含route层1,卷积层conv10,上采样层1,route层2,卷积层conv11,卷积层conv12,卷积层conv13,卷积层conv14,卷积层conv15,卷积层conv16,卷积层conv17;大尺度依次包含route层3,卷积层conv18,上采样层2,route层4,卷积层conv19,卷积层conv20,卷积层conv21,卷积层conv22,卷积层conv23,卷积层conv24,卷积层conv25。
进一步的,所述步骤S2中构建轻量化YOLOv3行人检测网络的轻量化层1依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv(步长为1)、压缩卷积层1×1conv,shortcut层;轻量化层2依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv(步长为2)、压缩卷积层1×1conv;轻量化层3依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv(步长为1)、压缩卷积层1×1conv。
进一步的,所述S3中训练轻量化YOLOv3行人检测网络,随机选取周界安防行人检测数据集中设定比例的图像样本作为行人检测训练集,训练过程中对训练图像进行在线数据增强,包括:随机选取两张原始训练图像进行随机裁剪,随机缩放和随机颜色变换操作,两张原始训练图像的标注信息根据裁剪和缩放操作进行相对应的变换;将变换后的两张训练图像融合为一张新的训练图像,两张训练图像变换后的标注信息组合作为新的训练图像的标注。两张训练图像进行融合采用的公式如下:
I(x,y)=0.5×I1(x,y)+0.5×I2(x,y)
其中,I1(x,y)和I2(x,y)分别表示变换后两张训练图像在坐标点(x,y)位置的像素值,I(x,y)表示融合后新的训练图像在坐标点(x,y)位置的像素值。
进一步的,所述S3中训练轻量化YOLOv3行人检测网络直至损失函数稳定不再下降则停止训练,训练过程中采用的损失函数如下:
Figure BDA0002939035010000041
其中,S表示轻量化行人检测网络所采用检测模块的尺度大小,B表示检测模块每个检测尺度下每个单元格所预测目标框的个数;
Figure BDA0002939035010000042
表示某个尺度下第i个单元格的第j个预测目标框是否包含目标,如果包含目标
Figure BDA0002939035010000043
如果不包含目标
Figure BDA0002939035010000044
xi,yi,wi,hi,Ci分别表示某个尺度下第i个单元格的
Figure BDA0002939035010000045
为1的预测目标框的中心点x坐标、中心点y坐标、宽度、高度、置信度;
Figure BDA0002939035010000046
分别表示事先所标注目标的中心点x坐标、中心点y坐标、宽度、高度、置信度,class代表所需检测的目标类别,pi(c)为每个类别的预测概率,
Figure BDA0002939035010000047
为每个类别的真实概率;
所述损失函数第一行代表有效预测目标中心坐标的损失;第二行代表有效预测目标宽度和高度的损失;第三行代表所有预测框的置信度损失;第四行代表有效预测目标的类别损失。
进一步的,所述S4中验证轻量化行人检测模型效果,随机选取周界安防行人检测数据集中设定比例样本作为行人检测验证集,通过训练好的轻量化行人检测模型检测验证集每一张图像样本中存在的行人及其位置,保存检测结果保存并将其与验证集标注信息中的行人位置进行比对,最终得到轻量化行人检测模型在行人检测验证集上的总体召回率和准确率数据。
本发明还提供一种基于轻量化YOLOv3的行人检测系统,包括
数据集建立模块,建立周界安防行人检测数据集;包括:获取被防护要地场景中的真实行人图像并标注;提取开源数据集中包含的自然场景行人图像并转换其标注信息;搜集与行人图像数量相当的无人图像作为背景图像并为每个背景图像构建空白文件作为标注;
轻量化YOLOv3行人检测网络构建模块,构建轻量化YOLOv3行人检测网络;所述轻量化YOLOv3行人检测网络采用的轻量化骨干网络结构如下:依次包含卷积层conv1,轻量化层3,轻量化层2、轻量化层1,轻量化层2、轻量化层1×2,轻量化层3、轻量化层1×3,轻量化层2、轻量化层1×2,轻量化层2、轻量化层1×2,轻量化层3,卷积层conv2;
轻量化YOLOv3行人检测网络训练模块,划分行人检测训练集,训练轻量化YOLOv3行人检测网络;
轻量化YOLOv3行人检测网络验证模块,划分行人检测验证集,验证轻量化YOLOv3行人检测模型效果;
轻量化YOLOv3行人检测模型应用模块,嵌入式设备部署轻量化YOLOv3行人检测模型。
进一步的,所述轻量化YOLOv3行人检测网络构建模块中,采用三尺度检测模块检测行人:小尺度输出用于检测目标占比较大的行人,中等尺度输出用于检测目标占比居中的行人,大尺度输出用于检测目标占比较小的行人。
进一步的,所述轻量化YOLOv3行人检测网络构建模块中采用的检测模块结构如下:小尺度依次包含卷积层conv3,卷积层conv4,卷积层conv5,卷积层conv6,卷积层conv7,卷积层conv8,卷积层conv9;中等尺度依次包含route层1,卷积层conv10,上采样层1,route层2,卷积层conv11,卷积层conv12,卷积层conv13,卷积层conv14,卷积层conv15,卷积层conv16,卷积层conv17;大尺度依次包含route层3,卷积层conv18,上采样层2,route层4,卷积层conv19,卷积层conv20,卷积层conv21,卷积层conv22,卷积层conv23,卷积层conv24,卷积层conv25;所述轻量化层1依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv,shortcut层;轻量化层2依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv;轻量化层3依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv。
本发明的优点在于:
本发明构建了轻量化YOLOv3行人检测网络,采用轻量化骨干网络替换了传统YOLOv3使用的darknet53骨干网络,所述的轻量化YOLOv3行人检测网络前向运算量为41.364BFLOPS,相较于传统YOLOv3前向运算量降低了71%,进行每帧图像行人检测的速度大幅提升;训练轻量化YOLOv3行人检测网络得到的行人检测模型参数数据量为89MB,相较于传统YOLOv3降低了62%,减轻了对硬件的存储空间要求。轻量化YOLOv3行人检测网络的骨干网络中各个轻量化层在进行卷积操作提取特征前均通过扩增卷积层增加了参与运算的特征通道数量,提取到的图像特征更为丰富,同时轻量化层1将低维度的特征和高纬度特征进行融合,进一步提升了特征表达能力,确保了骨干网络具备优异的特征提取能力;轻量化YOLOv3行人检测网络的检测头采用三个尺度分别检测大、中、小三种不同尺寸的行人目标,大幅降低漏检率;轻量化YOLOv3行人检测网络骨干网络提取的丰富特征配合检测头的多尺度检测确保行人检测能够取得较高的精度。综上所述,本发明提供的一种轻量化YOLOv3行人检测方法适用于计算能力较低、存储空间较小的嵌入式设备,能够确保较高的检测精度,便捷了周界安防产品的前端应用。
附图说明
图1为本发明实施例中一种基于轻量化YOLOv3的行人检测方法的总体流程图。
图2为本发明实施例中的轻量化YOLOv3行人检测网络结构图。
图3为本发明实施例中的轻量化层结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种基于轻量化YOLOv3的行人检测方法,如图1所示,包括以下步骤:
S1、建立周界安防行人检测数据集
搜集图像建立针对周界安防应用场景的行人检测数据集,确保行人检测数据集图像来源多样化,具体包括:从被防护的要地场景中采集真实行人图像;从开源数据集中提取符合要求的自然场景下行人图像;搜集无人情况下的要地场景图像或自然场景图像作为背景图像。所建立周界安防行人检测数据集中行人图像和背景图像的比例大致为1:1,总的图像数量达到87300张。
标注所搜集图像,标注后每个图像对应一个与同名的标记文件,格式为txt。标注采集的真实行人图像中每个行人的位置生成对应的标记文件;转换开源数据集中行人图像已有标记文件中每个行人的位置信息生成新的标记文件;每个背景图像生成一个空白的txt文档作为标记文件。行人图像的标记文件中每一个行人位置信息保存为一行,依次保存行人外框的左上角x坐标、左上角y坐标、宽度和高度。
S2、构建轻量化YOLOv3行人检测网络
轻量化YOLOv3行人检测网络采用轻量化骨干网络替换传统YOLOv3使用的darknet53骨干网络;采用三尺度的检测模块检测行人:小尺度输出张量19×19×18用于检测目标占比较大的行人,中等尺度输出张量38×38×18用于检测目标占比居中的行人,大尺度输出张量76×76×18用于检测目标占比较小的行人。轻量化YOLOv3行人检测网络的结构如图2所示,各阶段输出张量如下表所示:
Figure BDA0002939035010000071
Figure BDA0002939035010000081
Figure BDA0002939035010000091
轻量化YOLOv3行人检测网络采用的轻量化骨干网络依次包含卷积层conv1,轻量化层3,轻量化层2、轻量化层1,轻量化层2、轻量化层1×2,轻量化层3、轻量化层1×3,轻量化层2、轻量化层1×2,轻量化层2、轻量化层1×2,轻量化层3,卷积层conv2。
轻量化YOLOv3行人检测网络采用的检测模块中小尺度依次包含卷积层conv3,卷积层conv4,卷积层conv5,卷积层conv6,卷积层conv7,卷积层conv8,卷积层conv9;中等尺度依次包含route层1,卷积层conv10,上采样层1,route层2,卷积层conv11,卷积层conv12,卷积层conv13,卷积层conv14,卷积层conv15,卷积层conv16,卷积层conv17;大尺度依次包含route层3,卷积层conv18,上采样层2,route层4,卷积层conv19,卷积层conv20,卷积层conv21,卷积层conv22,卷积层conv23,卷积层conv24,卷积层conv25。
轻量化骨干网络使用了三种不同的轻量化层,其结构如图3所示。轻量化层1依次包含如下操作:扩增卷积层1×1conv输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率与输入特征图分辨率相同;深度卷积层3×3DwConv(步长为1)输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率与输入特征图分辨率相同;压缩卷积层1×1conv输出特征图通道数与输入特征图通道数相同,输出特征图分辨率与输入特征图分辨率相同;shortcut层输出特征图通道数与输入特征图通道数相同,输出特征图分辨率与输入特征图分辨率相同。轻量化层2依次包含如下操作:扩增卷积层1×1conv输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率与输入特征图分辨率相同;深度卷积层3×3DwConv(步长为2)输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率为输入特征图分辨率的1/2;压缩卷积层1×1conv输出特征图通道数与输入特征图通道数相同,输出特征图分辨率为输入特征图分辨率的1/2。轻量化层3依次包含如下操作:扩增卷积层1×1conv输出特征图通道数为输入特征图通道数6倍,输出特征图分辨率与输入特征图分辨率相同;深度卷积层3×3DwConv(步长为1)输出特征图通道数为输入特征图通道数6倍,输出特征图分辨率与输入特征图分辨率相同;压缩卷积层1×1conv输出特征图通道数与输入特征图通道数相同,输出特征图分辨率与输入特征图分辨率相同。
构建的轻量化YOLOv3行人检测网络通过采用轻量化骨干网络替换传统YOLOv3使用的darknet53骨干网络,前向运算量为41.364BFLOPS,相较于传统YOLOv3降低了71%,进行每帧图像行人检测的速度大幅提升;同时轻量化层中通过扩增卷积层增加了参与运算的特征通道数量,确保行人检测能够取得较高的精度。
S3、划分行人检测训练集,训练轻量化YOLOv3行人检测网络
训练用行人检测训练集从周界安防行人检测数据集中随机选取90%的图像组成。训练过程中对训练图像进行在线数据增强,包括:随机选取两张原始训练图像进行随机裁剪,随机缩放和随机颜色变换操作,两张原始训练图像的标注信息根据裁剪和缩放操作进行相对应的变换;将变换后的两张训练图像融合为一张新的训练图像,两张训练图像变换后的标注信息组合作为新的训练图像的标注。两张训练图像进行融合采用的公式如下:
I(x,y)=0.5×I1(x,y)+0.5×I2(x,y)
其中,I1(x,y)和I2(x,y)分别表示变换后两张训练图像在坐标点(x,y)位置的像素值,I(x,y)表示融合后新的训练图像在坐标点(x,y)位置的像素值。
训练过程中采用多分辨率训练,不固定训练图像缩放后的输入分辨率,每进行20次迭代训练后随机改变训练图像缩放后的分辨率,可选分辨率为:320、352、384、416、448、480、512、544、576、608。
S3-3、训练轻量化YOLOv3使用的损失函数如下:
Figure BDA0002939035010000101
其中,S表示轻量化行人检测网络所采用检测模块的尺度大小,其数值分别为19、38、76;B表示检测模块每个检测尺度下每个单元格所预测目标框的个数,其数值为3;
Figure BDA0002939035010000111
表示某个尺度下第i个单元格的第j个预测目标框是否包含目标,如果包含目标
Figure BDA0002939035010000112
如果不包含目标
Figure BDA0002939035010000113
xi,yi,wi,hi,Ci分别表示某个尺度下第i个单元格的
Figure BDA0002939035010000114
为1的预测目标框的中心点x坐标、中心点y坐标、宽度、高度、置信度;
Figure BDA0002939035010000115
分别表示事先所标注目标的中心点x坐标、中心点y坐标、宽度、高度、置信度。class代表所需检测的目标类别,pi(c)为每个类别的预测概率,
Figure BDA0002939035010000116
为每个类别的真实概率。损失函数第一行代表有效预测目标中心坐标的损失;第二行代表有效预测目标宽度和高度的损失;第三行代表所有预测框的置信度损失;第四行代表有效预测目标的类别损失。
训练得到的轻量化YOLOv3行人检测模型参数数据量为89MB,相较于传统YOLOv3降低了62%,减轻了对嵌入式设备的存储空间要求。
S4、划分行人检测验证集,验证轻量化YOLOv3行人检测模型效果
行人检测验证集从周界安防行人检测数据集随机选取10%的样本组成,行人检测验证集与行人检测训练集没有重合图像,二者的并集为周界安防行人检测数据集。
验证轻量化YOLOv3行人检测模型效果时,顺序选取验证集中每一张图像,缩放到608×608大小,通过训练好的轻量化行人检测模型检测其中存在的行人及其位置信息,将检测结果保存并与该图像对应标记文件中的行人位置进行比对,最后得到轻量化行人检测模型在行人检测验证集上的总体召回率和准确率数据,用于评估行人检测模型的检测效果。
S5、嵌入式设备部署轻量化YOLOv3行人检测模型
构建的轻量化行人检测网络前向运算量为41.364BFLOPS,相较于传统YOLOv3降低了71%,不仅大幅提升了行人检测速度而且确保行人检测能够取得较高的精度;训练得到的轻量化YOLOv3行人检测模型参数数据量为89MB,相较于传统YOLOv3降低了62%,减轻了对嵌入式设备的存储空间要求。将同时满足召回率和准确率指标要求的轻量化行人检测模型部署到嵌入式设备中运行,能够适应嵌入式设备计算能力较低、存储空间较小的特征。
本发明构建了轻量化YOLOv3行人检测网络,采用轻量化骨干网络替换了传统YOLOv3使用的darknet53骨干网络,所述的轻量化YOLOv3行人检测网络前向运算量为41.364BFLOPS,相较于传统YOLOv3前向运算量降低了71%,进行每帧图像行人检测的速度大幅提升;训练轻量化YOLOv3行人检测网络得到的行人检测模型参数数据量为89MB,相较于传统YOLOv3降低了62%,减轻了对硬件的存储空间要求。轻量化YOLOv3行人检测网络的骨干网络中各个轻量化层在进行卷积操作提取特征前均通过扩增卷积层增加了参与运算的特征通道数量,提取到的图像特征更为丰富,同时轻量化层1将低维度的特征和高纬度特征进行融合,进一步提升了特征表达能力,确保了骨干网络具备优异的特征提取能力;轻量化YOLOv3行人检测网络的检测头采用三个尺度分别检测大、中、小三种不同尺寸的行人目标,大幅降低漏检率;轻量化YOLOv3行人检测网络骨干网络提取的丰富特征配合检测头的多尺度检测确保行人检测能够取得较高的精度。综上所述,本发明提供的一种轻量化YOLOv3行人检测方法适用于计算能力较低、存储空间较小的嵌入式设备,能够确保较高的检测精度,便捷了周界安防产品的前端应用。
本发明还提供一种基于轻量化YOLOv3的行人检测系统,流程图如图1所示,包括:
检测数据集构建模块
搜集图像建立针对周界安防应用场景的行人检测数据集,确保行人检测数据集图像来源多样化,具体包括:从被防护的要地场景中采集真实行人图像;从开源数据集中提取符合要求的自然场景下行人图像;搜集无人情况下的要地场景图像或自然场景图像作为背景图像。所建立周界安防行人检测数据集中行人图像和背景图像的比例大致为1:1,总的图像数量达到87300张。
标注所搜集图像,标注后每个图像对应一个与同名的标记文件,格式为txt。标注采集的真实行人图像中每个行人的位置生成对应的标记文件;转换开源数据集中行人图像已有标记文件中每个行人的位置信息生成新的标记文件;每个背景图像生成一个空白的txt文档作为标记文件。行人图像的标记文件中每一个行人位置信息保存为一行,依次保存行人外框的左上角x坐标、左上角y坐标、宽度和高度。
轻量化YOLOv3行人检测网络构建模块
轻量化YOLOv3行人检测网络采用轻量化骨干网络替换传统YOLOv3使用的darknet53骨干网络;采用三尺度的检测模块检测行人:小尺度输出张量19×19×18用于检测目标占比较大的行人,中等尺度输出张量38×38×18用于检测目标占比居中的行人,大尺度输出张量76×76×18用于检测目标占比较小的行人。轻量化YOLOv3行人检测网络的结构如图2所示,各阶段输出张量如下表所示:
Figure BDA0002939035010000131
Figure BDA0002939035010000141
轻量化YOLOv3行人检测网络采用的轻量化骨干网络依次包含卷积层conv1,轻量化层3,轻量化层2、轻量化层1,轻量化层2、轻量化层1×2,轻量化层3、轻量化层1×3,轻量化层2、轻量化层1×2,轻量化层2、轻量化层1×2,轻量化层3,卷积层conv2。
轻量化YOLOv3行人检测网络采用的检测模块中小尺度依次包含卷积层conv3,卷积层conv4,卷积层conv5,卷积层conv6,卷积层conv7,卷积层conv8,卷积层conv9;中等尺度依次包含route层1,卷积层conv10,上采样层1,route层2,卷积层conv11,卷积层conv12,卷积层conv13,卷积层conv14,卷积层conv15,卷积层conv16,卷积层conv17;大尺度依次包含route层3,卷积层conv18,上采样层2,route层4,卷积层conv19,卷积层conv20,卷积层conv21,卷积层conv22,卷积层conv23,卷积层conv24,卷积层conv25。
轻量化骨干网络使用了三种不同的轻量化层,其结构如图3所示。轻量化层1依次包含如下操作:扩增卷积层1×1conv输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率与输入特征图分辨率相同;深度卷积层3×3DwConv(步长为1)输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率与输入特征图分辨率相同;压缩卷积层1×1conv输出特征图通道数与输入特征图通道数相同,输出特征图分辨率与输入特征图分辨率相同;shortcut层输出特征图通道数与输入特征图通道数相同,输出特征图分辨率与输入特征图分辨率相同。轻量化层2依次包含如下操作:扩增卷积层1×1conv输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率与输入特征图分辨率相同;深度卷积层3×3DwConv(步长为2)输出特征图通道数为输入特征图通道数的6倍,输出特征图分辨率为输入特征图分辨率的1/2;压缩卷积层1×1conv输出特征图通道数与输入特征图通道数相同,输出特征图分辨率为输入特征图分辨率的1/2。轻量化层3依次包含如下操作:扩增卷积层1×1conv输出特征图通道数为输入特征图通道数6倍,输出特征图分辨率与输入特征图分辨率相同;深度卷积层3×3DwConv(步长为1)输出特征图通道数为输入特征图通道数6倍,输出特征图分辨率与输入特征图分辨率相同;压缩卷积层1×1conv输出特征图通道数与输入特征图通道数相同,输出特征图分辨率与输入特征图分辨率相同。
构建的轻量化YOLOv3行人检测网络通过采用轻量化骨干网络替换传统YOLOv3使用的darknet53骨干网络,前向运算量为41.364BFLOPS,相较于传统YOLOv3降低了71%,进行每帧图像行人检测的速度大幅提升;同时轻量化层中通过扩增卷积层增加了参与运算的特征通道数量,确保行人检测能够取得较高的精度。
轻量化YOLOv3行人检测网络训练模块
训练用行人检测训练集从周界安防行人检测数据集中随机选取90%的图像组成。训练过程中对训练图像进行在线数据增强,包括:随机选取两张原始训练图像进行随机裁剪,随机缩放和随机颜色变换操作,两张原始训练图像的标注信息根据裁剪和缩放操作进行相对应的变换;将变换后的两张训练图像融合为一张新的训练图像,两张训练图像变换后的标注信息组合作为新的训练图像的标注。两张训练图像进行融合采用的公式如下:
I(x,y)=0.5×I1(x,y)+0.5×I2(x,y)
其中,I1(x,y)和I2(x,y)分别表示变换后两张训练图像在坐标点(x,y)位置的像素值,I(x,y)表示融合后新的训练图像在坐标点(x,y)位置的像素值。
训练过程中采用多分辨率训练,不固定训练图像缩放后的输入分辨率,每进行20次迭代训练后随机改变训练图像缩放后的分辨率,可选分辨率为:320、352、384、416、448、480、512、544、576、608。
S3-3、训练轻量化YOLOv3使用的损失函数如下:
Figure BDA0002939035010000161
其中,S表示轻量化行人检测网络所采用检测模块的尺度大小,其数值分别为19、38、76;B表示检测模块每个检测尺度下每个单元格所预测目标框的个数,其数值为3;
Figure BDA0002939035010000162
表示某个尺度下第i个单元格的第j个预测目标框是否包含目标,如果包含目标
Figure BDA0002939035010000163
如果不包含目标
Figure BDA0002939035010000164
xi,yi,wi,hi,Ci分别表示某个尺度下第i个单元格的
Figure BDA0002939035010000165
为1的预测目标框的中心点x坐标、中心点y坐标、宽度、高度、置信度;
Figure BDA0002939035010000166
分别表示事先所标注目标的中心点x坐标、中心点y坐标、宽度、高度、置信度。class代表所需检测的目标类别,pi(c)为每个类别的预测概率,
Figure BDA0002939035010000171
为每个类别的真实概率。损失函数第一行代表有效预测目标中心坐标的损失;第二行代表有效预测目标宽度和高度的损失;第三行代表所有预测框的置信度损失;第四行代表有效预测目标的类别损失。
训练得到的轻量化YOLOv3行人检测模型参数数据量为89MB,相较于传统YOLOv3降低了62%,减轻了对嵌入式设备的存储空间要求。
轻量化YOLOv3行人检测模型验证模块
行人检测验证集从周界安防行人检测数据集随机选取10%的样本组成,行人检测验证集与行人检测训练集没有重合图像,二者的并集为周界安防行人检测数据集。
验证轻量化YOLOv3行人检测模型效果时,顺序选取验证集中每一张图像,缩放到608×608大小,通过训练好的轻量化行人检测模型检测其中存在的行人及其位置信息,将检测结果保存并与该图像对应标记文件中的行人位置进行比对,最后得到轻量化行人检测模型在行人检测验证集上的总体召回率和准确率数据,用于评估行人检测模型的检测效果。
轻量化YOLOv3行人检测模型部署模块
构建的轻量化行人检测网络前向运算量为41.364BFLOPS,相较于传统YOLOv3降低了71%,不仅大幅提升了行人检测速度而且确保行人检测能够取得较高的精度;训练得到的轻量化YOLOv3行人检测模型参数数据量为89MB,相较于传统YOLOv3降低了62%,减轻了对嵌入式设备的存储空间要求。将同时满足召回率和准确率指标要求的轻量化行人检测模型部署到嵌入式设备中运行,能够适应嵌入式设备计算能力较低、存储空间较小的特征。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (10)

1.一种基于轻量化YOLOv3的行人检测方法,其特征在于,包括以下步骤:
S1,建立周界安防行人检测数据集;所述数据集包括获取被防护要地场景中的真实行人图像并标注;提取开源数据集中包含的自然场景行人图像并转换其标注信息;搜集与行人图像数量相当的无人图像作为背景图像并为每个背景图像构建空白文件作为标注;
S2,构建轻量化YOLOv3行人检测网络;所述轻量化YOLOv3行人检测网络采用的轻量化骨干网络结构如下:依次包含卷积层conv1,轻量化层3,轻量化层2、轻量化层1,轻量化层2、轻量化层1×2,轻量化层3、轻量化层1×3,轻量化层2、轻量化层1×2,轻量化层2、轻量化层1×2,轻量化层3,卷积层conv2;
S3,划分行人检测训练集,训练轻量化YOLOv3行人检测网络;
S4,划分行人检测验证集,验证轻量化YOLOv3行人检测模型效果;
S5,嵌入式设备部署轻量化YOLOv3行人检测模型。
2.根据权利要求1所述的基于轻量化YOLOv3的行人检测方法,其特征在于,所述S2中构建轻量化YOLOv3行人检测网络提取特征;采用三尺度检测模块检测行人:小尺度输出用于检测目标占比较大的行人,中等尺度输出用于检测目标占比居中的行人,大尺度输出用于检测目标占比较小的行人。
3.根据权利要求1所述的基于轻量化YOLOv3的行人检测方法,其特征在于,所述S2中构建轻量化YOLOv3行人检测网络采用的检测模块结构如下:小尺度依次包含卷积层conv3,卷积层conv4,卷积层conv5,卷积层conv6,卷积层conv7,卷积层conv8,卷积层conv9;中等尺度依次包含route层1,卷积层conv10,上采样层1,route层2,卷积层conv11,卷积层conv12,卷积层conv13,卷积层conv14,卷积层conv15,卷积层conv16,卷积层conv17;大尺度依次包含route层3,卷积层conv18,上采样层2,route层4,卷积层conv19,卷积层conv20,卷积层conv21,卷积层conv22,卷积层conv23,卷积层conv24,卷积层conv25。
4.根据权利要求3所述的基于轻量化YOLOv3的行人检测方法,其特征在于,所述步骤S2中构建轻量化YOLOv3行人检测网络的轻量化层1依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv,shortcut层;轻量化层2依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv;轻量化层3依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv。
5.根据权利要求1所述的基于轻量化YOLOv3的行人检测方法,其特征在于,所述S3中训练轻量化YOLOv3行人检测网络,随机选取周界安防行人检测数据集中设定比例的图像样本作为行人检测训练集,训练过程中对训练图像进行在线数据增强,包括:随机选取两张原始训练图像进行随机裁剪,随机缩放和随机颜色变换操作,两张原始训练图像的标注信息根据裁剪和缩放操作进行相对应的变换;将变换后的两张训练图像融合为一张新的训练图像,两张训练图像变换后的标注信息组合作为新的训练图像的标注。两张训练图像进行融合采用的公式如下:
I(x,y)=0.5×I1(x,y)+0.5×I2(x,y)
其中,I1(x,y)和I2(x,y)分别表示变换后两张训练图像在坐标点(x,y)位置的像素值,I(x,y)表示融合后新的训练图像在坐标点(x,y)位置的像素值。
6.根据权利要求1所述的基于轻量化YOLOv3的行人检测方法,其特征在于,所述S3中训练轻量化YOLOv3行人检测网络直至损失函数稳定不再下降则停止训练,训练过程中采用的损失函数如下:
Figure FDA0002939034000000021
其中,S表示轻量化行人检测网络所采用检测模块的尺度大小,B表示检测模块每个检测尺度下每个单元格所预测目标框的个数;
Figure FDA0002939034000000022
表示某个尺度下第i个单元格的第j个预测目标框是否包含目标,如果包含目标
Figure FDA0002939034000000023
如果不包含目标
Figure FDA0002939034000000024
xi,yi,wi,hi,Ci分别表示某个尺度下第i个单元格的
Figure FDA0002939034000000025
为1的预测目标框的中心点x坐标、中心点y坐标、宽度、高度、置信度;
Figure FDA0002939034000000031
分别表示事先所标注目标的中心点x坐标、中心点y坐标、宽度、高度、置信度,class代表所需检测的目标类别,pi(c)为每个类别的预测概率,
Figure FDA0002939034000000032
为每个类别的真实概率;
所述损失函数第一行代表有效预测目标中心坐标的损失;第二行代表有效预测目标宽度和高度的损失;第三行代表所有预测框的置信度损失;第四行代表有效预测目标的类别损失。
7.根据权利要求1所述的基于轻量化YOLOv3的行人检测方法,其特征在于,所述S4中验证轻量化行人检测模型效果,随机选取周界安防行人检测数据集中设定比例样本作为行人检测验证集,通过训练好的轻量化行人检测模型检测验证集每一张图像样本中存在的行人及其位置,保存检测结果保存并将其与验证集标注信息中的行人位置进行比对,最终得到轻量化行人检测模型在行人检测验证集上的总体召回率和准确率数据。
8.一种基于轻量化YOLOv3的行人检测系统,其特征在于,包括
数据集建立模块,建立周界安防行人检测数据集;包括:获取被防护要地场景中的真实行人图像并标注;提取开源数据集中包含的自然场景行人图像并转换其标注信息;搜集与行人图像数量相当的无人图像作为背景图像并为每个背景图像构建空白文件作为标注;
轻量化YOLOv3行人检测网络构建模块,构建轻量化YOLOv3行人检测网络;所述轻量化YOLOv3行人检测网络采用的轻量化骨干网络结构如下:依次包含卷积层conv1,轻量化层3,轻量化层2、轻量化层1,轻量化层2、轻量化层1×2,轻量化层3、轻量化层1×3,轻量化层2、轻量化层1×2,轻量化层2、轻量化层1×2,轻量化层3,卷积层conv2;
轻量化YOLOv3行人检测网络训练模块,划分行人检测训练集,训练轻量化YOLOv3行人检测网络;
轻量化YOLOv3行人检测网络验证模块,划分行人检测验证集,验证轻量化YOLOv3行人检测模型效果;
轻量化YOLOv3行人检测模型应用模块,嵌入式设备部署轻量化YOLOv3行人检测模型。
9.根据权利要求8所述的基于轻量化YOLOv3的行人检测系统,其特征在于,所述轻量化YOLOv3行人检测网络构建模块中,采用三尺度检测模块检测行人:小尺度输出用于检测目标占比较大的行人,中等尺度输出用于检测目标占比居中的行人,大尺度输出用于检测目标占比较小的行人。
10.根据权利要求8所述的基于轻量化YOLOv3的行人检测系统,其特征在于,所述轻量化YOLOv3行人检测网络构建模块中采用的检测模块结构如下:小尺度依次包含卷积层conv3,卷积层conv4,卷积层conv5,卷积层conv6,卷积层conv7,卷积层conv8,卷积层conv9;中等尺度依次包含route层1,卷积层conv10,上采样层1,route层2,卷积层conv11,卷积层conv12,卷积层conv13,卷积层conv14,卷积层conv15,卷积层conv16,卷积层conv17;大尺度依次包含route层3,卷积层conv18,上采样层2,route层4,卷积层conv19,卷积层conv20,卷积层conv21,卷积层conv22,卷积层conv23,卷积层conv24,卷积层conv25;所述轻量化层1依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv,shortcut层;轻量化层2依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv;轻量化层3依次包含扩增卷积层1×1conv、深度卷积层3×3DwConv、压缩卷积层1×1conv。
CN202110171542.5A 2021-02-08 2021-02-08 一种基于轻量化YOLOv3的行人检测方法及系统 Active CN112836657B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110171542.5A CN112836657B (zh) 2021-02-08 2021-02-08 一种基于轻量化YOLOv3的行人检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110171542.5A CN112836657B (zh) 2021-02-08 2021-02-08 一种基于轻量化YOLOv3的行人检测方法及系统

Publications (2)

Publication Number Publication Date
CN112836657A true CN112836657A (zh) 2021-05-25
CN112836657B CN112836657B (zh) 2023-04-18

Family

ID=75930942

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110171542.5A Active CN112836657B (zh) 2021-02-08 2021-02-08 一种基于轻量化YOLOv3的行人检测方法及系统

Country Status (1)

Country Link
CN (1) CN112836657B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408423A (zh) * 2021-06-21 2021-09-17 西安工业大学 适用于tx2嵌入式平台的水产品目标实时检测方法
CN113723322A (zh) * 2021-09-02 2021-11-30 南京理工大学 一种基于单阶段无锚点框架的行人检测方法及系统
CN114187606A (zh) * 2021-10-21 2022-03-15 江阴市智行工控科技有限公司 一种采用分支融合网络轻量化的车库行人检测方法及系统
CN115690545A (zh) * 2021-12-03 2023-02-03 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN117392613A (zh) * 2023-12-07 2024-01-12 武汉纺织大学 一种基于轻量化网络的电力作业安全监测方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110321874A (zh) * 2019-07-12 2019-10-11 南京航空航天大学 一种轻量化的卷积神经网络行人识别方法
CN110378210A (zh) * 2019-06-11 2019-10-25 江苏大学 一种基于轻量化YOLOv3的车辆和车牌检测及长短焦融合测距方法
AU2019101142A4 (en) * 2019-09-30 2019-10-31 Dong, Qirui MR A pedestrian detection method with lightweight backbone based on yolov3 network
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
CN111340141A (zh) * 2020-04-20 2020-06-26 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于深度学习的作物幼苗与杂草检测方法及系统
CN111967468A (zh) * 2020-08-10 2020-11-20 东南大学 一种基于fpga的轻量级目标检测神经网络的实现方法
CN112183578A (zh) * 2020-09-01 2021-01-05 国网宁夏电力有限公司检修公司 一种目标检测方法、介质及系统
AU2020103494A4 (en) * 2020-11-17 2021-01-28 China University Of Mining And Technology Handheld call detection method based on lightweight target detection network

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
CN110378210A (zh) * 2019-06-11 2019-10-25 江苏大学 一种基于轻量化YOLOv3的车辆和车牌检测及长短焦融合测距方法
CN110321874A (zh) * 2019-07-12 2019-10-11 南京航空航天大学 一种轻量化的卷积神经网络行人识别方法
AU2019101142A4 (en) * 2019-09-30 2019-10-31 Dong, Qirui MR A pedestrian detection method with lightweight backbone based on yolov3 network
CN111340141A (zh) * 2020-04-20 2020-06-26 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于深度学习的作物幼苗与杂草检测方法及系统
CN111967468A (zh) * 2020-08-10 2020-11-20 东南大学 一种基于fpga的轻量级目标检测神经网络的实现方法
CN112183578A (zh) * 2020-09-01 2021-01-05 国网宁夏电力有限公司检修公司 一种目标检测方法、介质及系统
AU2020103494A4 (en) * 2020-11-17 2021-01-28 China University Of Mining And Technology Handheld call detection method based on lightweight target detection network

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
QI-CHAO MAO 等: "Mini-YOLOv3: Real-Time Object Detector for Embedded Applications", 《IEEE》 *
平嘉蓉等: "基于轻量级神经网络的人群计数模型设计", 《无线电工程》 *
武星 等: "基于轻量化YOLOv3卷积神经网络的苹果检测方法", 《农业机械学报》 *
黄同愿等: "基于YOLOV3的改进模型在行人检测中的应用", 《重庆理工大学学报(自然科学)》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408423A (zh) * 2021-06-21 2021-09-17 西安工业大学 适用于tx2嵌入式平台的水产品目标实时检测方法
CN113408423B (zh) * 2021-06-21 2023-09-05 西安工业大学 适用于tx2嵌入式平台的水产品目标实时检测方法
CN113723322A (zh) * 2021-09-02 2021-11-30 南京理工大学 一种基于单阶段无锚点框架的行人检测方法及系统
CN114187606A (zh) * 2021-10-21 2022-03-15 江阴市智行工控科技有限公司 一种采用分支融合网络轻量化的车库行人检测方法及系统
CN114187606B (zh) * 2021-10-21 2023-07-25 江阴市智行工控科技有限公司 一种采用分支融合网络轻量化的车库行人检测方法及系统
CN115690545A (zh) * 2021-12-03 2023-02-03 北京百度网讯科技有限公司 训练目标跟踪模型和目标跟踪的方法和装置
CN117392613A (zh) * 2023-12-07 2024-01-12 武汉纺织大学 一种基于轻量化网络的电力作业安全监测方法
CN117392613B (zh) * 2023-12-07 2024-03-08 武汉纺织大学 一种基于轻量化网络的电力作业安全监测方法

Also Published As

Publication number Publication date
CN112836657B (zh) 2023-04-18

Similar Documents

Publication Publication Date Title
CN112836657B (zh) 一种基于轻量化YOLOv3的行人检测方法及系统
CN108062349B (zh) 基于视频结构化数据及深度学习的视频监控方法和系统
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
Wang et al. Object detection using clustering algorithm adaptive searching regions in aerial images
CN111461209B (zh) 一种模型训练装置和方法
CN110781806A (zh) 一种基于yolo的行人检测追踪方法
CN111553355B (zh) 基于监控视频的出店经营检测及通知管理店主的方法
CN111931582A (zh) 基于图像处理的高速公路交通事件检测方法
CN110659622A (zh) 一种倾倒垃圾检测方法、装置及系统
CN111008574A (zh) 一种基于形体识别技术的重点人员轨迹分析方法
CN114049572A (zh) 识别小目标的检测方法
CN113989744A (zh) 一种基于超大尺寸高分辨图像的行人目标检测方法及系统
CN113378675A (zh) 一种同时检测和特征提取的人脸识别方法
CN115620090A (zh) 模型训练方法、低照度目标重识别方法和装置、终端设备
CN111753610A (zh) 天气识别方法及装置
CN112668662B (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
CN113269038A (zh) 一种基于多尺度的行人检测方法
Kamenetsky et al. Aerial car detection and urban understanding
CN115131826B (zh) 物品检测识别方法、网络模型的训练方法和装置
CN111897993A (zh) 一种基于行人再识别的高效目标人物轨迹生成方法
CN115953744A (zh) 一种基于深度学习的车辆识别追踪方法
CN110765900A (zh) 一种基于dssd的自动检测违章建筑方法及系统
CN115546667A (zh) 一种无人机场景的实时车道线检测方法
CN114639084A (zh) 一种基于ssd改进算法的路侧端车辆感知方法
CN113378668A (zh) 积水类别的确定方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant