CN111723737B - 一种基于多尺度匹配策略深度特征学习的目标检测方法 - Google Patents
一种基于多尺度匹配策略深度特征学习的目标检测方法 Download PDFInfo
- Publication number
- CN111723737B CN111723737B CN202010564966.3A CN202010564966A CN111723737B CN 111723737 B CN111723737 B CN 111723737B CN 202010564966 A CN202010564966 A CN 202010564966A CN 111723737 B CN111723737 B CN 111723737B
- Authority
- CN
- China
- Prior art keywords
- frame
- equal
- default
- target
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 21
- 230000006870 function Effects 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000002860 competitive effect Effects 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000271566 Aves Species 0.000 description 1
- 241000283690 Bos taurus Species 0.000 description 1
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
一种基于多尺度匹配策略深度特征学习的目标检测方法,基于残差神经网络,我们首先对不同类目标的宽高比进行聚类,并进一步使用多尺度匹配策略来选择默认框,缓解目标遮挡问题。然后,融合不同深度的特征图以检测不同尺度的物体。实验结果表明,与当前九种具有代表性的目标检测方法相比,我们提出的方法更具竞争力,速度更快,精度更高。
Description
技术领域
本发明涉及计算机视觉和模式识别技术领域,,具体说的是一种基于多尺度匹配策略深度特征学习的目标检测方法。
背景技术
目标检测是从图像或视频中找到感兴趣的目标。人们的视觉系统可以从图像或视频中快速准确地捕捉到目标类型、位置以及各目标之间的相对关系。它可以帮助我们完成一些复杂的任务,例如运动和驾驶汽车。在过去的几十年中,多种目标检测算法已经被提出,它们可以分为两类:传统的目标检测算法和基于深度学习的目标检测算法。
早期的目标检测算法主要基于手动构建的特征。由于当时缺乏有效的可视化技术,人们只能设计复杂的特征表示并不断对其进行优化。基于深度学习的方法,通过不断加深网络的深度让计算机自动提取特征,不需要复杂的特征表示,从而在近些年不断刷新计算机视觉领域的各项记录。
但是,这两种方法都不能很好的检测小目标以及被遮挡的目标。
发明内容
为解决上述技术问题,本实用新型提供一种基于多尺度匹配策略深度特征学习的目标检测方法,速度更快,精度更高。
为实现上述技术目的,所采用的技术方案是:一种基于多尺度匹配策略深度特征学习的目标检测方法,包括以下步骤:
步骤一:聚类目标宽高比,划分单元格
首先对数据集中所有具有真实框的被检测目标按照类别对宽高比进行聚类,得到所有类别默认框的宽高比信息,随后将数据集中每一张整幅图像按S*S个单元格进行划分,13≤S≤26;
步骤二:多尺度匹配默认框,学习偏移量,得到预测框
计算被检测目标的中心坐标,提取其所在单元格的直实框信息,将所有默认框依次与被检测目标的真实框进行比对,选择具有最大IoU值的默认框,并按照以下公式计算偏移量,得到预测框;
bx=cx+px
by=cy+py
bf=p(b,obj)*pf
其中,bx,by,bw,bh,bf分别表示预测框的横坐标、纵坐标、宽、高以及包含目标的自信度,px,py,pw,ph,pf分别表示残差神经网络输出的横坐标、纵坐标、宽、高的偏移量和自信度,cx,cy,cw,ch分别表示默认框的横坐标、纵坐标、宽和高,p(b,obj)为示性函数,当输出的pf高于阈值t时,0.5≤t≤0.7,p(b,obj)为1,否则为0;
步骤三:多深度特征融合,检测多尺度目标
对整个残差神经网络的多个深度提取特征并进行融合后,并对整个残差神经网络的进行优化,对步骤二得到的预测框与真实框使用均方误差进行误差计算;
步骤四:进行训练
利用步骤三优化后的残差神经网络进行训练,在整个训练过程中,使用的批次大小为z,2≤z≤32,动量为m,0.5≤m≤0.9,衰减速率为v,0.0001≤v≤0.0008,在训练过程中使用随机丢弃和数据增强功能,整个训练过程的初始学习率为10-2,随后按照10-1的速度衰减并训练e个周期,120≤e≤150;
步骤五:绘制预测框
训练完成后,提取经过训练之后的残差神经网络的输出来绘制预测框,完成目标检测。
数据集采用为PASCAL VOC数据集。
预测框与真实框使用均方误差进行误差计算的公式为,
其中,S表示划分的单元格数量,N表示默认框的数量,xij,yij,wij,hij,fij分别表示第i个单元格第j个默认框中真实框的横坐标、纵坐标、宽、高以及类别概率,分别表示第i个单元格第j个默认框中预测框的横坐标、纵坐标、宽、高以及类别概率,i=1,2,…,S,j=1,2,…,N,设置α等于0.1来平衡正负样本,/>和/>均为示性函数,表示第i个单元格第j个默认框是否包含目标,如果高于阈值t,/>为1,为0,否则相反。
本发明有益效果是:本发明基于残差神经网络,采用多尺度匹配策略深度特征学习的方法对目标进行检测,首先我们将整幅图像分为S*S个单元格,每个单元格都有N个不同宽高比的默认框,如果被检测目标的中心坐标落入某个单元格,则该单元格被用来学习被检测目标相对于单元格中心坐标的偏移量以及相对于整幅图像的宽高比,随后将N个默认框依次与被检测目标的真实框计算交并比,选择交并比最大的默认框进行训练。并且我们在网络的多个深度上对特征进行提取并融合,浅层的特征更倾向于定位目标,深层特征更倾向于分类目标。最后,整个网络的输出为预测框的中心坐标和宽高比,大量的实验结果验证了我们方法的有效性。
附图说明
图1为本发明的实验流程图;
图2为本发明的网络构架图;
图3为本发明的残差神经网络示意图;
图4为本发明的不同类别目标的宽高比直方图;
图5为本发明的数据增强示意图;
图6为本发明的十种方法的精准召回曲线图;
图7为视觉比较图,(A)输入;(B)真实框;(C)Ours;(D)DPM;(E)R-CNN;(F)SDS;(G)Feature Edit;(H)YOLO;(I)SSD;(J)DSSD;(K)Fast R-CNN;(L)Faster R-CNN。
具体实施方式
一种基于多尺度匹配策略深度特征学习的目标检测方法,如图1所示,包括以下步骤:
步骤一:聚类目标宽高比,划分单元格
我们首先对PASCAL VOC数据集中所有被检测目标按照类别对宽高比进行聚类,如图4所示,得到所有类别默认框的宽高比信息,随后我们将整幅图像划分为S*S(13≤S≤26)个单元格。
步骤二:多尺度匹配默认框,学习偏移量,得到预测框
基于如图3所示的残差神经网络,计算被检测目标的中心坐标,提取其所在单元格的真实框信息,将所有默认框依次与被检测目标的真实框进行比对,选择具有最大IoU(Intersection over Union)值的默认框,并按照以下公式计算偏移量,得到预测框。
bx=cx+px
by=cy+py
bf=p(b,obj)*pf
在此,bx,by,bw,bh,bf分别表示预测框的横坐标、纵坐标、宽、高以及包含目标的自信度,脚标x表示坐标系中x-轴的意思,脚标y表示坐标系中y-轴的意思,脚标w表示宽或宽度,脚标h表示高或高度,脚标f表示自信度(一种类别概率),px,py,pw,ph,pf分别表示网络输出的横坐标、纵坐标、宽、高的偏移量和自信度,cx,cy,cw,ch分别表示默认框的横坐标、纵坐标、宽和高,p(b,obj)为示性函数,当输出的pf高于阈值t(0.5≤t≤0.7)时,p(b,obj)为1,否则为0。
步骤三:多深度特征融合,检测多尺度目标
如图2所示,对整个残差神经网络的多个深度提取特征并进行融合,例如,在整个网络的第78层,第90层和第100层提取特征并进行融合,之后对整个残差神经网络的进行优化,对步骤二得到的预测框与真实框使用均方误差进行误差计算,公式如下:
在此,S表示划分的单元格数量,N表示默认框的数量,xij,yij,wij,hij,fij分别表示第i个单元格第j个默认框中真实框的横坐标、纵坐标、宽、高以及类别概率,分别表示第i个单元格第j个默认框中预测框的横坐标、纵坐标、宽、高以及类别概率,i=1,2,…,S,j=1,2,…,N。α表示自定义参数,我们设置α等于0.1来平衡正负样本,/>和/>均为示性函数,表示第i个单元格第j个默认框是否包含目标,如果高于阈值t(0.5≤t≤0.7),/>为1,/>为0,否则相反。
步骤四:进行训练
在整个训练过程中,我们使用的批次大小为z,2≤z≤32,动量为m,0.5≤m≤0.9,衰减速率为v,0.0001≤v≤0.0008。如图5所示,在训练过程中使用随机丢弃和数据增强功能,整个训练过程的初始学习率10-2,随后按照10-1的速度衰减并训练e个周期,120≤e≤150。
步骤五:绘制预测框
训练完成后,提取经过训练之后的残差神经网络的输出来绘制预测框,完成目标检测。
一种基于多尺度匹配策略深度特征学习的目标检测方法(Multiple-scaleMatching Based Deep Feature Learning for Object Detection.MMDFL)。大多数目标检测算法都是独立处理每个区域,缺少足够的上下文信息来准确定位目标。而且,当检测多个尺度的目标,特别是小目标时,当前算法的性能不能令人满意。为了缓解这些问题,在本文中,我们提出了一种新颖的基于多尺度匹配策略深度特征学习的目标检测算法。我们提出的方法基于残差神经网络,我们首先对不同类目标的宽高比进行聚类,并进一步使用多尺度匹配策略来选择默认框,缓解目标遮挡问题。然后,融合不同深度的特征图以检测不同尺度的物体。实验结果表明,与当前九种具有代表性的目标检测方法相比,我们提出的方法更具竞争力。
本方法的贡献如下:第一,我们提出了一种新颖的基于多尺度匹配深度特征学习的方法用于目标检测。所提出的MMDFL方法基于残差神经网络。由于浅层特征倾向于定位对象,深层特征倾向于对对象进行分类,因此所提出的MMDFL方法可以通过融合来自网络层不同深度的特征来获得多级特征图。结果表明我们的检测器可以有效地检测多尺度目标。第二,我们使用聚类方法自适应地选择每个类别目标的宽高比,并进一步采用多尺度匹配策略来选择感兴趣目标的默认框。该策略可以减轻检测多个目标时的遮挡问题。第三,我们提出了一种新颖的损失函数来优化网络,该损失函数的参数比YOLO少,而且检测性能优于YOLO。第四,PSACAL VOC数据集的实验结果表明,与当前九种代表性目标检测方法相比,我们提出的MMDFL方法在保持实时检测速度的同时,在多个类别目标的检测上都获得了最高的精度。
因此,我们所提出的基于多尺度匹配策略深度特征学习的方法在目标检测的理论研究中具有一定成果的。
基于多尺度匹配策略深度特征学习的算法用于目标检测,我们在PASCAL VOC2007和PASCAL VOC 2012公开数据集上进行实验,其中,S=13,N=180,批次大小为4,动量为0.9,衰减速率为0.0005,前80个周期,学习率为10-2,然后继续训练30个周期,学习率为10-3,最后以10-4的学习率训练30个周期。
具体实验如下:
(1)数据集:PASCAL VOC数据集是计算机视觉中分类、分割和检测的基准数据集之一,数据集包含20类的目标。每幅图像平均包含2.4个目标,被标记的目标包括人、动物(狗、猫、牛、鸟等)、交通工具(汽车、火车、飞机等)、室内物体(电视、沙发、椅子等)。每副图像都有一一对应的注释文件,用来标注每幅图像中目标的各项信息,所有数据都可以在线获得。PASCAL VOC 2007数据集包含9,963个带有标签的图像,共有24,640个目标。PASCAL VOC2012数据集中包含11,530个图像,总共标记了27450个目标。两个数据集之间的训练数据是互斥的。这些数据集近年来已被广泛使用。
(2)评价指标:为了评估该方法的有效性,我们在两个基准数据集上进行了实验,并定性和定量地与其他方法进行对比。我们使用公认的标准度量来评估我们的模型:插值平均精度。用于计算插值平均精度的公式为:
其中,max是求最大值的函数,表示当/>时,函数/>的最大值,,此处的/>N表示整幅图像中被标记的目标数量,/>表示当识别目标为/>时的查准率,Δ(k)为查全率在k和k-1之间的差值。
(3)消融分析:我们尝试了不同的设计方案和不同的深度融合模式,来说明我们方法的有效性,分析结果如表1所示。
表1不同深度融合特征的详细信息
No. | 深度1 | 深度2 | 深度3 | 精度 |
1 | 54 | 66 | 100 | 0.676 |
2 | 54 | 78 | 100 | 0.679 |
3 | 66 | 78 | 100 | 0.681 |
4 | 66 | 90 | 100 | 0.687 |
5 | 78 | 90 | 100 | 0.692 |
(4)比较试验:如图6、图7所示,在PASCAL VOC公开数据集上同其他九种具有代表性的算法进行比较实验,实验结果如表2,表3,表4所示。实验结果表明,我们提出的方法速度更快,精度更高。因此,本发明有益。
表2 PASCAL VOC 2007数据集检测结果
表3 PASCAL VOC 2012数据集不同算法的速度比较
方法 | 训练集 | 测试集 | 精度 | 帧率 |
DPM | 07+12 | 07 | 33.6 | 12 |
R-CNN | 07+12 | 07 | 49.7 | - |
Fast R-CNN | 07+12 | 07 | 68.4 | 1 |
Faster R-CNN | 07+12 | 07 | 70.1 | 8 |
SSD | 07+12 | 07 | 66.2 | 21 |
DSSD | 07+12 | 07 | 67.8 | 10 |
Feature Edit | 07+12 | 07 | 56.3 | - |
SDS | 07+12 | 07 | 50.4 | - |
YOLO | 07+12 | 07 | 57.8 | 35 |
Ours | 07+12 | 07 | 69.2 | 31 |
表4 PASCAL VOC 2012数据集检测结果
Claims (3)
1.一种基于多尺度匹配策略深度特征学习的目标检测方法,其特征在于:包括以下步骤,
步骤一:聚类目标宽高比,划分单元格
首先对数据集中所有具有真实框的被检测目标按照类别对宽高比进行聚类,得到所有类别默认框的宽高比信息,随后将数据集中每一张整幅图像按S*S个单元格进行划分,13≤S≤26;
步骤二:多尺度匹配默认框,学习偏移量,得到预测框
计算被检测目标的中心坐标,提取其所在单元格的直实框信息,将所有默认框依次与被检测目标的真实框进行比对,选择具有最大IoU值的默认框,并按照以下公式计算偏移量,得到预测框;
bx=cx+px
by=cy+py
bf=p(b,obj)*pf
其中,bx,by,bw,bh,bf分别表示预测框的横坐标、纵坐标、宽、高以及包含目标的自信度,px,py,pw,ph,pf分别表示残差神经网络输出的横坐标、纵坐标、宽、高的偏移量和自信度,cx,cy,cw,ch分别表示默认框的横坐标、纵坐标、宽和高,p(b,obj)为示性函数,当输出的pf高于阈值t时,0.5≤t≤0.7,p(b,obj)为1,否则为0;
步骤三:多深度特征融合,检测多尺度目标
对整个残差神经网络的多个深度提取特征并进行融合后,并对整个残差神经网络的进行优化,对步骤二得到的预测框与真实框使用均方误差进行误差计算;
步骤四:进行训练
利用步骤三优化后的残差神经网络进行训练,在整个训练过程中,使用的批次大小为z,2≤z≤32,动量为m,0.5≤m≤0.9,衰减速率为v,0.0001≤v≤0.0008,在训练过程中使用随机丢弃和数据增强功能,整个训练过程的初始学习率为10-2,随后按照10-1的速度衰减并训练e个周期,120≤e≤150;
步骤五:绘制预测框
训练完成后,提取经过训练之后的残差神经网络的输出来绘制预测框,完成目标检测。
2.如权利要求1所述的一种基于多尺度匹配策略深度特征学习的目标检测方法,其特征在于:数据集采用为PASCAL VOC数据集。
3.如权利要求1所述的一种基于多尺度匹配策略深度特征学习的目标检测方法,其特征在于:预测框与真实框使用均方误差进行误差计算的公式为,
其中,S表示划分的单元格数量,N表示默认框的数量,xij,yij,wij,hij,fij分别表示第i个单元格第j个默认框中真实框的横坐标、纵坐标、宽、高以及类别概率,分别表示第i个单元格第j个默认框中预测框的横坐标、纵坐标、宽、高以及类别概率,i=1,2,…,S,j=1,2,…,N,设置α等于0.1来平衡正负样本,/>和/>均为示性函数,表示第i个单元格第j个默认框是否包含目标,如果高于阈值t,/>为1,/>为0,否则相反。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010564966.3A CN111723737B (zh) | 2020-06-19 | 2020-06-19 | 一种基于多尺度匹配策略深度特征学习的目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010564966.3A CN111723737B (zh) | 2020-06-19 | 2020-06-19 | 一种基于多尺度匹配策略深度特征学习的目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111723737A CN111723737A (zh) | 2020-09-29 |
CN111723737B true CN111723737B (zh) | 2023-11-17 |
Family
ID=72567601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010564966.3A Active CN111723737B (zh) | 2020-06-19 | 2020-06-19 | 一种基于多尺度匹配策略深度特征学习的目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723737B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821202B (zh) * | 2022-06-29 | 2022-10-04 | 武汉纺织大学 | 一种基于用户偏好的服装推荐方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423760A (zh) * | 2017-07-21 | 2017-12-01 | 西安电子科技大学 | 基于预分割和回归的深度学习目标检测方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109685152A (zh) * | 2018-12-29 | 2019-04-26 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
CN110991311A (zh) * | 2019-11-28 | 2020-04-10 | 江南大学 | 一种基于密集连接深度网络的目标检测方法 |
WO2020102988A1 (zh) * | 2018-11-20 | 2020-05-28 | 西安电子科技大学 | 基于特征融合和稠密连接的红外面目标检测方法 |
AU2020100705A4 (en) * | 2020-05-05 | 2020-06-18 | Chang, Jiaying Miss | A helmet detection method with lightweight backbone based on yolov3 network |
-
2020
- 2020-06-19 CN CN202010564966.3A patent/CN111723737B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107423760A (zh) * | 2017-07-21 | 2017-12-01 | 西安电子科技大学 | 基于预分割和回归的深度学习目标检测方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
WO2020102988A1 (zh) * | 2018-11-20 | 2020-05-28 | 西安电子科技大学 | 基于特征融合和稠密连接的红外面目标检测方法 |
CN109685152A (zh) * | 2018-12-29 | 2019-04-26 | 北京化工大学 | 一种基于dc-spp-yolo的图像目标检测方法 |
CN110991311A (zh) * | 2019-11-28 | 2020-04-10 | 江南大学 | 一种基于密集连接深度网络的目标检测方法 |
AU2020100705A4 (en) * | 2020-05-05 | 2020-06-18 | Chang, Jiaying Miss | A helmet detection method with lightweight backbone based on yolov3 network |
Non-Patent Citations (1)
Title |
---|
一种卷积神经网络的车辆和行人检测算法;李大华;汪宏威;高强;于晓;沈洪宇;;激光杂志(第04期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111723737A (zh) | 2020-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110533084B (zh) | 一种基于自注意力机制的多尺度目标检测方法 | |
CN107563381B (zh) | 基于全卷积网络的多特征融合的目标检测方法 | |
CN107657226B (zh) | 一种基于深度学习的人数估计方法 | |
CN109242864B (zh) | 基于多分支网络的图像分割结果质量评价方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN111444767B (zh) | 一种基于激光雷达的行人检测和追踪方法 | |
CN112541532B (zh) | 基于密集连接结构的目标检测方法 | |
CN110008853B (zh) | 行人检测网络及模型训练方法、检测方法、介质、设备 | |
CN110188763B (zh) | 一种基于改进图模型的图像显著性检测方法 | |
CN108765374B (zh) | 一种宫颈涂片图像中异常核区域筛查的方法 | |
CN108154158B (zh) | 一种面向增强现实应用的建筑物图像分割方法 | |
CN108052886A (zh) | 一种小麦条锈病菌夏孢子自动统计计数方法 | |
CN106228554A (zh) | 基于多属性约简的模糊粗糙集煤粉尘图像分割方法 | |
CN115131760B (zh) | 一种基于改进特征匹配策略的轻量级车辆追踪方法 | |
CN113484875B (zh) | 一种基于混合高斯排序的激光雷达点云目标分级识别方法 | |
CN105046714A (zh) | 一种非监督的基于超像素和目标发现机制的图像分割方法 | |
CN111860587A (zh) | 一种用于图片小目标的检测方法 | |
CN113799124A (zh) | 一种非结构化环境的机器人灵活抓取检测方法 | |
CN105956570A (zh) | 基于唇部特征和深度学习的笑脸识别方法 | |
CN110197113A (zh) | 一种高精度锚点匹配策略的人脸检测方法 | |
CN112183237A (zh) | 基于颜色空间自适应阈值分割的白细胞自动分类方法 | |
CN110348478B (zh) | 一种基于形状分类与组合的室外点云场景中树木提取方法 | |
CN111723737B (zh) | 一种基于多尺度匹配策略深度特征学习的目标检测方法 | |
CN117576079A (zh) | 一种工业产品表面异常检测方法、装置及系统 | |
CN114219936A (zh) | 目标检测方法、电子设备、存储介质和计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |