CN113313118A - 基于多尺度特征融合的自适应可变占比目标检测方法 - Google Patents

基于多尺度特征融合的自适应可变占比目标检测方法 Download PDF

Info

Publication number
CN113313118A
CN113313118A CN202110712902.8A CN202110712902A CN113313118A CN 113313118 A CN113313118 A CN 113313118A CN 202110712902 A CN202110712902 A CN 202110712902A CN 113313118 A CN113313118 A CN 113313118A
Authority
CN
China
Prior art keywords
feature
scale
target
prediction
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110712902.8A
Other languages
English (en)
Inventor
宿南
李�瑞
王金鹏
闫奕名
赵春晖
黄博闻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202110712902.8A priority Critical patent/CN113313118A/zh
Publication of CN113313118A publication Critical patent/CN113313118A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

基于多尺度特征融合的自适应可变占比目标检测方法,属于目标检测技术领域,本发明为解决待测目标是小目标情况下,小目标在特征图上尺寸过小,学习过程中易被大目标主导,导致小目标检测效果较差的问题。它包括:可变占比图像生成器将原始数据生成不同大小的目标数据,然后将目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。本发明用于目标检测,尤其适用于小目标的目标检测。

Description

基于多尺度特征融合的自适应可变占比目标检测方法
技术领域
本发明涉及一种自适应可变占比目标检测方法,属于目标检测技术领域。
背景技术
目标检测也称为目标提取,是在图像中定位并分类出感兴趣的目标的方法。在实际应用环境中,由于相机成像存在远小近大的特点,因此,当出现场景较为复杂、待检测目标尺度大小差异较大、待检测目标为小目标等问题时,现有的算法很难满足实际需要。
针对待检测目标为小目标的情况,由于小目标在图像中尺寸比较小,在通用目标检测模型中,一般的基础骨干神经网都有下采样过程,导致原本较小的目标在特征图上的尺寸更加小,这会导致设计的分类器的效果较差,另外由于小目标特征的感受野映射回原图将可能远远大于实际尺寸,造成检测效果差。此外,由于实际的数据中可能存在小目标样本较少,导致神经网络在学习的过程中被大目标主导,导致小目标的检测效果很差。
发明内容
本发明目的是为了解决待测目标是小目标的情况下,小目标在特征图上的尺寸过小,以及学习过程中易被大目标主导,导致小目标的检测效果较差的问题,提供了一种基于多尺度特征融合的自适应可变占比目标检测方法。
本发明所述基于多尺度特征融合的自适应可变占比目标检测方法,它基于Yolo算法框架实现;该目标检测方法包括:
可变占比图像生成器、特征提取网络、多尺度特征生成器和多尺度预测框;
可变占比图像生成器将原始数据生成不同大小的目标数据,然后将不同大小的目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。
优选的,可变占比图像生成器输入的原始数据为:
Fimgin(x,y)|0<x,y<t
将原始数据平移得到:Fimgin(x,y)|t1<x,y<t+t1
其中,t1表示填充的黑色边带的宽度,受多尺度损失反馈调节,填充后的图片函数为:
Fimgout(x,y)|υ=0<x,y<t+2*t1=Fimgin(x,y)|ω=t1<x,y<t+t1+(0,0,0)|υ-ω
其中,(0,0,0)|α为在α区域填充黑色;α表示以距离原图像t1的直线为边界的内侧区域,ω表示填充前的定义域边界,υ表示填充后的定义域边界,
输出的目标数据为:
Fout(x,y)0<x,y<t=Fimgout(x/[(t+2*t1)/t],y/[(t+2*t1)/t])|υ=0<x<t+2*t1
(x,y)表示二维平面上点的位置。
优选的,可变占比图像生成器输出的目标数据是将输入数据缩小到原来的
Figure BDA0003133653340000021
倍。
优选的,该目标检测方法还包括:损失函数计算模块和多尺度损失判别器;
损失函数计算模块分别对三个尺度的特征图计算损失函数,多尺度损失判别器根据损失函数的大小调节可变占比图像生成器的填充区域,当小特征图无法获得目标检测结果时,增大t1,使得可变占比图像生成器输出的目标数据是将输入数据缩小到原来的
Figure BDA0003133653340000022
倍。
优选的,特征提取网络包括五个残差单元;
可变占比图像生成器的输出数据Fout(x,y)0<x,y<t经过五个残差单元的五次下采样运算获取小特征图预测所需的特征图f1;
f1经过多尺度池化层和上采样,然后与中浅特征层四次下采样的结果进行拼接,获得中特征图预测所需的特征图f2;
f2经过多尺度池化层和上采样,然后与浅特征层四次下采样的结果进行拼接,获得大特征图预测所需的特征图f3。
优选的,所述多尺度特征生成器产生三个尺度特征图的具体方法包括:
将提取的特征经过多尺度特征池化模块,捕捉不同尺度的特征,然后将不同尺度的特征经过多尺度特征融合;
多尺度特征包括:
将大特征图预测所需的特征图f3的特征经过下采样后与中特征图预测所需的特征图f2进行融合,获得中特征图,
将中特征图预测所需的特征图f2的特征经过下采样后与小特征图预测所需的特征图f1进行融合,获得小特征图,
大特征图预测所需的特征图f3的特征不变,获得大特征图。
优选的,所述小特征图的大小为13*13,中特征图的大小为26*26,大特征图的大小为52*52。
优选的,所述多尺度特征池化模块包括四个不同大小的池化结构,能够捕捉四个不同尺度的特征,四个不同大小池化结构的最大池化结构max_pooli表示i*i最大池化,此处i=1,5,9,13。
优选的,所述多尺度特征池化模块的函数表达式为:
FMSP_out=concat(max_pool1(FMSP_in),max_pool5(FMSP_in),
max_pool9(FMSP_in),max_pool13(FMSP_in))
其中,FMSP_in表示多尺度特征池化模块的输入特征,FMSP_out表示多尺度特征池化模块的输出特征,concat表示对特征张量进行拼接。
优选的,多尺度预测框对三个尺度的特征图分别生成预测框的具体方法包括:
多尺度预测框在每个尺度的特征图的每个网格上设置三个先验框,获得预测值,每个预测值是(4+1+n)维向量,4表示位置信息,1表示边框置信度,n表示n类目标的概率,n类目标是数据集中包含的目标类别;
对预测值与人工标注框计算交并比,保留交并比大于阈值的预测值,如交并比均小于阈值,则保留边框置信度排序为前三位的预测值;
对保留的预测值进行非极大值抑制,去除重叠大于阈值的边框,获得预测框。本发明的优点:本发明提出的基于多尺度特征融合的自适应可变占比目标检测方法利用对三个尺度的损失的大小来反馈调节图像可变占比算法,从而能够改善算法对检测效果较差尺度的检测能力,而且由于会产生小目标样本,可以提高小目标的检测精度,能够提高算法的对不同大小目标的鲁棒性。
附图说明
图1是本发明所述基于多尺度特征融合的自适应可变占比目标检测方法的原理框图;
图2是本发明所述多尺度特征池化模块的原理框图;
图3是本发明所述多尺度特征生成器产生三个尺度特征图的原理框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
具体实施方式一:下面结合图1说明本实施方式,本实施方式所述基于多尺度特征融合的自适应可变占比目标检测方法,它基于Yolo算法框架实现;该目标检测方法包括:
可变占比图像生成器、特征提取网络、多尺度特征生成器和多尺度预测框;
可变占比图像生成器将原始数据生成不同大小的目标数据,然后将不同大小的目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。
具体实施方式二:本实施方式对实施方式一作进一步说明,可可变占比图像生成器输入的原始数据为:
Fimgin(x,y)|0<x,y<t
将原始数据平移得到:Fimgin(x,y)|t1<x,y<t+t1
其中,t1表示填充的黑色边带的宽度,受多尺度损失反馈调节,填充后的图片函数为:
Fimgout(x,y)|υ=0<x,y<t+2*t1=Fimgin(x,y)|ω=t1<x,y<t+t1+(0,0,0)|υ-ω
其中,(0,0,0)|α为在α区域填充黑色;α表示以距离原图像t1的直线为边界的内侧区域,ω表示填充前的定义域边界,υ表示填充后的定义域边界,
输出的目标数据为:
Fout(x,y)0<x,y<t=Fimgout(x/[(t+2*t1)/t],y/[(t+2*t1)/t])|υ=0<x<t+2*t1
(x,y)表示二维平面上点的位置。
本实施方式中,(x,y)表示二维平面上点的位置,F(x,y)表示图像的二维离散表示函数,对应点的函数值是这一位置的亮度值。
本实施方式中,针对两个数据集中小目比较多的特点,以及原始存在的数据增强对小目标并没有较好的改善作用,因此在训练阶段应用目标可变占比数据增强算法改善对小目标的精度。该数据增强的原理是随机的在训练数据图像的四周填充黑色边带,然后将填充后的图像进行resize使得与要求大小一致,其结果发生了改变,首先目标的位置发生了改变,其次,目标占图像大小的百分比变小,即生成了更多的小目标,目标尺寸缩小到原来的
Figure BDA0003133653340000051
倍,当数据经过算法之后输入到神经网络,神经网络学习更多的小目标,从而提高神经网络对小目标检测的精度。由缩小比例
Figure BDA0003133653340000052
可知,当t1越小,则生成的目标越小,利用损失反馈回来的信息来调节t1,从而提高算法对不同尺度的目标的检测能力。
具体实施方式三:本实施方式对实施方式二作进一步说明,可变占比图像生成器输出的目标数据是将输入数据缩小到原来的
Figure BDA0003133653340000053
倍。
具体实施方式四:下面结合图1说明本实施方式,本实施方式对实施方式三作进一步说明,该目标检测方法还包括:损失函数计算模块和多尺度损失判别器;
损失函数计算模块分别对三个尺度的特征图计算损失函数,多尺度损失判别器根据损失函数的大小调节可变占比图像生成器的填充区域,当小特征图无法获得目标检测结果时,增大t1,使得可变占比图像生成器输出的目标数据是将输入数据缩小到原来的
Figure BDA0003133653340000054
倍。
本实施方式中,损失函数(loss)是深度学习分类回归任务的优化目标,是衡量预测结果和目标差异的指标。
具体实施方式五:本实施方式对实施方式二作进一步说明,特征提取网络包括五个残差单元;
可变占比图像生成器的输出数据Fout(x,y)0<x,y<t经过五个残差单元的五次下采样运算获取小特征图预测所需的特征图f1;
f1经过多尺度池化层和上采样,然后与中浅特征层四次下采样的结果进行拼接,获得中特征图预测所需的特征图f2;
f2经过多尺度池化层和上采样,然后与浅特征层四次下采样的结果进行拼接,获得大特征图预测所需的特征图f3。
具体实施方式六:下面结合图3说明本实施方式,本实施方式对实施方式五作进一步说明,所述多尺度特征生成器产生三个尺度特征图的具体方法包括:
将提取的特征经过多尺度特征池化模块,捕捉不同尺度的特征,然后将不同尺度的特征经过多尺度特征融合;
多尺度特征包括:
将大特征图预测所需的特征图f3的特征经过下采样后与中特征图预测所需的特征图f2进行融合,获得中特征图,
将中特征图预测所需的特征图f2的特征经过下采样后与小特征图预测所需的特征图f1进行融合,获得小特征图,
大特征图预测所需的特征图f3的特征不变,获得大特征图。
本实施方式中,将特征通过不同的最大池化后进行拼接,由于把一个feature map从不同的尺度进行特征提取,再聚合的特点,能够捕捉不同尺度下的特征,提高了算法对不同尺度目标的敏感度,进而提高算法的鲁棒性。此外,该模块能够扩大神经网络的感受野,而更大感受野往往能够使得网络能够学习到更好的特征。
本实施方式中,原始的算法由backbone输出大小为13*13特征,13*13的特征经过上采样后与Res8输出的特征进行拼接进而得到26*26的特征图,同理得到52*52的特征图,最后在三个特征图上进行预测,在13*13的特征图上,具有较大的感受野,更利于检测到较大的目标,而在52*52的特征图上,由于特征图较大,感受野较小,对小目标较敏感。但较小特征图忽略了较大特征图中的浅层特征和包含的其它尺度目标的信息。本文提出了多尺度特征融合,如图3所示,利用将较大特征图的特征经过下采样之后与较小特征图进行融合,使得三个尺度上的特征都能够保留深浅层特征和特征尺度多样性,从而改善特征的表征能力,提高小目标检测的精度和复杂场景的鲁棒性。
具体实施方式七:本实施方式对实施方式六作进一步说明,所述小特征图的大小为13*13,中特征图的大小为26*26,大特征图的大小为52*52。
具体实施方式八:本实施方式对实施方式六作进一步说明,所述多尺度特征池化模块包括四个不同大小的池化结构,能够捕捉四个不同尺度的特征,四个不同大小池化结构的最大池化结构max_pooli表示i*i最大池化,此处i=1,5,9,13。
本实施方式中,采用四个不同大小的池化结构,能够捕捉不同尺度的有效特征,能够使得提取的特征的鲁棒性更好。
具体实施方式九:下面结合图2说明本实施方式,本实施方式对实施方式八作进一步说明,所述多尺度特征池化模块的函数表达式为:
FMSP_out=concat(max_pool1(FMSP_in),max_pool5(FMSP_in),
max_pool9(FMSP_in),max_pool13(FMSP_in))
其中,FMSP_in表示多尺度特征池化模块的输入特征,FMSP_out表示多尺度特征池化模块的输出特征,concat表示对特征张量进行拼接。
具体实施方式十:本实施方式对实施方式六作进一步说明,多尺度预测框对三个尺度的特征图分别生成预测框的具体方法包括:
多尺度预测框在每个尺度的特征图的每个网格上设置三个先验框,获得预测值,每个预测值是(4+1+n)维向量,4表示位置信息,1表示边框置信度,n表示n类目标的概率,n类目标是数据集中包含的目标类别;
对预测值与人工标注框计算交并比,保留交并比大于阈值的预测值,如交并比均小于阈值,则保留边框置信度排序为前三位的预测值;
对保留的预测值进行非极大值抑制,去除重叠大于阈值的边框,获得预测框。
本实施方式中,n类目标是数据集中包含的目标类别,例如coco数据集中有交通工具等80类目标,在使用coco数据集时n的值即为80。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。

Claims (10)

1.基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,它基于Yolo算法框架实现;该目标检测方法包括:
可变占比图像生成器、特征提取网络、多尺度特征生成器和多尺度预测框;
可变占比图像生成器将原始数据生成不同大小的目标数据,然后将不同大小的目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。
2.根据权利要求1所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,可变占比图像生成器输入的原始数据为:
Fimgin(x,y)|0<x,y<t
将原始数据平移得到:Fimgin(x,y)|t1<x,y<t+t1
其中,t1表示填充的黑色边带的宽度,受多尺度损失反馈调节,填充后的图片函数为:
Fimgout(x,y)|υ=0<x,y<t+2*t1=Fimgin(x,y)|ω=t1<x,y<t+t1+(0,0,0)|υ-ω
其中,(0,0,0)|α为在α区域填充黑色;α表示以距离原图像t1的直线为边界的内侧区域,ω表示填充前的定义域边界,υ表示填充后的定义域边界,
输出的目标数据为:
Fout(x,y)0<x,y<t=Fimgout(x/[(t+2*t1)/t],y/[(t+2*t1)/t])|υ=0<x<t+2*t1
(x,y)表示二维平面上点的位置。
3.根据权利要求2所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,可变占比图像生成器输出的目标数据是将输入数据缩小到原来的
Figure FDA0003133653330000011
倍。
4.根据权利要求3所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,该目标检测方法还包括:损失函数计算模块和多尺度损失判别器;
损失函数计算模块分别对三个尺度的特征图计算损失函数,多尺度损失判别器根据损失函数的大小调节可变占比图像生成器的填充区域,当小特征图无法获得目标检测结果时,增大t1,使得可变占比图像生成器输出的目标数据是将输入数据缩小到原来的
Figure FDA0003133653330000012
倍。
5.根据权利要求2所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,特征提取网络包括五个残差单元;
可变占比图像生成器的输出数据Fout(x,y)0<x,y<t经过五个残差单元的五次下采样运算获取小特征图预测所需的特征图f1;
f1经过多尺度池化层和上采样,然后与中浅特征层四次下采样的结果进行拼接,获得中特征图预测所需的特征图f2;
f2经过多尺度池化层和上采样,然后与浅特征层四次下采样的结果进行拼接,获得大特征图预测所需的特征图f3。
6.根据权利要求5所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述多尺度特征生成器产生三个尺度特征图的具体方法包括:
将提取的特征经过多尺度特征池化模块,捕捉不同尺度的特征,然后将不同尺度的特征经过多尺度特征融合;
多尺度特征包括:
将大特征图预测所需的特征图f3的特征经过下采样后与中特征图预测所需的特征图f2进行融合,获得中特征图,
将中特征图预测所需的特征图f2的特征经过下采样后与小特征图预测所需的特征图f1进行融合,获得小特征图,
大特征图预测所需的特征图f3的特征不变,获得大特征图。
7.根据权利要求6所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述小特征图的大小为13*13,中特征图的大小为26*26,大特征图的大小为52*52。
8.根据权利要求6所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述多尺度特征池化模块包括四个不同大小的池化结构,能够捕捉四个不同尺度的特征,四个不同大小池化结构的最大池化结构max_pooli表示i*i最大池化,此处i=1,5,9,13。
9.根据权利要求8所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述多尺度特征池化模块的函数表达式为:
FMSP_out=concat(max_pool1(FMSP_in),max_pool5(FMSP_in),max_pool9(FMSP_in),max_pool13(FMSP_in))
其中,FMSP_in表示多尺度特征池化模块的输入特征,FMSP_out表示多尺度特征池化模块的输出特征,concat表示对特征张量进行拼接。
10.根据权利要求6所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,多尺度预测框对三个尺度的特征图分别生成预测框的具体方法包括:
多尺度预测框在每个尺度的特征图的每个网格上设置三个先验框,获得预测值,每个预测值是(4+1+n)维向量,4表示位置信息,1表示边框置信度,n表示n类目标的概率,n类目标是数据集中包含的目标类别;
对预测值与人工标注框计算交并比,保留交并比大于阈值的预测值,如交并比均小于阈值,则保留边框置信度排序为前三位的预测值;
对保留的预测值进行非极大值抑制,去除重叠大于阈值的边框,获得预测框。
CN202110712902.8A 2021-06-25 2021-06-25 基于多尺度特征融合的自适应可变占比目标检测方法 Pending CN113313118A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110712902.8A CN113313118A (zh) 2021-06-25 2021-06-25 基于多尺度特征融合的自适应可变占比目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110712902.8A CN113313118A (zh) 2021-06-25 2021-06-25 基于多尺度特征融合的自适应可变占比目标检测方法

Publications (1)

Publication Number Publication Date
CN113313118A true CN113313118A (zh) 2021-08-27

Family

ID=77380424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110712902.8A Pending CN113313118A (zh) 2021-06-25 2021-06-25 基于多尺度特征融合的自适应可变占比目标检测方法

Country Status (1)

Country Link
CN (1) CN113313118A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869298A (zh) * 2021-09-23 2021-12-31 杭州网易云音乐科技有限公司 一种对象检测方法、装置、介质和电子设备
CN115272814A (zh) * 2022-09-28 2022-11-01 南昌工学院 一种远距离空间自适应多尺度的小目标检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985217A (zh) * 2018-07-10 2018-12-11 常州大学 一种基于深度空间网络的交通标志识别方法及系统
CN111191667A (zh) * 2018-11-15 2020-05-22 天津大学青岛海洋技术研究院 基于多尺度生成对抗网络的人群计数方法
CN112183203A (zh) * 2020-08-26 2021-01-05 北京工业大学 一种基于多尺度像素特征融合的实时交通标志检测方法
CN112801183A (zh) * 2021-01-28 2021-05-14 哈尔滨理工大学 一种基于YOLO v3的多尺度目标检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985217A (zh) * 2018-07-10 2018-12-11 常州大学 一种基于深度空间网络的交通标志识别方法及系统
CN111191667A (zh) * 2018-11-15 2020-05-22 天津大学青岛海洋技术研究院 基于多尺度生成对抗网络的人群计数方法
CN112183203A (zh) * 2020-08-26 2021-01-05 北京工业大学 一种基于多尺度像素特征融合的实时交通标志检测方法
CN112801183A (zh) * 2021-01-28 2021-05-14 哈尔滨理工大学 一种基于YOLO v3的多尺度目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
赵春晖: "基于改进YOLOv3的工业安监目标检测算法", 《沈阳大学学报(自然科学版)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113869298A (zh) * 2021-09-23 2021-12-31 杭州网易云音乐科技有限公司 一种对象检测方法、装置、介质和电子设备
CN115272814A (zh) * 2022-09-28 2022-11-01 南昌工学院 一种远距离空间自适应多尺度的小目标检测方法
CN115272814B (zh) * 2022-09-28 2022-12-27 南昌工学院 一种远距离空间自适应多尺度的小目标检测方法

Similar Documents

Publication Publication Date Title
CN109299274B (zh) 一种基于全卷积神经网络的自然场景文本检测方法
CN110263706B (zh) 一种雾霾天气车载视频动态目标检测和识别的方法
CN109145798B (zh) 一种驾驶场景目标识别与可行驶区域分割集成方法
CN111524135A (zh) 基于图像增强的输电线路细小金具缺陷检测方法及系统
CN110610509B (zh) 可指定类别的优化抠图方法及系统
CN107067015B (zh) 一种基于多特征深度学习的车辆检测方法及装置
CN111931857B (zh) 一种基于mscff的低照度目标检测方法
CN111681273A (zh) 图像分割方法、装置、电子设备及可读存储介质
CN107273870A (zh) 一种监控场景下融合上下文信息的行人位置检测方法
CN113762409A (zh) 一种基于事件相机的无人机目标检测方法
CN110807384A (zh) 低能见度下的小目标检测方法和系统
CN111582074A (zh) 一种基于场景深度信息感知的监控视频树叶遮挡检测方法
CN113870236B (zh) 一种基于深度学习算法的复合材料缺陷无损探伤方法
CN112446292B (zh) 一种2d图像显著目标检测方法及系统
CN111815528A (zh) 基于卷积模型和特征融合的恶劣天气图像分类增强方法
CN114220126A (zh) 一种目标检测系统及获取方法
CN113095358A (zh) 一种图像融合方法及系统
Alkhorshid et al. Road detection through supervised classification
CN116258940A (zh) 一种多尺度特征及自适应权重的小目标检测方法
CN116246059A (zh) 一种基于改进的yolo多尺度检测的车辆目标识别方法
CN115147826A (zh) 汽车电子后视镜的图像处理系统及方法
Zuo et al. Accurate depth estimation from a hybrid event-RGB stereo setup
Meenu et al. Evolution of new integrated haze removal algorithm based on haze line
CN113313118A (zh) 基于多尺度特征融合的自适应可变占比目标检测方法
CN117409244A (zh) 一种SCKConv多尺度特征融合增强的低照度小目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination