CN113313118A - 基于多尺度特征融合的自适应可变占比目标检测方法 - Google Patents
基于多尺度特征融合的自适应可变占比目标检测方法 Download PDFInfo
- Publication number
- CN113313118A CN113313118A CN202110712902.8A CN202110712902A CN113313118A CN 113313118 A CN113313118 A CN 113313118A CN 202110712902 A CN202110712902 A CN 202110712902A CN 113313118 A CN113313118 A CN 113313118A
- Authority
- CN
- China
- Prior art keywords
- feature
- scale
- feature map
- target
- prediction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 46
- 230000004927 fusion Effects 0.000 title claims abstract description 21
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000000034 method Methods 0.000 claims abstract description 14
- 230000003044 adaptive effect Effects 0.000 claims abstract description 11
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000011176 pooling Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 3
- 230000001629 suppression Effects 0.000 claims description 3
- 230000000717 retained effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 7
- 230000008569 process Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
基于多尺度特征融合的自适应可变占比目标检测方法,属于目标检测技术领域,本发明为解决待测目标是小目标情况下,小目标在特征图上尺寸过小,学习过程中易被大目标主导,导致小目标检测效果较差的问题。它包括:可变占比图像生成器将原始数据生成不同大小的目标数据,然后将目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。本发明用于目标检测,尤其适用于小目标的目标检测。
Description
技术领域
本发明涉及一种自适应可变占比目标检测方法,属于目标检测技术领域。
背景技术
目标检测也称为目标提取,是在图像中定位并分类出感兴趣的目标的方法。在实际应用环境中,由于相机成像存在远小近大的特点,因此,当出现场景较为复杂、待检测目标尺度大小差异较大、待检测目标为小目标等问题时,现有的算法很难满足实际需要。
针对待检测目标为小目标的情况,由于小目标在图像中尺寸比较小,在通用目标检测模型中,一般的基础骨干神经网都有下采样过程,导致原本较小的目标在特征图上的尺寸更加小,这会导致设计的分类器的效果较差,另外由于小目标特征的感受野映射回原图将可能远远大于实际尺寸,造成检测效果差。此外,由于实际的数据中可能存在小目标样本较少,导致神经网络在学习的过程中被大目标主导,导致小目标的检测效果很差。
发明内容
本发明目的是为了解决待测目标是小目标的情况下,小目标在特征图上的尺寸过小,以及学习过程中易被大目标主导,导致小目标的检测效果较差的问题,提供了一种基于多尺度特征融合的自适应可变占比目标检测方法。
本发明所述基于多尺度特征融合的自适应可变占比目标检测方法,它基于Yolo算法框架实现;该目标检测方法包括:
可变占比图像生成器、特征提取网络、多尺度特征生成器和多尺度预测框;
可变占比图像生成器将原始数据生成不同大小的目标数据,然后将不同大小的目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。
优选的,可变占比图像生成器输入的原始数据为:
Fimgin(x,y)|0<x,y<t;
将原始数据平移得到:Fimgin(x,y)|t1<x,y<t+t1;
其中,t1表示填充的黑色边带的宽度,受多尺度损失反馈调节,填充后的图片函数为:
Fimgout(x,y)|υ=0<x,y<t+2*t1=Fimgin(x,y)|ω=t1<x,y<t+t1+(0,0,0)|υ-ω;
其中,(0,0,0)|α为在α区域填充黑色;α表示以距离原图像t1的直线为边界的内侧区域,ω表示填充前的定义域边界,υ表示填充后的定义域边界,
输出的目标数据为:
Fout(x,y)0<x,y<t=Fimgout(x/[(t+2*t1)/t],y/[(t+2*t1)/t])|υ=0<x<t+2*t1;
(x,y)表示二维平面上点的位置。
优选的,该目标检测方法还包括:损失函数计算模块和多尺度损失判别器;
损失函数计算模块分别对三个尺度的特征图计算损失函数,多尺度损失判别器根据损失函数的大小调节可变占比图像生成器的填充区域,当小特征图无法获得目标检测结果时,增大t1,使得可变占比图像生成器输出的目标数据是将输入数据缩小到原来的倍。
优选的,特征提取网络包括五个残差单元;
可变占比图像生成器的输出数据Fout(x,y)0<x,y<t经过五个残差单元的五次下采样运算获取小特征图预测所需的特征图f1;
f1经过多尺度池化层和上采样,然后与中浅特征层四次下采样的结果进行拼接,获得中特征图预测所需的特征图f2;
f2经过多尺度池化层和上采样,然后与浅特征层四次下采样的结果进行拼接,获得大特征图预测所需的特征图f3。
优选的,所述多尺度特征生成器产生三个尺度特征图的具体方法包括:
将提取的特征经过多尺度特征池化模块,捕捉不同尺度的特征,然后将不同尺度的特征经过多尺度特征融合;
多尺度特征包括:
将大特征图预测所需的特征图f3的特征经过下采样后与中特征图预测所需的特征图f2进行融合,获得中特征图,
将中特征图预测所需的特征图f2的特征经过下采样后与小特征图预测所需的特征图f1进行融合,获得小特征图,
大特征图预测所需的特征图f3的特征不变,获得大特征图。
优选的,所述小特征图的大小为13*13,中特征图的大小为26*26,大特征图的大小为52*52。
优选的,所述多尺度特征池化模块包括四个不同大小的池化结构,能够捕捉四个不同尺度的特征,四个不同大小池化结构的最大池化结构max_pooli表示i*i最大池化,此处i=1,5,9,13。
优选的,所述多尺度特征池化模块的函数表达式为:
FMSP_out=concat(max_pool1(FMSP_in),max_pool5(FMSP_in),
max_pool9(FMSP_in),max_pool13(FMSP_in))
其中,FMSP_in表示多尺度特征池化模块的输入特征,FMSP_out表示多尺度特征池化模块的输出特征,concat表示对特征张量进行拼接。
优选的,多尺度预测框对三个尺度的特征图分别生成预测框的具体方法包括:
多尺度预测框在每个尺度的特征图的每个网格上设置三个先验框,获得预测值,每个预测值是(4+1+n)维向量,4表示位置信息,1表示边框置信度,n表示n类目标的概率,n类目标是数据集中包含的目标类别;
对预测值与人工标注框计算交并比,保留交并比大于阈值的预测值,如交并比均小于阈值,则保留边框置信度排序为前三位的预测值;
对保留的预测值进行非极大值抑制,去除重叠大于阈值的边框,获得预测框。本发明的优点:本发明提出的基于多尺度特征融合的自适应可变占比目标检测方法利用对三个尺度的损失的大小来反馈调节图像可变占比算法,从而能够改善算法对检测效果较差尺度的检测能力,而且由于会产生小目标样本,可以提高小目标的检测精度,能够提高算法的对不同大小目标的鲁棒性。
附图说明
图1是本发明所述基于多尺度特征融合的自适应可变占比目标检测方法的原理框图;
图2是本发明所述多尺度特征池化模块的原理框图;
图3是本发明所述多尺度特征生成器产生三个尺度特征图的原理框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
具体实施方式一:下面结合图1说明本实施方式,本实施方式所述基于多尺度特征融合的自适应可变占比目标检测方法,它基于Yolo算法框架实现;该目标检测方法包括:
可变占比图像生成器、特征提取网络、多尺度特征生成器和多尺度预测框;
可变占比图像生成器将原始数据生成不同大小的目标数据,然后将不同大小的目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。
具体实施方式二:本实施方式对实施方式一作进一步说明,可可变占比图像生成器输入的原始数据为:
Fimgin(x,y)|0<x,y<t;
将原始数据平移得到:Fimgin(x,y)|t1<x,y<t+t1;
其中,t1表示填充的黑色边带的宽度,受多尺度损失反馈调节,填充后的图片函数为:
Fimgout(x,y)|υ=0<x,y<t+2*t1=Fimgin(x,y)|ω=t1<x,y<t+t1+(0,0,0)|υ-ω;
其中,(0,0,0)|α为在α区域填充黑色;α表示以距离原图像t1的直线为边界的内侧区域,ω表示填充前的定义域边界,υ表示填充后的定义域边界,
输出的目标数据为:
Fout(x,y)0<x,y<t=Fimgout(x/[(t+2*t1)/t],y/[(t+2*t1)/t])|υ=0<x<t+2*t1;
(x,y)表示二维平面上点的位置。
本实施方式中,(x,y)表示二维平面上点的位置,F(x,y)表示图像的二维离散表示函数,对应点的函数值是这一位置的亮度值。
本实施方式中,针对两个数据集中小目比较多的特点,以及原始存在的数据增强对小目标并没有较好的改善作用,因此在训练阶段应用目标可变占比数据增强算法改善对小目标的精度。该数据增强的原理是随机的在训练数据图像的四周填充黑色边带,然后将填充后的图像进行resize使得与要求大小一致,其结果发生了改变,首先目标的位置发生了改变,其次,目标占图像大小的百分比变小,即生成了更多的小目标,目标尺寸缩小到原来的倍,当数据经过算法之后输入到神经网络,神经网络学习更多的小目标,从而提高神经网络对小目标检测的精度。由缩小比例可知,当t1越小,则生成的目标越小,利用损失反馈回来的信息来调节t1,从而提高算法对不同尺度的目标的检测能力。
具体实施方式四:下面结合图1说明本实施方式,本实施方式对实施方式三作进一步说明,该目标检测方法还包括:损失函数计算模块和多尺度损失判别器;
损失函数计算模块分别对三个尺度的特征图计算损失函数,多尺度损失判别器根据损失函数的大小调节可变占比图像生成器的填充区域,当小特征图无法获得目标检测结果时,增大t1,使得可变占比图像生成器输出的目标数据是将输入数据缩小到原来的倍。
本实施方式中,损失函数(loss)是深度学习分类回归任务的优化目标,是衡量预测结果和目标差异的指标。
具体实施方式五:本实施方式对实施方式二作进一步说明,特征提取网络包括五个残差单元;
可变占比图像生成器的输出数据Fout(x,y)0<x,y<t经过五个残差单元的五次下采样运算获取小特征图预测所需的特征图f1;
f1经过多尺度池化层和上采样,然后与中浅特征层四次下采样的结果进行拼接,获得中特征图预测所需的特征图f2;
f2经过多尺度池化层和上采样,然后与浅特征层四次下采样的结果进行拼接,获得大特征图预测所需的特征图f3。
具体实施方式六:下面结合图3说明本实施方式,本实施方式对实施方式五作进一步说明,所述多尺度特征生成器产生三个尺度特征图的具体方法包括:
将提取的特征经过多尺度特征池化模块,捕捉不同尺度的特征,然后将不同尺度的特征经过多尺度特征融合;
多尺度特征包括:
将大特征图预测所需的特征图f3的特征经过下采样后与中特征图预测所需的特征图f2进行融合,获得中特征图,
将中特征图预测所需的特征图f2的特征经过下采样后与小特征图预测所需的特征图f1进行融合,获得小特征图,
大特征图预测所需的特征图f3的特征不变,获得大特征图。
本实施方式中,将特征通过不同的最大池化后进行拼接,由于把一个feature map从不同的尺度进行特征提取,再聚合的特点,能够捕捉不同尺度下的特征,提高了算法对不同尺度目标的敏感度,进而提高算法的鲁棒性。此外,该模块能够扩大神经网络的感受野,而更大感受野往往能够使得网络能够学习到更好的特征。
本实施方式中,原始的算法由backbone输出大小为13*13特征,13*13的特征经过上采样后与Res8输出的特征进行拼接进而得到26*26的特征图,同理得到52*52的特征图,最后在三个特征图上进行预测,在13*13的特征图上,具有较大的感受野,更利于检测到较大的目标,而在52*52的特征图上,由于特征图较大,感受野较小,对小目标较敏感。但较小特征图忽略了较大特征图中的浅层特征和包含的其它尺度目标的信息。本文提出了多尺度特征融合,如图3所示,利用将较大特征图的特征经过下采样之后与较小特征图进行融合,使得三个尺度上的特征都能够保留深浅层特征和特征尺度多样性,从而改善特征的表征能力,提高小目标检测的精度和复杂场景的鲁棒性。
具体实施方式七:本实施方式对实施方式六作进一步说明,所述小特征图的大小为13*13,中特征图的大小为26*26,大特征图的大小为52*52。
具体实施方式八:本实施方式对实施方式六作进一步说明,所述多尺度特征池化模块包括四个不同大小的池化结构,能够捕捉四个不同尺度的特征,四个不同大小池化结构的最大池化结构max_pooli表示i*i最大池化,此处i=1,5,9,13。
本实施方式中,采用四个不同大小的池化结构,能够捕捉不同尺度的有效特征,能够使得提取的特征的鲁棒性更好。
具体实施方式九:下面结合图2说明本实施方式,本实施方式对实施方式八作进一步说明,所述多尺度特征池化模块的函数表达式为:
FMSP_out=concat(max_pool1(FMSP_in),max_pool5(FMSP_in),
max_pool9(FMSP_in),max_pool13(FMSP_in))
其中,FMSP_in表示多尺度特征池化模块的输入特征,FMSP_out表示多尺度特征池化模块的输出特征,concat表示对特征张量进行拼接。
具体实施方式十:本实施方式对实施方式六作进一步说明,多尺度预测框对三个尺度的特征图分别生成预测框的具体方法包括:
多尺度预测框在每个尺度的特征图的每个网格上设置三个先验框,获得预测值,每个预测值是(4+1+n)维向量,4表示位置信息,1表示边框置信度,n表示n类目标的概率,n类目标是数据集中包含的目标类别;
对预测值与人工标注框计算交并比,保留交并比大于阈值的预测值,如交并比均小于阈值,则保留边框置信度排序为前三位的预测值;
对保留的预测值进行非极大值抑制,去除重叠大于阈值的边框,获得预测框。
本实施方式中,n类目标是数据集中包含的目标类别,例如coco数据集中有交通工具等80类目标,在使用coco数据集时n的值即为80。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的精神和范围。应该理解的是,可以通过不同于原始权利要求所描述的方式来结合不同的从属权利要求和本文中所述的特征。还可以理解的是,结合单独实施例所描述的特征可以使用在其他所述实施例中。
Claims (10)
1.基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,它基于Yolo算法框架实现;该目标检测方法包括:
可变占比图像生成器、特征提取网络、多尺度特征生成器和多尺度预测框;
可变占比图像生成器将原始数据生成不同大小的目标数据,然后将不同大小的目标数据输送至特征提取网络,特征提取网络对特征进行提取,然后将提取的特征输送至多尺度特征生成器,多尺度特征生成器产生三个尺度的特征图,所述三个尺度特征图包括小特征图、中特征图和大特征图,将三个尺度的特征图输送至多尺度预测框中,多尺度预测框对三个尺度的特征图分别生成预测框,预测框内即为目标检测结果。
2.根据权利要求1所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,可变占比图像生成器输入的原始数据为:
Fimgin(x,y)|0<x,y<t;
将原始数据平移得到:Fimgin(x,y)|t1<x,y<t+t1;
其中,t1表示填充的黑色边带的宽度,受多尺度损失反馈调节,填充后的图片函数为:
Fimgout(x,y)|υ=0<x,y<t+2*t1=Fimgin(x,y)|ω=t1<x,y<t+t1+(0,0,0)|υ-ω;
其中,(0,0,0)|α为在α区域填充黑色;α表示以距离原图像t1的直线为边界的内侧区域,ω表示填充前的定义域边界,υ表示填充后的定义域边界,
输出的目标数据为:
Fout(x,y)0<x,y<t=Fimgout(x/[(t+2*t1)/t],y/[(t+2*t1)/t])|υ=0<x<t+2*t1;
(x,y)表示二维平面上点的位置。
5.根据权利要求2所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,特征提取网络包括五个残差单元;
可变占比图像生成器的输出数据Fout(x,y)0<x,y<t经过五个残差单元的五次下采样运算获取小特征图预测所需的特征图f1;
f1经过多尺度池化层和上采样,然后与中浅特征层四次下采样的结果进行拼接,获得中特征图预测所需的特征图f2;
f2经过多尺度池化层和上采样,然后与浅特征层四次下采样的结果进行拼接,获得大特征图预测所需的特征图f3。
6.根据权利要求5所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述多尺度特征生成器产生三个尺度特征图的具体方法包括:
将提取的特征经过多尺度特征池化模块,捕捉不同尺度的特征,然后将不同尺度的特征经过多尺度特征融合;
多尺度特征包括:
将大特征图预测所需的特征图f3的特征经过下采样后与中特征图预测所需的特征图f2进行融合,获得中特征图,
将中特征图预测所需的特征图f2的特征经过下采样后与小特征图预测所需的特征图f1进行融合,获得小特征图,
大特征图预测所需的特征图f3的特征不变,获得大特征图。
7.根据权利要求6所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述小特征图的大小为13*13,中特征图的大小为26*26,大特征图的大小为52*52。
8.根据权利要求6所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述多尺度特征池化模块包括四个不同大小的池化结构,能够捕捉四个不同尺度的特征,四个不同大小池化结构的最大池化结构max_pooli表示i*i最大池化,此处i=1,5,9,13。
9.根据权利要求8所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,所述多尺度特征池化模块的函数表达式为:
FMSP_out=concat(max_pool1(FMSP_in),max_pool5(FMSP_in),max_pool9(FMSP_in),max_pool13(FMSP_in))
其中,FMSP_in表示多尺度特征池化模块的输入特征,FMSP_out表示多尺度特征池化模块的输出特征,concat表示对特征张量进行拼接。
10.根据权利要求6所述的基于多尺度特征融合的自适应可变占比目标检测方法,其特征在于,多尺度预测框对三个尺度的特征图分别生成预测框的具体方法包括:
多尺度预测框在每个尺度的特征图的每个网格上设置三个先验框,获得预测值,每个预测值是(4+1+n)维向量,4表示位置信息,1表示边框置信度,n表示n类目标的概率,n类目标是数据集中包含的目标类别;
对预测值与人工标注框计算交并比,保留交并比大于阈值的预测值,如交并比均小于阈值,则保留边框置信度排序为前三位的预测值;
对保留的预测值进行非极大值抑制,去除重叠大于阈值的边框,获得预测框。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110712902.8A CN113313118A (zh) | 2021-06-25 | 2021-06-25 | 基于多尺度特征融合的自适应可变占比目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110712902.8A CN113313118A (zh) | 2021-06-25 | 2021-06-25 | 基于多尺度特征融合的自适应可变占比目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113313118A true CN113313118A (zh) | 2021-08-27 |
Family
ID=77380424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110712902.8A Pending CN113313118A (zh) | 2021-06-25 | 2021-06-25 | 基于多尺度特征融合的自适应可变占比目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113313118A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869298A (zh) * | 2021-09-23 | 2021-12-31 | 杭州网易云音乐科技有限公司 | 一种对象检测方法、装置、介质和电子设备 |
CN115272814A (zh) * | 2022-09-28 | 2022-11-01 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985217A (zh) * | 2018-07-10 | 2018-12-11 | 常州大学 | 一种基于深度空间网络的交通标志识别方法及系统 |
CN111191667A (zh) * | 2018-11-15 | 2020-05-22 | 天津大学青岛海洋技术研究院 | 基于多尺度生成对抗网络的人群计数方法 |
CN112183203A (zh) * | 2020-08-26 | 2021-01-05 | 北京工业大学 | 一种基于多尺度像素特征融合的实时交通标志检测方法 |
CN112801183A (zh) * | 2021-01-28 | 2021-05-14 | 哈尔滨理工大学 | 一种基于YOLO v3的多尺度目标检测方法 |
-
2021
- 2021-06-25 CN CN202110712902.8A patent/CN113313118A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985217A (zh) * | 2018-07-10 | 2018-12-11 | 常州大学 | 一种基于深度空间网络的交通标志识别方法及系统 |
CN111191667A (zh) * | 2018-11-15 | 2020-05-22 | 天津大学青岛海洋技术研究院 | 基于多尺度生成对抗网络的人群计数方法 |
CN112183203A (zh) * | 2020-08-26 | 2021-01-05 | 北京工业大学 | 一种基于多尺度像素特征融合的实时交通标志检测方法 |
CN112801183A (zh) * | 2021-01-28 | 2021-05-14 | 哈尔滨理工大学 | 一种基于YOLO v3的多尺度目标检测方法 |
Non-Patent Citations (1)
Title |
---|
赵春晖: "基于改进YOLOv3的工业安监目标检测算法", 《沈阳大学学报(自然科学版)》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113869298A (zh) * | 2021-09-23 | 2021-12-31 | 杭州网易云音乐科技有限公司 | 一种对象检测方法、装置、介质和电子设备 |
CN115272814A (zh) * | 2022-09-28 | 2022-11-01 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN115272814B (zh) * | 2022-09-28 | 2022-12-27 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Deep network-enabled haze visibility enhancement for visual IoT-driven intelligent transportation systems | |
CN110263706B (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN109145798B (zh) | 一种驾驶场景目标识别与可行驶区域分割集成方法 | |
WO2017096758A1 (zh) | 图像分类方法、电子设备和存储介质 | |
US11393100B2 (en) | Automatically generating a trimap segmentation for a digital image by utilizing a trimap generation neural network | |
CN108460764A (zh) | 基于自动上下文和数据增强的超声图像智能分割方法 | |
CN107067015B (zh) | 一种基于多特征深度学习的车辆检测方法及装置 | |
CN111931857B (zh) | 一种基于mscff的低照度目标检测方法 | |
CN110969171A (zh) | 基于改进卷积神经网络的图像分类模型、方法及应用 | |
CN111695633A (zh) | 基于rpf-cam的低照度目标检测方法 | |
CN112699885B (zh) | 一种基于对抗生成网络gan的语义分割训练数据增广方法和系统 | |
CN103747240A (zh) | 融合颜色和运动信息的视觉显著性滤波方法 | |
CN115690542A (zh) | 一种基于改进yolov5的航拍绝缘子定向识别方法 | |
CN113313118A (zh) | 基于多尺度特征融合的自适应可变占比目标检测方法 | |
WO2020043296A1 (en) | Device and method for separating a picture into foreground and background using deep learning | |
CN115019274A (zh) | 一种融合追踪与检索算法的路面病害识别方法 | |
CN116468793A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
Zuo et al. | Accurate depth estimation from a hybrid event-RGB stereo setup | |
CN111814773A (zh) | 一种划线车位识别方法及系统 | |
CN108537815A (zh) | 一种视频图像前景分割方法和装置 | |
CN111598841A (zh) | 基于正则化稠密连接特征金字塔的实例显著性检测方法 | |
CN108364273B (zh) | 一种空间域下的多聚焦图像融合的方法 | |
CN117593702A (zh) | 远程监控方法、装置、设备及存储介质 | |
CN117409244A (zh) | 一种SCKConv多尺度特征融合增强的低照度小目标检测方法 | |
CN116777788A (zh) | 一种基于图像融合特征学习重建的遥感影像云去除方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |