CN110084124B - 基于特征金字塔网络的特征增强目标检测方法 - Google Patents
基于特征金字塔网络的特征增强目标检测方法 Download PDFInfo
- Publication number
- CN110084124B CN110084124B CN201910242976.2A CN201910242976A CN110084124B CN 110084124 B CN110084124 B CN 110084124B CN 201910242976 A CN201910242976 A CN 201910242976A CN 110084124 B CN110084124 B CN 110084124B
- Authority
- CN
- China
- Prior art keywords
- feature
- layer
- features
- network
- pyramid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公布了一种基于特征金字塔网络的图像目标检测方法,在送入目标检测器之前采用的骨干网络模型中增加自顶向下模块TDM、自底向上模块BUM和融合扩展模块FEM,从而形成新型的增强特征金字塔网络eFPN,能够同时增强对小尺寸物体、大尺寸物体和中等尺寸物体的检测性能,只引入很少的参数和计算量,更好地解决目标检测过程中多尺度目标的问题,显著增强单阶段网络和双阶段网络的性能,由此提高图像中多尺度目标物体的检测性能。
Description
技术领域
本发明属于目标检测技术领域,涉及计算机视觉与深度学习技术,尤其涉及一种基于金字塔网络结构的特征增强金字塔网络(eFPN:enriched feature pyramid network)的目标检测方法。
背景技术
目标检测是计算机视觉领域中的基本任务之一,它在现实生活中有着非常广泛的应用,如视频监控、自动驾驶等。近年来,随着深度学习领域的快速发展,目标检测算法获得了很大的进展。
目前,基于深度学习的目标检测算法可以分为两种类型,一类是单阶段检测器,例如SSD(SSD:Single Shot MultiBox Detector),RetinaNet(Focal Loss for DenseObject Detection)。另一类是双阶段检测器,例如Faster R-CNN(Faster R-CNN:TowardsReal-Time Object Detection with Region Proposal Networks),FPN(Feature PyramidNetworks for Object Detection),MaskR-CNN,Cascade R-CNN(Cascade R-CNN:Delvinginto High Quality Object Detection)等。
然而,上述目标检测算法对神经网络各层特征的利用都较为不充分,在网络中丢失了不少有效的信息。在神经网络中,顶层的特征虽然语义信息较丰富,但目标位置信息较粗略;而底层的特征语义信息比较少,但目标位置准确。对于大尺寸对象而言,顶层的特征更加适合于用以检测;而对于小尺寸对象而言,底层特征则更加优越。传统的目标检测算法无法很好地在各层特征间进行取舍,因此容易受到图像中多尺度对象的影响,图像目标检测的准确性和精度均受限。
发明内容
为了克服上述现有技术的不足,本发明提供一种基于特征金字塔网络的特征增强目标检测方法,能够更有效地解决图像目标检测过程中多尺度目标的问题,且显著增强单阶段网络检测图像和双阶段网络检测图像目标的性能。
本发明方法在现有传统的骨干网络模型中增加了TDM(top-down module自顶向下模块)、BUM(bottom-up module自底向上模块)、FEM(fuse-extend module融合扩展模块)。
TDM(自顶向下模块),结构如图2所示,在骨干网络逐级提取到各层特征后,对最顶层特征进行全局平均池化,并进行上采样后与骨干网络顶层特征相加并通过1×1卷积得到TDM的顶层强化特征,之后依次进行上采样后与骨干网络对应层相加的操作,直至得到TDM强化特征金字塔;BUM(自底向上模块),结构如图3所示,在骨干网络逐级提取到各层特征后,将第二层特征进行上采样后与骨干神经网络底层特征相加后1×1卷积生成BUM的底层强化特征,之后BUM模块的每一层特征均由骨干网络中的对应层、对应层的上层上采样结果以及下层强化特征降采样结果相加后1×1卷积生成,直至得到BUM多尺度特征金字塔;FEM(融合扩展模块),结构如图4所示,该模块执行步骤主要分为两部分,将骨干网络特征金字塔分为两部分:顶层特征与底层特征,首先将两部分分别进行融合得到两层特征(将两部分中的特征上采样或降采样至同等大小后相加并通过1×1卷积生成),然后将这两层特征进行扩展,重新生成相应尺寸的FEM多尺度增强特征金字塔(将两部分分别上采样或降采样至另一部分的大小后进行连接操作,之后可以通过上采样与降采样得到不同大小的特征,从而形成特征金字塔)。
这三种模块的优势分别是识别小尺寸物体、大尺寸物体和中等尺寸物体。为了同时继承这些优势,本发明将上述三种模块有机结合,使得网络能够同时增强对小尺寸物体、大尺寸物体和中等尺寸物体的检测性能。并由此我们提出了新型的增强特征金字塔网络(eFPN),使得神经网络对大、中、小尺度物体的检测性能均获得提高,并且只引入很少的参数和计算量,从而更好地解决目标检测过程中多尺度目标的问题,并且通过在MS-COCO数据集上充分的对比实验证实,本发明的eFPN能显著增强单阶段网络和双阶段网络的性能,普遍提高mAP性能指标1%-2%。
本发明的技术方案是:
一种基于特征金字塔网络的目标检测方法,在传统的骨干网络模型中增加了TDM(自顶向下模块)、BUM(自底向上模块)、FEM(融合扩展模块),并可以很方便地整合到传统的目标检测器(单阶段检测器与双阶段检测器),从而形成了新型的增强特征金字塔网络(eFPN),提高图像中多尺度目标物体的检测性能。包括如下步骤:
1)建立基于深度学习的骨干网络。
骨干网络可以选择现有的多种结构的基于深度学习的神经网络,可以是ResNet(残差网络)或ResNeXt(多支路的残差网络)等;
将骨干网络在ImageNet的分类数据集上进行预训练;
2)将待检测图像送入步骤1)建立的基于深度学习的骨干网络提取特征,得到各层特征,按照自顶向下的顺序,特征图的尺寸是上一层特征图的两倍,并且特征通道数依次是2048,1024,512,256。对得到的所有特征图都进行1×1卷积操作,将得到的特征通道数统一转换成256,此时得到的特征即为接下来三种模块所需要输入的特征;
3)在步骤1)、2)建立的基于深度学习的金字塔特征网络模型中增加TDM(自顶向下模块)、BUM(自底向上模块)、FEM(融合扩展模块):
3.1)建立TDM(自顶向下模块),具体执行如下操作:
3.1.1)在通过步骤2)得到各层特征后,对最顶层的特征先进行3×3的卷积操作,将特征通道数从2048维降到256维,再全局平均池化至1×1的分辨率,最后上采样成最顶层特征的分辨率;
3.1.2)然后,将步骤2)中最顶层的特征与步骤3.1.1)得到的特征相加;
3.1.3)最后按照自顶向下的顺序,逐个对步骤2)和步骤3.1.2)得到的金字塔特征图进行2倍上采样操作,上采样得到的特征图尺寸与下一层特征图尺寸相同,然后将上采样得到的特征图与下一层相同尺寸的特征图进行相加操作。按照该顺序进行递归操作,即可得到TDM自顶向下结构的特征金字塔。
3.2)建立FEM(融合扩展模块),具体执行如下操作:
3.2.1)在通过步骤2)得到各层特征后,将最顶层的特征尺寸上采样为原来的两倍,与第二层的特征做加法操作,再将最底层的特征降采样为原来的两倍,与上一层的特征做加法操作。通过这两步操作,得到了两种通道数都是256的不同尺寸的特征。
3.2.2)然后将小尺寸的特征上采样为原来的两倍与大尺寸特征做连接操作,将大尺寸特征降采样为原来的一半与小尺寸特征做连接操作,得到了两种通道数都是512的不同尺寸的特征。
3.2.3)最后将3.2.2)中得到的两种尺寸的特征卷积成256通道的特征。为了得到4种与步骤2)中相同尺寸的特征,我们将得到的小尺寸特征降采样成一半,大尺寸特征上采样成两倍,得到了4种特征。再对这四种特征与步骤2)中相同尺寸的特征做加法操作,形成残差连接,即可得到FEM的融合扩展结构的多尺度特征金字塔。
3.3)建立BUM(自底向上模块),具体执行如下操作:
3.3.1)在通过步骤2)得到各层特征后,把倒数第二层的特征上采样为原来的两倍,与最底层的特征相加得到特征F1,F1表示得到的BUM的金字塔特征中的最大层,F2,F3等依次减小;
3.3.2)将特征F1降采样为原来的一半,第二层上采样为原来的两倍,与第三层的特征相加得到特征F2。将F2降采样为原来的一半,最顶层上采样为原来的两倍,与第二层的特征相加得到F3;
3.3.4)将F3降采样为原来的一半,与最顶层相加,得到F4。
3.3.4)最后对F1,F2,F3,F4做1×1卷积操作并且不改变特征的尺寸,即可得到
BUM自底向上结构的特征金字塔。
4)对三个模块得到的特征金字塔(TDM自顶向下结构的特征金字塔、FEM融合扩展结构的特征金字塔、BUM自底向上结构的特征金字塔)相同尺寸的对应层特征进行按通道方向做连接(concatenation)操作,并分别送入目标检测器中,如MaskR-CNN,RetinaNet等。
上述通用物体的检测方法可广泛应用于视频监控、自动驾驶等实际应用的检测器中,同时提升多尺度目标检测的准确性与精度,避免出现某一尺度目标难以被检测的弊端。
与现有技术相比,本发明的有益效果是:
本发明提供一种基于特征金字塔网络的特征增强目标检测方法,在传统的骨干网络模型中增加了TDM(自顶向下模块)、BUM(自底向上模块)、FEM(融合扩展模块),能够同时提升网络对小尺寸、中尺寸和大尺寸物体的检测性能,并且只引入少量的参数和计算量。同时,作为对传统的特征金字塔模型的特征强化版,可以很方便的融合到现有的单阶段和双阶段目标检测模型里,具有普适性与高效性。
在MS-COCO目标检测数据集上的实验结果表明:在训练与测试的图像大小均为500×800,并选择Resnet50作为骨干网络,RetinaNet作为目标检测器的情况下,使用TDM(自顶向下模块)在test-dev集上的small mAP值从9.5%提升到15.2%,box mAP值从29.6%提升到33.5%,使用BUM(自底向上模块)在test-dev集上的large mAP值从46.7%提升到48.7%,box mAP值从29.6%提升到32.9%,使用FEM(融合扩展模块)在test-dev集上的medium mAP值从33.1%提升到38.5%,box mAP值从29.6%提升到33.6%。而在训练与测试的图像大小均为500×800的情况下,在检测器的骨干网络上同时新增上述三个模块(TDM、BUM与FEM)形成的eFPN与传统FPN相比,基于ResNeXt-101骨干网络与RetinaNet检测器的eFPN在test-dev集上的box mAP值从40.0%提升到41.4%,small mAP值从23.0%提升到25.0%,medium mAP值从44.3%提升到45.5%,large mAP值从52.7%提升到53.9%,基于ResNet-101骨干网络与Faster R-CNN检测器的eFPN在test-dev集上的box mAP值从38.2%提升到39.8%,small mAP值从22.1%提升到23.5%,medium mAP值从42.5%提升到44.0%,large mAP值从49.0%提升到51.4%,基于ResNet-101骨干网络与Cascade MaskR-CNN检测器的eFPN在test-dev集上的box mAP值从42.7%提升到44.4%,small mAP值从23.8%提升到25.9%,medium mAP值从46.5%提升到48.1%,large mAP值从56.9%提升到58.2%。(注:MS-COCO是一个大规模的数据集,包含物体检测、分割等任务,见http://cocodataset.org/#home。多尺度目标的mAP值是衡量对不同尺度目标检测性能的指标,包括:small mAP、medium mAP与large mAP,box mAP则是衡量对整体目标检测性能的指标,见http://cocodataset.org/#detection-eval。)
附图说明
图1为本发明提供的目标检测的特征金字塔网络的结构及工作流程示意图。
图2为本发明提供的TDM(自顶向下模块)的结构组成及工作流程框图。
图3为本发明提供的BUM(自底向上模块)的结构组成及工作流程框图。
图4为本发明提供的FEM(融合扩展模块)的结构组成及工作流程框图。
具体实施方式
下面结合附图,通过实施例进一步描述本发明,但不以任何方式限制本发明的范围。
本发明提出了用于目标检测的增强特征金字塔网络,如图1所示,在该网络结构中集成了三个用以处理不同尺度特征的模块,分别为TDM(自顶向下模块)、BUM(自底向上模块)、FEM(融合扩展模块)。
本网络结构中使用了TDM(自顶向下模块),结构如图2所示,在骨干网络逐级提取到各层特征后,对最顶层特征进行全局平均池化,并进行上采样后与骨干网络顶层特征相加并通过1×1卷积得到TDM的顶层强化特征,之后依次进行上采样后与骨干网络对应层相加的操作,直至得到TDM强化特征金字塔。
本网络结构中使用了BUM(自底向上模块),结构如图3所示,在骨干网络逐级提取到各层特征后,将第二层特征进行上采样后与骨干神经网络底层特征相加后1×1卷积生成BUM的底层强化特征,之后BUM模块的每一层特征均由骨干网络中的对应层、对应层的上层上采样结果以及下层强化特征降采样结果相加后1×1卷积生成,直至得到BUM强化特征金字塔。
本网络结构中使用了FEM(融合扩展模块),结构如图4所示,该模块执行步骤主要分为两部分,将骨干网络特征金字塔分为两部分:顶层特征与底层特征,首先将两部分分别进行融合得到两层特征(将两部分中的特征上采样或降采样至同等大小后相加并通过1×1卷积生成),然后将这两层特征进行扩展,重新生成相应尺寸的FEM增强特征金字塔(将两部分分别上采样或降采样至另一部分的大小后进行连接操作,之后可以通过上采样与降采样得到不同大小的特征,从而形成特征金字塔)。
MS-COCO是一个大规模的数据集,包含物体检测、分割等任务,见http://cocodataset.org/#home。多尺度目标的mAP值是衡量对不同尺度目标检测性能的指标,包括:small mAP、medium mAP与large mAP,box mAP则是衡量对整体目标检测性能的指标,见http://cocodataset.org/#detection-eval。
以ResNet50作为骨干网络为例,在ResNet50的基础上添加TDM(自顶向下模块)、BUM(自底向上模块)、FEM(融合扩展模块)三个部分,并将三个部分的输出按层数连接,送入RetinaNet目标检测器中,改进之后,在训练和测试的图像尺寸大小均为500×800的情况下,物体检测的mAP值在MS-COCO的test-dev数据集从33.1%提升到了34.6%;在1333×800的情况下,物体检测的mAP值在MS-COCO的test-dev数据集从37.4%提升到了39.2%。
具体地,在MS-COCO目标检测数据集上的实验结果表明:在训练与测试的图像大小均为500×800,并选择Resnet50作为骨干网络,RetinaNet作为目标检测器的情况下,使用TDM(自顶向下模块)在test-dev集上的small mAP值从9.5%提升到了15.2%,box mAP值从29.6%提升到了33.5%,使用BUM(自底向上模块)在test-dev集上的large mAP值从46.7%提升到了48.7%,box mAP值从29.6%提升到了32.9%,使用FEM(融合扩展模块)在test-dev集上的medium mAP值从33.1%提升到了38.5%,box mAP值从29.6%提升到了33.6%。而在训练与测试的图像大小均为500×800的情况下,在检测器的骨干网络上同时新增上述三个模块(TDM、BUM与FEM)形成的eFPN与传统FPN相比,基于ResNeXt-101骨干网络与RetinaNet检测器的eFPN在test-dev集上的box mAP值从40.0%提升到41.4%,small mAP值从23.0%提升到25.0%,medium mAP值从44.3%提升到45.5%,large mAP值从52.7%提升到53.9%,基于ResNet-101骨干网络与Faster R-CNN检测器的eFPN在test-dev集上的box mAP值从38.2%提升到39.8%,small mAP值从22.1%提升到23.5%,medium mAP值从42.5%提升到44.0%,large mAP值从49.0%提升到51.4%,基于ResNet-101骨干网络与Cascade Mask R-CNN检测器的eFPN在test-dev集上的box mAP值从42.7%提升到44.4%,small mAP值从23.8%提升到25.9%,medium mAP值从46.5%提升到48.1%,large mAP值从56.9%提升到58.2%。
Claims (5)
1.一种基于特征金字塔网络的特征增强目标检测方法,在送入目标检测器之前采用的骨干网络模型中增加自顶向下模块TDM、自底向上模块BUM和融合扩展模块FEM,从而形成新型的增强特征金字塔网络eFPN,由此提高图像中多尺度目标物体的检测性能;包括如下步骤:
1)建立基于深度学习的骨干网络;将骨干网络在分类数据集上进行预训练;
2)将待检测图像送入步骤1)建立的基于深度学习的骨干网络提取特征,得到各层特征;特征通道数依次是2048,1024,512,256;对得到的所有特征图均进行1×1卷积操作,并将得到的特征通道数统一为256;
3)增加自顶向下模块TDM、自底向上模块BUM和融合扩展模块FEM:
3.1)建立自顶向下模块TDM,具体执行如下操作:
3.1.1)在步骤2)得到各层特征后,对最顶层的特征先进行3x3的卷积操作,将特征通道数进行降维,再全局平均池化至1×1的分辨率,最后上采样成最顶层特征的分辨率;
3.1.2)对骨干网络得到的其他特征层进行1×1卷积操作,统一转化成256通道数的特征图;将最顶层的特征图与3.1.1)中得到的最顶层特征相加;
3.1.3)按照自顶向下的顺序,逐个对特征图进行2倍上采样操作,上采样得到的特征图尺寸与下一层特征图尺寸相同;然后将上采样得到的特征图与下一层相同尺寸的特征图进行相加操作;按照该顺序进行递归操作,即可得到TDM自顶向下结构的特征金字塔;
3.2)建立融合扩展模块FEM,具体执行如下操作:
3.2.1)在通过步骤2)得到各层特征后,将最顶层的特征尺寸上采样为原来的两倍,与第二层的特征做加法操作,再将最底层的特征降采样为原来的两倍,与上一层的特征进行加法操作;由此得到两种通道数均为256的不同尺寸的特征;
3.2.2)将小尺寸的特征上采样为原来的两倍,与大尺寸的特征进行连接操作;将大尺寸特征降采样为原来的一半,与小尺寸特征做连接操作,得到两种通道数均为512的不同尺寸的特征;
3.2.3)将步骤3.2.2)中得到的两种尺寸的特征卷积成256通道的特征;
再对步骤3.2.1)和步骤3.2.3)得到的四种特征与步骤2)中相同尺寸的特征做加法操作,形成残差连接,即得到FEM融合扩展结构的特征金字塔;
3.3)建立自底向上模块BUM,具体执行如下操作:
3.3.1)在通过步骤2)得到各层特征后,把倒数第二层的特征上采样为原来的两倍,与最底层的特征相加得到特征F1;
3.3.2)将特征F1降采样为原来的一半,第二层上采样为原来的两倍;与第三层的特征相加得到特征F2;将F2降采样为原来的一半,最顶层上采样为原来的两倍,与第二层的特征相加得到F3;
3.3.4)将F3降采样为原来的一半,与最顶层相加,得到F4;
3.3.4)最后对F1,F2,F3,F4做1×1卷积操作并且不改变特征的尺寸,即可得到BUM自底向上结构的特征金字塔;
4)步骤3)三个模块得到的特征金字塔,包括:TDM自顶向下结构的特征金字塔、FEM融合扩展的特征金字塔、BUM自底向上结构的特征金字塔;将上述三个特征金字塔相同尺寸的对应层特征进行按通道方向做连接操作,并分别送入目标检测器中,实现对多尺度目标进行高精度的检测。
2.如权利要求1所述基于特征金字塔网络的特征增强目标检测方法,其特征是,目标检测器包括视频监控目标检测器、自动驾驶目标检测器。
3.如权利要求1所述基于特征金字塔网络的特征增强目标检测方法,其特征是,目标检测器为MaskR-CNN或RetinaNet。
4.如权利要求1所述基于特征金字塔网络的特征增强目标检测方法,其特征是,步骤1)基于深度学习的神经网络,采用残差网络ResNet或多支路的残差网络ResNeXt;和/或,将骨干网络在ImageNet的分类数据集上进行预训练。
5.如权利要求1所述基于特征金字塔网络的特征增强目标检测方法,其特征是,步骤1)采用ResNet50作为骨干网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242976.2A CN110084124B (zh) | 2019-03-28 | 2019-03-28 | 基于特征金字塔网络的特征增强目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910242976.2A CN110084124B (zh) | 2019-03-28 | 2019-03-28 | 基于特征金字塔网络的特征增强目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110084124A CN110084124A (zh) | 2019-08-02 |
CN110084124B true CN110084124B (zh) | 2021-07-09 |
Family
ID=67413802
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910242976.2A Active CN110084124B (zh) | 2019-03-28 | 2019-03-28 | 基于特征金字塔网络的特征增强目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110084124B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111008555B (zh) * | 2019-10-21 | 2021-08-17 | 武汉大学 | 一种无人机图像弱小目标增强提取方法 |
CN110827249A (zh) * | 2019-10-28 | 2020-02-21 | 上海悦易网络信息技术有限公司 | 电子设备背板外观瑕疵检测方法及设备 |
CN110852255B (zh) * | 2019-11-08 | 2022-05-13 | 福州大学 | 一种基于u型特征金字塔的交通目标检测方法 |
US11556784B2 (en) | 2019-11-22 | 2023-01-17 | Samsung Electronics Co., Ltd. | Multi-task fusion neural network architecture |
CN110956119B (zh) * | 2019-11-26 | 2023-05-26 | 大连理工大学 | 一种图像中目标检测的方法 |
CN111091091A (zh) * | 2019-12-16 | 2020-05-01 | 北京迈格威科技有限公司 | 目标对象重识别特征的提取方法、装置、设备及存储介质 |
CN111462050B (zh) * | 2020-03-12 | 2022-10-11 | 上海理工大学 | 改进YOLOv3的极小遥感图像目标检测方法、装置及存储介质 |
CN111524106B (zh) * | 2020-04-13 | 2021-05-28 | 推想医疗科技股份有限公司 | 颅骨骨折检测和模型训练方法、装置、设备和存储介质 |
CN111553303B (zh) * | 2020-05-07 | 2024-03-29 | 武汉大势智慧科技有限公司 | 基于卷积神经网络的遥感正射影像密集建筑物提取方法 |
CN111291739B (zh) * | 2020-05-09 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 面部检测、图像检测神经网络训练方法、装置和设备 |
CN111612065A (zh) * | 2020-05-21 | 2020-09-01 | 中山大学 | 一种基于比率自适应池化的多尺度特征物体检测算法 |
CN111882581B (zh) * | 2020-07-21 | 2022-10-28 | 青岛科技大学 | 一种深度特征关联的多目标跟踪方法 |
US11462029B2 (en) * | 2020-12-07 | 2022-10-04 | Shenzhen Deeproute.Ai Co., Ltd | Object detection network and method |
CN112699953B (zh) * | 2021-01-07 | 2024-03-19 | 北京大学 | 基于多信息路径聚合的特征金字塔神经网络架构搜索方法 |
CN112818777B (zh) * | 2021-01-21 | 2022-10-18 | 上海电力大学 | 一种基于密集连接与特征增强的遥感图像目标检测方法 |
CN113392775B (zh) * | 2021-06-17 | 2022-04-29 | 广西大学 | 一种基于深度神经网络的甘蔗幼苗自动识别与计数方法 |
CN113435425B (zh) * | 2021-08-26 | 2021-12-07 | 绵阳职业技术学院 | 一种基于递归多特征融合的野生动物出没检测方法 |
CN114494893B (zh) * | 2022-04-18 | 2022-06-14 | 成都理工大学 | 基于语义重用上下文特征金字塔的遥感图像特征提取方法 |
CN115082688B (zh) * | 2022-06-02 | 2024-07-05 | 艾迪恩(山东)科技有限公司 | 一种基于目标检测的多尺度特征融合方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10679351B2 (en) * | 2017-08-18 | 2020-06-09 | Samsung Electronics Co., Ltd. | System and method for semantic segmentation of images |
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
CN109255790A (zh) * | 2018-07-27 | 2019-01-22 | 北京工业大学 | 一种弱监督语义分割的自动图像标注方法 |
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN109472298B (zh) * | 2018-10-19 | 2021-06-01 | 天津大学 | 用于小尺度目标检测的深度双向特征金字塔增强网络 |
-
2019
- 2019-03-28 CN CN201910242976.2A patent/CN110084124B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110084124A (zh) | 2019-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084124B (zh) | 基于特征金字塔网络的特征增强目标检测方法 | |
CN109800628B (zh) | 一种加强ssd小目标行人检测性能的网络结构及检测方法 | |
CN112801169B (zh) | 一种基于改进yolo算法的伪装目标检测方法、系统、装置及存储介质 | |
CN113392960A (zh) | 一种基于混合空洞卷积金字塔的目标检测网络及方法 | |
CN112016489B (zh) | 一种保留全局信息并增强局部特征的行人再识别方法 | |
CN111768388A (zh) | 一种基于正样本参考的产品表面缺陷检测方法及系统 | |
CN112287931B (zh) | 一种场景文本检测方法及系统 | |
CN114359130A (zh) | 一种基于无人机影像的道路裂缝检测方法 | |
CN112784756B (zh) | 人体识别跟踪方法 | |
CN112991364A (zh) | 基于卷积神经网络跨模态融合的道路场景语义分割方法 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN112308040A (zh) | 一种基于高清图像的河流排污口检测方法及系统 | |
CN117173120A (zh) | 一种芯片焊缝空洞缺陷检测方法及系统 | |
CN114596273B (zh) | 利用yolov4网络的陶瓷基板多种瑕疵智能检测方法 | |
CN111767919A (zh) | 一种多层双向特征提取与融合的目标检测方法 | |
CN115797684A (zh) | 一种基于上下文信息的红外小目标检测方法及系统 | |
CN112990336B (zh) | 基于竞争注意力融合的深度三维点云分类网络构建方法 | |
CN115631412A (zh) | 基于坐标注意力和数据相关上采样的遥感图像建筑物提取方法 | |
CN114998866A (zh) | 一种基于改进YOLOv4的交通标志识别方法 | |
CN111539922B (zh) | 基于多任务网络的单目深度估计与表面法向量估计方法 | |
Du et al. | Cross-Layer Feature Pyramid Transformer for Small Object Detection in Aerial Images | |
Zhang et al. | EdgeAware YOLO: Enhancing Small Object Edge Detection in Base Station Equipment Inspection | |
CN118470576B (zh) | 一种无人机图像的小目标检测方法及系统 | |
CN117237830B (zh) | 基于动态自适应通道注意力的无人机小目标检测方法 | |
Wang et al. | YOLO-RLC: An Advanced Target-Detection Algorithm for Surface Defects of Printed Circuit Boards Based on YOLOv5. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |