CN112329861B - 一种面向移动机器人多目标检测的分层特征融合方法 - Google Patents

一种面向移动机器人多目标检测的分层特征融合方法 Download PDF

Info

Publication number
CN112329861B
CN112329861B CN202011235706.8A CN202011235706A CN112329861B CN 112329861 B CN112329861 B CN 112329861B CN 202011235706 A CN202011235706 A CN 202011235706A CN 112329861 B CN112329861 B CN 112329861B
Authority
CN
China
Prior art keywords
feature
convolution
pixel
bounding boxes
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011235706.8A
Other languages
English (en)
Other versions
CN112329861A (zh
Inventor
杨金福
袁帅
李明爱
王康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202011235706.8A priority Critical patent/CN112329861B/zh
Publication of CN112329861A publication Critical patent/CN112329861A/zh
Application granted granted Critical
Publication of CN112329861B publication Critical patent/CN112329861B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及移动机器人的环境感知领域,尤其涉及一种面向移动机器人多目标检测的分层特征融合方法,目的在于提高目标检测算法对不同尺度目标的检测能力,从而提高智能机器人的环境感知能力,包括以下步骤:将数据集中的图像输入到预训练好的改进后的VGG‑16中,初步获取特征图;将初步获取的特征图分别输入空洞卷积金字塔结构,该结构包含3种不同扩张率的空洞卷积分支,用于匹配机器人移动时视觉传感器获取的不同尺度大小的目标;将不同分支获取的特征图通过本发明提出的分层叠加的方式进行融合,使特征图中的所有通道均包含不同尺度的特征信息;将融合后的特征图进行逐步卷积,得到不同大小的特征图;最终,获得待检测物体的类别和包围框。

Description

一种面向移动机器人多目标检测的分层特征融合方法
技术领域
本发明涉及移动机器人的环境感知领域,尤其涉及一种面向移动机器人多目标检测的分层特征融合方法。
背景技术
随着智能机器人在家庭环境中应用范围的不断扩展,人们对机器人的环境感知能力提出了越来越高的要求。在机器人搜索物体的过程中,由于机器人的视觉传感器中往往存在不同尺度大小的物体,而现有的目标检测算法并不能很好地检测这些物体,因此,需要提高目标检测算法对不同尺度目标的检测能力,从而提高智能机器人的环境感知能力。
为了增强网络对不同尺度目标的检测效果,许多学者对分别对两阶段目标检测方法和单阶段目标检测方法进行了改进。2019年黄继鹏,史颖欢,高阳.面向小目标的多尺度Faster-RCNN检测算法[J].计算机研究与发展,2019,56(2):319-327)参考SSD算法多尺度检测的思想设计了多尺度FasterR-CNN检测算法,采用网络中的不同特征层检测不同尺度的目标,但是由于候选区域的限制,导致该算法在检测小目标时效果较差。但是由于两阶段目标检测方法的检测速度较慢,而单阶段目标检测方法可以满足机器人实时检测的要求,因此,需要对单阶段目标检测方法进行改进。2017年,Lin T Y,Dollar P,Girshick R,etal.Feature Pyramid Networks for Object Detection[C]//Proceedings of the IEEEconference on computer vision and pattern recognition.2017:2117-2125提出了一种具有自顶向下结构的特征金字塔网络,增强低层特征的语义信息。同样的,张思宇,张轶等.基于多尺度特征融合的小目标行人检测[J].计算机工程与科学,2019,41(09):1627-1634通过将高层特征进行反卷积与相邻的低层特征进行逐像素相加,丰富小目标的特征表达。但是以上方法在提取特征时只使用了单一尺度大小的卷积核,忽略了不同尺度特征感受野的差异,而机器人在移动中进行目标检测时,视觉传感器中会有多个不同尺度大小的物体,只采用单一尺度大小的卷积核提取的特征不够丰富,导致这些方法对不同尺度物体的检测效果差。为解决此问题,2017年Szegedy C,Ioffe S,Vanhoucke V,etal.Inception-v4,inception-resnet and the impact of residual connections onlearning[C]//Thirty-First AAAI Conference on Artificial Intelligence.提出采用多分支的不同大小卷积核提取多尺度特征,但是由于卷积核的尺寸较大,造成计算量较大,检测速度较慢,不适用于机器人移动平台。因此,本文为减少Inception结构的计算量,提出一种空洞卷积金字塔模型,同时,提出一种分层特征融合方法替代现有的通道拼接方法,使不同通道均包含多尺度特征信息。
发明内容
针对现有技术只采用单一尺度大小的卷积核提取特征不丰富,同一场景中不同尺度大小物体的检测能力低的问题,本发明利用不同扩张率的空洞卷积模拟不同大小的感受野,从而提取不同尺度大小的特征,同时,提出一种分层特征融合方法对不同尺度的特征进行融合,相比于其他方法的通道拼接方法,本发明的分层特征融合方法使不同通道中均包含不同尺度的特征信息,可以有效提升目标检测算法对同一场景中不同尺度大小的物体的检测能力,从而提高智能机器人搜索物体的效率。
为了达到上述目的,本发明采用的技术方案是提供一种面向移动机器人多目标检测的分层特征融合方法,其特征包括如下步骤:
步骤1:初步获取特征图:将数据集中的图像输入到预训练好的改进后的VGG-16中,提取经过卷积Conv4_3得到的特征图T1;提取经过卷积Conv7得到的特征图T2
步骤2:构建空洞卷积金字塔结构DCP:该结构包含3种不同扩张率的空洞卷积分支,将步骤1获取的特征图T1输入空洞卷积金字塔结构DCP1,三条分支的输出特征图分别为X1、X2、X3;将步骤1获取的特征图T2输入空洞卷积金字塔结构DCP2,三条分支的输出特征图分别为Y1、Y2、Y3
步骤3:进行分层特征融合HFF:将步骤2经过DCP1结构得到的特征图X1、X2、X3进行分层特征融合HFF1,得到融合后的特征图F1;将步骤2经过DCP2结构得到的特征图Y1、Y2、Y3进行分层特征融合HFF2,得到融合后的特征图F2
步骤4:获取不同大小特征图:将步骤3获取的特征图F2进行逐步卷积,得到不同大小的特征图F3、F4、F5、F6
步骤5:获得待检测物体的类别和包围框:分别在获取的特征层F1、F2、F3、F4、F5、F6的每个像素上生成不同比例大小的包围框以及该包围框的类别置信度。然后,对这些包围框进行筛选,得到待检测物体的类别和包围框。
步骤1中所述的VGG-16网络包括13个卷积层、3个全连接层组成,卷积层依次为Conv1_1、Conv1_2、Conv2_1、Conv2_2、Conv3_1、Conv3_2、Conv3_3、Conv4_1、Conv4_2、Conv4_3、Conv5_1、Conv5_2、Conv5_3,全连接层依次为FC6、FC7、FC8;步骤1中所述改进后的VGG-16网络为:将VGG-16网络的FC6和FC7全连接层改为卷积层;步骤1中所述的初步获取的特征图T1为改进后的VGG-16网络中卷积层Conv4_3的输出,大小为38×38;T2为改进后的VGG-16网络中卷积层Conv7的输出,大小为19×19。
步骤2所述的空洞卷积金字塔结构DCP具体如下:
该结构包含3条支路,第1条支路依次为1×1的卷积层以及卷积大小为3×3、扩张率rate=1的空洞卷积层;第2条支路依次为1×1的卷积层,3×3的卷积层,以及卷积大小为3×3、扩张率rate=3的空洞卷积层;第三支路依次为1×1的卷积层,5×5的卷积层,以及卷积大小为3×3、扩张率rate=5的空洞卷积层。
步骤3所述的分层特征融合,步骤如下:
分层融合的方式为逐级叠加,将步骤2空洞卷积金字塔结构DCP1获取的特征X1与X2逐像素求和,其结果X1+X2作为第一级叠加结果;再将特征X1与X2逐像素求和的结果与特征X3进行逐像素求和,其结果X1+X2+X3作为第二级叠加结果。最后,将特征X1、X1+X2、X1+X2+X3进行通道拼接操作,并采用1×1卷积核的进行卷积,以降低拼接数据的维度,再采用BatchNormalization层和Relu激活函数对降低维度后的拼接数据进行处理,得到融合后的包含多尺度信息的拼接特征图F1,大小为38×38。
将步骤2空洞卷积金字塔结构DCP2获取的特征Y1与Y2逐像素求和,其结果Y1+Y2作为第一级叠加结果;再将特征Y1与Y2逐像素求和的结果与特征Y3进行逐像素求和,其结果Y1Y2+Y3作为第二级叠加结果。最后,将特征Y1、Y1+Y2、Y1+Y2+Y3进行通道拼接操作,并依次通过1×1卷积、BN层以及Relu激活函数,得到特征图F2,大小为19×19。
步骤4步骤4所述特征图F3、F4、F5、F6的大小分别为10×10、5×5、3×3、1×1。
步骤5所述获得待检测物体的类别和包围框,步骤如下:
分别在获取的特征层F1、F2、F3、F4、F5、F6的每个像素上生成不同比例大小的包围框,其中,在特征图F1、F2、F3、F4的每个像素点生成6个包围框,每层包围框包括2个不同大小的正方形包围框、纵横比为0.5的不同大小的2个长方形包围框以及纵横比为2的2个不同大小的长方形包围框;在特征层F5和F6的每个像素点生成4个包围框,包括纵横比分别为0.5和2的2个长方形包围框以及2个不同大小的正方形包围框,6层特征图产生的包围框数量分别为:38×38×6、19×19×6、10×10×6、5×5×6、3×3×4、1×1×4,包围框总数为11620。
对于每个包围框,首先根据类别置信度确定其类别(置信度最大者)与置信度值,过滤掉属于背景的包围框,然后根据置信度阈值过滤掉阈值较低的包围框。对于剩下的包围框,在每个类别上根据置信度进行降序排列,保留排名靠前的k个包围框。最后,通过非极大值抑制NMS算法过滤掉重叠度较大的包围框,得到最终的检测结果。
附图说明
图1为实现本发明的网络流程图;
图2(a)为VGG-16网络结构图;
图2(b)为改进的VGG-16网络结构图;
图3(a)为空洞卷积金字塔结构DCP1;
图3(b)为空洞卷积金字塔结构DCP2;
图4(a)为本发明提出的分层特征融合方法HFF1;
图4(b)为本发明提出的分层特征融合方法HFF2;
图5为本发明与SSD方法的测试结果对比图。
具体实施方式
以下结合附图对本发明的实施例作进一步详细描述。
如附图1所示,本发明为一种面向移动机器人多目标检测的分层特征融合方法,包括以下步骤:
步骤1:初步获取特征图,将数据集中的图像输入到预训练好的改进后的VGG-16中。VGG-16网络结构如图2(a)所示:包括13个卷积层、3个全连接层组成,卷积层依次为Conv1_1、Conv1_2、Conv2_1、Conv2_2、Conv3_1、Conv3_2、Conv3_3、Conv4_1、Conv4_2、Conv4_3、Conv5_1、Conv5_2、Conv5_3,全连接层依次为FC6、FC7、FC8;改进后的VGG-16网络结构如图2(b)所示:将VGG-16网络的FC6和FC7全连接层改为卷积层;步骤1中所述的初步获取的特征图T1为改进后的VGG-16网络中卷积层Conv4_3的输出,大小为38×38;T2为改进后的VGG-16网络中卷积层Conv7的输出,大小为19×19。
步骤2:构造空洞卷积金字塔结构DCP,该结构包含3条支路,第1条支路依次为1×1的卷积层以及卷积大小为3×3、扩张率rate=1的空洞卷积层;第2条支路依次为1×1的卷积层,3×3的卷积层,以及卷积大小为3×3、扩张率rate=3的空洞卷积层;第三支路依次为1×1的卷积层,5×5的卷积层,以及卷积大小为3×3、扩张率rate=5的空洞卷积层。
将步骤1获取的特征图T1输入到如图3(a)所示的空洞卷积金字塔结构DCP1,三条分支的输出特征图分别为X1、X2、X3,大小均为38×38;将步骤1获取的特征图T2输入到如图3(b)所示的空洞卷积金字塔结构DCP2,三条分支的输出特征图分别为Y1、Y2、Y3,大小均为19×19。其中,DCP1与DCP2结构相同,输入特征图的大小不同。
步骤3:将不同分支获取的特征图进行分层特征融合HFF。分层融合的方式为逐级叠加,如图4(a)所示,分层特征融合HFF1将步骤2空洞卷积金字塔结构DCP1获取的特征X1与X2逐像素求和,其结果X1+X2作为第一级叠加结果;再将特征X1与X2逐像素求和的结果与特征X3进行逐像素求和,其结果X1+X2+X3作为第二级叠加结果。最后,将特征X1、X1+X2、X1+X2+X3进行通道拼接操作,并采用1×1卷积核的进行卷积,以降低拼接数据的维度,再采用BatchNormalization层和Relu激活函数对降低维度后的拼接数据进行处理,得到融合后的包含多尺度信息的拼接特征图F1,大小为38×38。
图4(b)所示,分层特征融合HFF2将步骤2空洞卷积金字塔结构DCP2获取的特征Y1与Y2逐像素求和,其结果Y1+Y2作为第一级叠加结果;再将特征Y1与Y2逐像素求和的结果与特征Y3进行逐像素求和,其结果Y1+Y2+Y3作为第二级叠加结果。最后,将特征Y1、Y1+Y2、Y1+Y2+Y3进行通道拼接操作,并依次通过1×1卷积、BN层以及Relu激活函数,得到特征图F2,大小为19×19。
步骤4:获取不同大小特征图,如图1所示,将步骤3获取的特征层F2进行逐步卷积,得到不同大小的特征图F3、F4、F5、F6,大小分别为10×10、5×5、3×3、1×1。
步骤5:获得待检测物体的类别和包围框,分别在获取的特征层F1、F2、F3、F4、F5、F6的每个像素上生成不同比例大小的包围框,其中,在特征图F1、F2、F3、F4的每个像素点生成6个包围框,每层包围框包括2个不同大小的正方形包围框、纵横比为0.5的不同大小的2个长方形包围框以及纵横比为2的2个不同大小的长方形包围框;在特征层F5和F6的每个像素点生成4个包围框,包括纵横比分别为0.5和2的2个长方形包围框以及2个不同大小的正方形包围框,6层特征图产生的包围框数量分别为:38×38×6、19×19×6、10×10×6、5×5×6、3×3×4、1×1×4,包围框总数为11620。
对于每个包围框,首先根据类别置信度确定其类别(置信度最大者)与置信度值,过滤掉属于背景的包围框,然后根据置信度阈值过滤掉阈值较低的包围框。对于剩下的包围框,在每个类别上根据置信度进行降序排列,保留排名靠前的k个包围框。最后,通过非极大值抑制NMS算法过滤掉重叠度较大的包围框,得到最终的检测结果。
表1展示了本发明在PASCAL VOC数据集上与其他先进目标检测方法的实验对比结果,对比方法包括Faster R-CNN、SSD、DSSD等。从表1可以看出,在输入图片尺寸为320×320时,本发明方法的准确率为80.1%,相比于SSD和DSSD的检测精度提高了2.9%和1.8%。与YOLO系列算法相比,本发明方法的准确率更高。
表1 PASCAL VOC 2007的不同网络模型的检测结果

Claims (3)

1.一种面向移动机器人多目标检测的分层特征融合方法,其特征在于,通过空洞卷积金字塔结构以及分层特征融合方法获取多尺度特征信息,有效提升目标检测算法对同一场景中不同尺度大小的物体的检测能力,从而提高智能机器人搜索物体的效率,包括以下步骤:
步骤1:初步获取特征图:将数据集中的图像输入到预训练好的改进后的VGG-16网络中,提取经过卷积Conv4_3得到的特征图T1;提取经过卷积Conv7得到的特征图T2
步骤2:构建空洞卷积金字塔结构DCP:该结构包含3种不同扩张率的空洞卷积分支,将步骤1获取的特征图T1输入空洞卷积金字塔结构DCP1,三条分支的输出特征图分别为X1、X2、X3;将步骤1获取的特征图T2输入空洞卷积金字塔结构DCP2,三条分支的输出特征图分别为Y1、Y2、Y3
步骤3:进行分层特征融合HFF:将步骤2经过DCP1结构得到的特征图X1、X2、X3进行分层特征融合HFF1,得到融合后的特征图F1;将步骤2经过DCP2结构得到的特征图Y1、Y2、Y3进行分层特征融合HFF2,得到融合后的特征图F2
步骤4:获取不同大小特征图:将步骤3获取的特征图F2进行逐步卷积,得到不同大小的特征图F3、F4、F5、F6
步骤5:获得待检测物体的类别和包围框:分别在获取的特征层F1、F2、F3、F4、F5、F6的每个像素上生成不同比例大小的包围框以及该包围框的类别置信度;然后,对这些包围框进行筛选,得到待检测物体的类别和包围框;
步骤1中所述的VGG-16网络包括13个卷积层、3个全连接层,卷积层依次为Conv1_1、Conv1_2、Conv2_1、Conv2_2、Conv3_1、Conv3_2、Conv3_3、Conv4_1、Conv4_2、Conv4_3、Conv5_1、Conv5_2、Conv5_3,全连接层依次为FC6、FC7、FC8;步骤1中所述改进后的VGG-16网络为:将VGG-16网络的FC6和FC7全连接层改为卷积层;步骤1中所述的初步获取的特征图T1为改进后的VGG-16网络中卷积层Conv4_3的输出,大小为38×38;T2为改进后的VGG-16网络中卷积层Conv7的输出,大小为19×19;
步骤2所述的空洞卷积金字塔结构DCP具体如下:
该结构包含3条支路,第1条支路依次为1×1的卷积层以及卷积大小为3×3、扩张率rate=1的空洞卷积层;第2条支路依次为1×1的卷积层,3×3的卷积层,以及卷积大小为3×3、扩张率rate=3的空洞卷积层;第三支路依次为1×1的卷积层,5×5的卷积层,以及卷积大小为3×3、扩张率rate=5的空洞卷积层;
将步骤1获取的特征图T1输入空洞卷积金字塔结构DCP1,三条分支的输出特征图分别为X1、X2、X3,大小均为38×38;将步骤1获取的特征图T2输入空洞卷积金字塔结构DCP2,三条分支的输出特征图分别为Y1、Y2、Y3,大小均为19×19,DCP1与DCP2结构相同,输入特征图的大小不同;
步骤3所述的分层特征融合,步骤如下:
分层融合的方式为逐级叠加,分层特征融合HFF1将步骤2空洞卷积金字塔结构DCP1获取的特征X1与X2逐像素求和,其结果X1+X2作为第一级叠加结果;再将特征X1与X2逐像素求和的结果与特征X3进行逐像素求和,其结果X1+X2+X3作为第二级叠加结果;最后,将特征X1、X1+X2、X1+X2+X3进行通道拼接操作,并采用1×1卷积核的进行卷积,以降低拼接数据的维度,再采用Batch Normalization层和Relu激活函数对降低维度后的拼接数据进行处理,得到融合后的包含多尺度信息的拼接特征图F1,大小为38×38;
分层特征融合HFF2将步骤2空洞卷积金字塔结构DCP2获取的特征Y1与Y2逐像素求和,其结果Y1+Y2作为第一级叠加结果;再将特征Y1与Y2逐像素求和的结果与特征Y3进行逐像素求和,其结果Y1+Y2+Y3作为第二级叠加结果;最后,将特征Y1、Y1+Y2、Y1+Y2+Y3进行通道拼接操作,并依次通过1×1卷积、BN层以及Relu激活函数,得到特征图F2,大小为19×19。
2.根据权利要求1所述的一种面向移动机器人多目标检测的分层特征融合方法,其特征在于,步骤4所述特征图F3、F4、F5、F6的大小分别为10×10、5×5、3×3、1×1。
3.根据权利要求1所述的一种面向移动机器人多目标检测的分层特征融合方法,其特征在于,步骤5所述获得待检测物体的类别和包围框,步骤如下:
分别在获取的特征层F1、F2、F3、F4、F5、F6的每个像素上生成不同比例大小的包围框,其中,在特征图F1、F2、F3、F4的每个像素点生成6个包围框,每层包围框包括2个不同大小的正方形包围框、纵横比为0.5的不同大小的2个长方形包围框以及纵横比为2的2个不同大小的长方形包围框;在特征层F5和F6的每个像素点生成4个包围框,包括纵横比分别为0.5和2的2个长方形包围框以及2个不同大小的正方形包围框,6层特征图产生的包围框数量分别为:38×38×6、19×19×6、10×10×6、5×5×6、3×3×4、1×1×4,包围框总数为11620;
对于每个包围框,首先根据类别置信度确定其类别与置信度值,过滤掉属于背景的包围框,然后根据置信度阈值过滤掉阈值较低的包围框;对于剩下的包围框,在每个类别上根据置信度进行降序排列,保留排名靠前的k个包围框;最后,通过非极大值抑制NMS算法过滤掉重叠度最大的包围框,得到最终的检测结果。
CN202011235706.8A 2020-11-06 2020-11-06 一种面向移动机器人多目标检测的分层特征融合方法 Active CN112329861B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011235706.8A CN112329861B (zh) 2020-11-06 2020-11-06 一种面向移动机器人多目标检测的分层特征融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011235706.8A CN112329861B (zh) 2020-11-06 2020-11-06 一种面向移动机器人多目标检测的分层特征融合方法

Publications (2)

Publication Number Publication Date
CN112329861A CN112329861A (zh) 2021-02-05
CN112329861B true CN112329861B (zh) 2024-05-28

Family

ID=74315544

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011235706.8A Active CN112329861B (zh) 2020-11-06 2020-11-06 一种面向移动机器人多目标检测的分层特征融合方法

Country Status (1)

Country Link
CN (1) CN112329861B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113065511B (zh) * 2021-04-21 2024-02-02 河南大学 基于深度学习的遥感图像飞机检测模型及方法
CN113205152B (zh) * 2021-05-24 2023-12-22 西安邮电大学 一种环视融合的特征融合方法
CN114332757A (zh) * 2021-12-16 2022-04-12 西南交通大学 一种用于准确检测危险物品的改进型ssd算法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109034210A (zh) * 2018-07-04 2018-12-18 国家新闻出版广电总局广播科学研究院 基于超特征融合与多尺度金字塔网络的目标检测方法
CN110232394A (zh) * 2018-03-06 2019-09-13 华南理工大学 一种多尺度图像语义分割方法
CN110717527A (zh) * 2019-09-24 2020-01-21 东南大学 结合空洞空间金字塔结构的目标检测模型确定方法
WO2020020472A1 (en) * 2018-07-24 2020-01-30 Fundación Centro Tecnoloxico De Telecomunicacións De Galicia A computer-implemented method and system for detecting small objects on an image using convolutional neural networks
CN111126202A (zh) * 2019-12-12 2020-05-08 天津大学 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN111415329A (zh) * 2020-02-20 2020-07-14 广州中国科学院先进技术研究所 一种基于深度学习的工件表面缺陷检测方法
CN111695430A (zh) * 2020-05-18 2020-09-22 电子科技大学 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107784654B (zh) * 2016-08-26 2020-09-25 杭州海康威视数字技术股份有限公司 图像分割方法、装置及全卷积网络系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110232394A (zh) * 2018-03-06 2019-09-13 华南理工大学 一种多尺度图像语义分割方法
CN109034210A (zh) * 2018-07-04 2018-12-18 国家新闻出版广电总局广播科学研究院 基于超特征融合与多尺度金字塔网络的目标检测方法
WO2020020472A1 (en) * 2018-07-24 2020-01-30 Fundación Centro Tecnoloxico De Telecomunicacións De Galicia A computer-implemented method and system for detecting small objects on an image using convolutional neural networks
CN110717527A (zh) * 2019-09-24 2020-01-21 东南大学 结合空洞空间金字塔结构的目标检测模型确定方法
CN111126202A (zh) * 2019-12-12 2020-05-08 天津大学 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN111415329A (zh) * 2020-02-20 2020-07-14 广州中国科学院先进技术研究所 一种基于深度学习的工件表面缺陷检测方法
CN111695430A (zh) * 2020-05-18 2020-09-22 电子科技大学 一种基于特征融合和视觉感受野网络的多尺度人脸检测方法

Also Published As

Publication number Publication date
CN112329861A (zh) 2021-02-05

Similar Documents

Publication Publication Date Title
CN112329861B (zh) 一种面向移动机器人多目标检测的分层特征融合方法
CN111626128B (zh) 一种基于改进YOLOv3的果园环境下行人检测方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN111310861A (zh) 一种基于深度神经网络的车牌识别和定位方法
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN109670405B (zh) 一种基于深度学习的复杂背景行人检测方法
CN110991444B (zh) 面向复杂场景的车牌识别方法及装置
CN111898432A (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN110110783A (zh) 一种基于多层特征图连接的深度学习目标检测方法
CN105528575A (zh) 基于上下文推理的天空检测算法
CN112597920A (zh) 基于YOLOv3剪枝网络的实时物体检测系统
CN111723829A (zh) 一种基于注意力掩模融合的全卷积目标检测方法
CN114882530B (zh) 一种构建面向行人检测的轻量级卷积神经网络模型的方法
CN112395951A (zh) 一种面向复杂场景的域适应交通目标检测与识别方法
CN111199255A (zh) 基于darknet53网络的小目标检测网络模型及检测方法
CN112597919A (zh) 基于YOLOv3剪枝网络和嵌入式开发板的实时药盒检测方法
CN114882234A (zh) 多尺度轻量级密集连目标检测网络的构建方法
CN115713546A (zh) 移动终端设备用的轻量化目标跟踪算法
Chen et al. Research on fast recognition method of complex sorting images based on deep learning
CN116596966A (zh) 一种基于注意力和特征融合的分割与跟踪方法
Wang et al. Single shot multibox detector with deconvolutional region magnification procedure
Hwang et al. Object Detection for Cargo Unloading System Based on Fuzzy C Means.
CN117115616A (zh) 一种基于卷积神经网络的实时低照度图像目标检测方法
Rao et al. Roads detection of aerial image with FCN-CRF model
CN113869239B (zh) 一种交通信号灯倒计时识别系统及其构建方法、应用方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant