CN111414931B - 一种基于图像深度的多分支多尺度小目标检测方法 - Google Patents

一种基于图像深度的多分支多尺度小目标检测方法 Download PDF

Info

Publication number
CN111414931B
CN111414931B CN201911415059.6A CN201911415059A CN111414931B CN 111414931 B CN111414931 B CN 111414931B CN 201911415059 A CN201911415059 A CN 201911415059A CN 111414931 B CN111414931 B CN 111414931B
Authority
CN
China
Prior art keywords
target
branch
scale
different
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911415059.6A
Other languages
English (en)
Other versions
CN111414931A (zh
Inventor
陈婧
王其超
彭伟民
徐海涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201911415059.6A priority Critical patent/CN111414931B/zh
Publication of CN111414931A publication Critical patent/CN111414931A/zh
Application granted granted Critical
Publication of CN111414931B publication Critical patent/CN111414931B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于图像深度的多分支多尺度小目标检测方法,包括根据双目图像训练集,获取视差图训练集;对视差图进行深度聚类,每一个聚类结果即为一个分支,将聚类结果映射到双目图像中的左图中,提取出初步候选框;分支提取图像特征:不同分支进行不同尺度的上采样操作,获取不同尺度特征图像;将不同尺度特征图像输入到多尺度特征金字塔网络中进行特征融合,获取预测结果;计算分类损失和回归框损失,结合预测结果,获取检测结果。可以有效的识别远距离小目标,提高了远距离小目标的检测在目标检测中的准确度。

Description

一种基于图像深度的多分支多尺度小目标检测方法
技术领域
本发明涉及目标检测技术领域,尤其涉及一种基于图像深度的多分支多尺度小目标检测方法。
背景技术
在计算机视觉领域中,目标检测是一个非常活跃的、具有挑战性的研究方向,与分类任务不同,目标检测除了需要识别目标的类别以外,还要定位目标的位置,从而实现定位和识别的任务,在很多现实生活中的应用都与它息息相关。
现有的目标检测方法有二维检测方法和三维检测方法,二维检测方法能提供目标物体在二维图像中的位置和对应类别的置信度,但是由于其缺乏深度信息,不能判断物体的远近距离,难以获得检测目标的速度、方向等信息,准确度较低。二维图像中解决小目标最常用的方法是通过上采样来调整网络中输入图像的尺寸,但是,图像金字塔效率较低,因此出现了一些从特征角度出发的工作,导致网络计算变得较为复杂。三维检测方法存在以下问题:(1)针对小物体目标的检测,没有采用更有效的策略。小目标物体由于携带的信息少,因此特征表达能力弱,无法有效的对小目标物体进行准确识别;(2)需要加入一些人工信息,用来弥补缺失的深度信息。这些特定的人工信息以及单一的彩色图像,会限制场景的扩展以及神经网络有效地学习三维空间信息;(3)另外,由于三维检测加入了深度信息,获取这些特征需要花费更长的时间,增加了检测时长。
发明内容
本发明主要解决原有的远距离小目标的检测在目标检测中准确度较低的技术问题;提供一种基于图像深度的多分支多尺度小目标检测方法,对视差图进行深度聚类,每一个聚类结果即为一个分支,对不同分支进行不同尺度的图像特征提取,再在多尺度特征金字塔中进行特征融合,得到预测结果,将预测结果经分类损失和回归损失优化后得到最终检测结果,可以有效的识别远距离小目标,提高了远距离小目标的检测在目标检测中的准确度。
本发明的上述技术问题主要是通过下述技术方案得以解决的:本发明包括下列步骤:
S1、根据双目图像训练集,获取视差图训练集;
S2、对视差图进行深度聚类,每一个聚类结果即为一个分支,将聚类结果映射到双目图像中的左图中,提取出初步候选框;
S3、分支提取图像特征:不同分支进行不同尺度的上采样操作,获取不同尺度特征图像;
S4、将不同尺度特征图像输入到多尺度特征金字塔网络中进行特征融合,获取预测结果;
S5、计算分类损失和回归框损失,结合预测结果,获取检测结果。
对视差图进行深度聚类,将聚类结果映射到双目图像中的左图中,提取出初步候选框,每一个聚类结果(初步候选框)即为一个分支,对不同分支进行不同尺度的图像特征提取,再在多尺度特征金字塔中进行特征融合,得到预测结果,将预测结果经分类损失和回归损失优化后得到最终检测结果,可以有效的识别远距离小目标,提高了远距离小目标的检测在目标检测中的准确度。基于视差图提取初步候选框,能够消除目标表面纹理对检测的影响,加快了检测速度。
作为优选,所述的步骤S2中的对视差图进行深度聚类,具体包括如下步骤:
S21、根据视差图中的距离信息,划分K个深度范围,并随机选择K个深度范围的初始中心;
S22、将整体视差图分成若干个小区域,对每个小区域进行如下操作:求小区域到各个深度范围中心的距离,将小区域归属到距离最短的中心所在的深度范围;
S23、利用均值更新各个深度范围的中心值;
S24、重复步骤S22~S23,直至各个深度范围的中心值不再变化。
通过深度范围的聚类,不同距离的目标区域被分离出来,便于后续检测过程中建立不同分支,对不同距离范围内不同灰度值的目标进行分别检测,提高了检测精度。
作为优选,所述的步骤S3中的不同分支进行不同尺度的上采样操作,获取不同尺度图像,具体包括如下步骤:
S31、根据公式获取目标尺度:
Figure BDA0002350982710000031
其中,N表示目标尺度,d表示图像中需要检测目标的距离,w,h是目标的宽度与高度,b,a,m为系数;
S32、根据公式获取每个尺度要进行上采样的倍数:
N=2α
其中,N表示目标尺度,α代表每个尺度要进行上采样的倍数,β为该分支最近处分支上采样倍数;
S33、结合目标尺度及要进行上采样的倍数,进行上采样操作,获取不同尺度特征图像;
S34、不同分支都进行步骤S31~S33的操作。
对不同分支进行不同尺度的上采样操作,及对图像中不同距离的目标采用不同尺度的缩放,以此获取更加鲁棒的语义信息,平衡检测速度和准确率。
作为优选,所述的步骤S4中的将不同尺度特征图像输入到多尺度特征金字塔网络中进行特征融合,获取预测结果,具体包括如下步骤:
S41、将不同分支的不同尺度特征图像输入到多尺度特征金字塔网络中;
S42、根据公式求出不同分支特征融合所需的网络层数:
Figure BDA0002350982710000041
其中,
Figure BDA0002350982710000042
是输入第i个分支的平均预训练尺寸,k0为平均预训练尺寸时应映射到的目标层,w,h是目标的宽度与高度;
S43、将不同分支的不同尺度特征图像分配到多尺度特征金字塔网络中相对应网络层数的分支网络处;
S44、分支网络中的向上传送网络将不同尺度特征图像的不同尺度分配给不同层级,分别提取特征;
S45、分支网络中的向下传送网络,将上层特征图进行不同尺度的最近邻上采样,下层特征图用1*1卷积核卷积,使上下特征图的通道相同,将上下层对应通道元素进行像素相加,生成所需的特征图,得到预测结果。
通过多尺度特征金字塔网络使上采样特征和底层特征能够根据距离信息进行多尺度的融合,提高识别准确率,同时减小了网络计算的复杂度,缩短了检测时间。
作为优选,所述的步骤S5中的计算分类损失和回归框损失,结合预测结果,获取检测结果,具体包括如下步骤:
S51、通过分类损失函数计算分类损失:
Figure BDA0002350982710000051
其中pi为预测为目标时的概率,
Figure BDA0002350982710000052
为真实值的标签,
Figure BDA0002350982710000053
S52、通过回归损框失函数计算回归框损失:
Figure BDA0002350982710000054
Figure BDA0002350982710000055
其中,tw为预测出目标的宽度,th为预测出的目标高度,tl为预测出的目标的长度,θσ为预测的目标的角度,wth为目标的真实宽度,hth为目标的真实高度,lth为目标的真实长度;
S53、通过多分支损失函数计算多分支损失:
Figure BDA0002350982710000056
其中,n是分支的个数,
Figure BDA0002350982710000057
是分类损失,
Figure BDA0002350982710000058
是回归框损失,λ1、λ2取1;
S54、通过多分支损失优化预测结果,获取检测结构。
作为优选,所述的步骤S45中的将上下层对应通道元素进行像素相加后再在其后加一个用于消除上采样混叠效应的3*3卷积。
将上下层对应通道元素进行像素相加后再在其后加一个3*3卷积,消除了上采样混叠效应,提高识别准确率。
本发明的有益效果是:1)通过深度范围的聚类,对图像中不同距离的目标区域进行分割处理,建立不同的分支,对不同距离范围内不同灰度值的目标进行分别检测,提高了目标的识别准确率,提高了目标检测的准确度;2)各个分支在运行处理过程中,除了使用多尺度特征金字塔网络中的不同分支进行上采样特征和底层特征的融合,其余网络结构相同,因此各个分支之间可以通过共享权重降低网络计算的复杂度,缩短了检测时长;3)通过多尺度特征金字塔网络使上采样特征和底层特征能够根据距离信息进行多尺度的融合,提高识别准确率。
附图说明
图1是本发明的一种方法流程图。
图2是本发明中多尺度特征金字塔网络的结构示意图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。
实施例:本实施例的一种基于图像深度的多分支多尺度小目标检测方法,如图1所示,包括下列步骤:
S1、根据双目图像训练集,获取视差图训练集;
S2、对视差图进行深度聚类,每一个聚类结果即为一个分支,将聚类结果映射到双目图像中的左图中,提取出初步候选框;
S3、分支提取图像特征:不同分支进行不同尺度的上采样操作,获取不同尺度特征图像;
S4、将不同尺度特征图像输入到多尺度特征金字塔网络中进行特征融合,获取预测结果;
S5、计算分类损失和回归框损失,结合预测结果,获取检测结果。
在步骤S2中的对视差图进行深度聚类,具体包括如下步骤:
S21、根据视差图中的距离信息,划分K个深度范围,并随机选择K个深度范围的初始中心;
S22、将整体视差图分成若干个小区域,对每个小区域进行如下操作:求小区域到各个深度范围中心的距离,将小区域归属到距离最短的中心所在的深度范围;
S23、利用均值更新各个深度范围的中心值;
S24、重复步骤S22~S23,直至各个深度范围的中心值不再变化。
在步骤S3中的不同分支进行不同尺度的上采样操作,获取不同尺度图像,具体包括如下步骤:
S31、根据公式获取目标尺度:
Figure BDA0002350982710000071
其中,N表示目标尺度,d表示图像中需要检测目标的距离,w,h是目标的宽度与高度,b,a,m为系数;
S32、根据公式获取每个尺度要进行上采样的倍数:
N=2α
其中,N表示目标尺度,α代表每个尺度要进行上采样的倍数,β为该分支最近处分支上采样倍数;
S33、结合目标尺度及要进行上采样的倍数,进行上采样操作,获取不同尺度特征图像;
S34、不同分支都进行步骤S31~S33的操作。
在步骤S4中的将不同尺度特征图像输入到多尺度特征金字塔网络(如图2所示)中进行特征融合,获取预测结果,具体包括如下步骤:
S41、将不同分支的不同尺度特征图像输入到多尺度特征金字塔网络中;
S42、根据公式求出不同分支特征融合所需的网络层数:
Figure BDA0002350982710000081
其中,
Figure BDA0002350982710000082
是输入第i个分支的平均预训练尺寸,k0为平均预训练尺寸时应映射到的目标层,w,h是目标的宽度与高度;
S43、将不同分支的不同尺度特征图像分配到多尺度特征金字塔网络中相对应网络层数的分支网络处;
S44、分支网络中的向上传送网络将不同尺度特征图像的不同尺度分配给不同层级,分别提取特征;
S45、分支网络中的向下传送网络,将上层特征图进行不同尺度的最近邻上采样,下层特征图用1*1卷积核卷积,使上下特征图的通道相同,将上下层对应通道元素进行像素相加,再在其后加一个3*3卷积,生成所需的特征图,得到预测结果。
在步骤S5中的计算分类损失和回归框损失,结合预测结果,获取检测结果,具体包括如下步骤:
S51、通过分类损失函数计算分类损失:
Figure BDA0002350982710000091
其中pi为预测为目标时的概率,
Figure BDA0002350982710000092
为真实值的标签,
Figure BDA0002350982710000093
S52、通过回归框损失函数计算回归框损失:
Figure BDA0002350982710000094
Figure BDA0002350982710000095
其中,tw为预测出目标的宽度,th为预测出的目标高度,tl为预测出的目标的长度,θσ为预测的目标的角度,wth为目标的真实宽度,hth为目标的真实高度,lth为目标的真实长度;
S53、通过多分支损失函数计算多分支损失:
Figure BDA0002350982710000098
其中,n是分支的个数,
Figure BDA0002350982710000096
是分类损失,
Figure BDA0002350982710000097
是回归框损失,λ1、λ2取1;
S54、通过多分支损失优化预测结果,获取检测结构。
本实施例通过深度范围的聚类,对图像中不同距离的目标区域进行分割处理,建立不同的分支,对不同分支进行不同尺度的特征提取,在通过多尺度特征金字塔网络使上采样特征和底层特征能够根据距离信息进行多尺度的融合,即对不同距离范围内不同灰度值的目标进行分别检测,提高了目标的识别准确率,提高了目标检测的准确度;且各个分支在运行处理过程中,除了使用多尺度特征金字塔网络中的不同分支进行上采样特征和底层特征的融合,其余网络结构相同,因此各个分支之间可以通过共享权重降低网络计算的复杂度,缩短了检测时长。

Claims (6)

1.一种基于图像深度的多分支多尺度小目标检测方法,其特征在于包括下列步骤:
S1、根据双目图像训练集,获取视差图训练集;
S2、对视差图进行深度聚类,每一个聚类结果即为一个分支,将聚类结果映射到双目图像中的左图中,提取出初步候选框;
S3、分支提取图像特征:不同分支进行不同尺度的上采样操作,获取不同尺度特征图像;
S4、将不同尺度特征图像输入到多尺度特征金字塔网络中进行特征融合,获取预测结果;
S5、计算分类损失和回归框损失,结合预测结果,获取检测结果。
2.根据权利要求1所述的一种基于图像深度的多分支多尺度小目标检测方法,其特征在于所述步骤S2中的对视差图进行深度聚类,具体包括如下步骤:
S21、根据视差图中的距离信息,划分K个深度范围,并随机选择K个深度范围的初始中心;
S22、将整体视差图分成若干个小区域,对每个小区域进行如下操作:求小区域到各个深度范围中心的距离,将小区域归属到距离最短的中心所在的深度范围;
S23、利用均值更新各个深度范围的中心值;
S24、重复步骤S22~S23,直至各个深度范围的中心值不再变化。
3.根据权利要求1所述的一种基于图像深度的多分支多尺度小目标检测方法,其特征在于所述步骤S3中的不同分支进行不同尺度的上采样操作,获取不同尺度图像,具体包括如下步骤:
S31、根据公式获取目标尺度:
Figure FDA0002350982700000021
其中,N表示目标尺度,d表示图像中需要检测目标的距离,w,h是目标的宽度与高度,b,a,m为系数;
S32、根据公式获取每个尺度要进行上采样的倍数:
N=2α
其中,N表示目标尺度,α代表每个尺度要进行上采样的倍数,β为该分支最近处分支上采样倍数;
S33、结合目标尺度及要进行上采样的倍数,进行上采样操作,获取不同尺度特征图像;
S34、不同分支都进行步骤S31~S33的操作。
4.根据权利要求1所述的一种基于图像深度的多分支多尺度小目标检测方法,其特征在于所述步骤S4中的将不同尺度特征图像输入到多尺度特征金字塔网络中进行特征融合,获取预测结果,具体包括如下步骤:
S41、将不同分支的不同尺度特征图像输入到多尺度特征金字塔网络中;
S42、根据公式求出不同分支特征融合所需的网络层数:
Figure FDA0002350982700000022
其中,
Figure FDA0002350982700000023
是输入第i个分支的平均预训练尺寸,k0为平均预训练尺寸时应映射到的目标层,w,h是目标的宽度与高度;
S43、将不同分支的不同尺度特征图像分配到多尺度特征金字塔网络中相对应网络层数的分支网络处;
S44、分支网络中的向上传送网络将不同尺度特征图像的不同尺度分配给不同层级,分别提取特征;
S45、分支网络中的向下传送网络,将上层特征图进行不同尺度的最近邻上采样,下层特征图用1*1卷积核卷积,使上下特征图的通道相同,将上下层对应通道元素进行像素相加,生成所需的特征图,得到预测结果。
5.根据权利要求1所述的一种基于图像深度的多分支多尺度小目标检测方法,其特征在于所述步骤S5中的计算分类损失和回归框损失,结合预测结果,获取检测结果,具体包括如下步骤:
S51、通过分类损失函数计算分类损失:
Figure FDA0002350982700000031
其中pi为预测为目标时的概率,
Figure FDA0002350982700000032
为真实值的标签,
Figure FDA0002350982700000033
S52、通过回归框损失函数计算回归框损失:
Figure FDA0002350982700000034
Figure FDA0002350982700000035
其中,tw为预测出目标的宽度,th为预测出的目标高度,tl为预测出的目标的长度,θσ为预测的目标的角度,wth为目标的真实宽度,hth为目标的真实高度,Ith为目标的真实长度;
S53、通过多分支损失函数计算多分支损失:
Figure FDA0002350982700000041
其中,n是分支的个数,
Figure FDA0002350982700000042
是分类损失,
Figure FDA0002350982700000043
是回归框损失,λ1、λ2取1;
S54、通过多分支损失优化预测结果,获取检测结构。
6.根据权利要求4所述的一种基于图像深度的多分支多尺度小目标检测方法,其特征在于所述步骤S45中的将上下层对应通道元素进行像素相加后再在其后加一个用于消除上采样混叠效应的3*3卷积。
CN201911415059.6A 2019-12-31 2019-12-31 一种基于图像深度的多分支多尺度小目标检测方法 Active CN111414931B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911415059.6A CN111414931B (zh) 2019-12-31 2019-12-31 一种基于图像深度的多分支多尺度小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911415059.6A CN111414931B (zh) 2019-12-31 2019-12-31 一种基于图像深度的多分支多尺度小目标检测方法

Publications (2)

Publication Number Publication Date
CN111414931A CN111414931A (zh) 2020-07-14
CN111414931B true CN111414931B (zh) 2023-04-25

Family

ID=71494142

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911415059.6A Active CN111414931B (zh) 2019-12-31 2019-12-31 一种基于图像深度的多分支多尺度小目标检测方法

Country Status (1)

Country Link
CN (1) CN111414931B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832655B (zh) * 2020-07-16 2022-10-14 四川大学 一种基于特征金字塔网络的多尺度三维目标检测方法
CN112232411B (zh) * 2020-10-15 2024-05-14 苏州凌图科技有限公司 HarDNet-Lite在嵌入式平台的优化方法
CN112802003B (zh) * 2021-02-08 2022-05-06 锋睿领创(珠海)科技有限公司 基于光弹性的缺陷检测方法、装置、设备及存储介质
CN112950703B (zh) * 2021-03-11 2024-01-19 无锡禹空间智能科技有限公司 小目标的检测方法、装置、存储介质及设备
CN113838056B (zh) * 2021-11-29 2022-03-01 中国电力科学研究院有限公司 一种电力设备联合检测识别方法、系统、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184540A (zh) * 2011-05-03 2011-09-14 哈尔滨工程大学 基于尺度空间的亚像素级立体匹配方法
CN109117876A (zh) * 2018-07-26 2019-01-01 成都快眼科技有限公司 一种稠密小目标检测模型构建方法、模型及检测方法
CN110070538A (zh) * 2019-04-28 2019-07-30 华北电力大学(保定) 基于形态优化深度特征的螺栓二维视觉结构聚类方法
CN110287927A (zh) * 2019-07-01 2019-09-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564061B (zh) * 2017-08-11 2020-11-20 浙江大学 一种基于图像梯度联合优化的双目视觉里程计算方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102184540A (zh) * 2011-05-03 2011-09-14 哈尔滨工程大学 基于尺度空间的亚像素级立体匹配方法
CN109117876A (zh) * 2018-07-26 2019-01-01 成都快眼科技有限公司 一种稠密小目标检测模型构建方法、模型及检测方法
CN110070538A (zh) * 2019-04-28 2019-07-30 华北电力大学(保定) 基于形态优化深度特征的螺栓二维视觉结构聚类方法
CN110287927A (zh) * 2019-07-01 2019-09-27 西安电子科技大学 基于深度多尺度和上下文学习的遥感影像目标检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Jing Chen , Qichao Wang , Weiming Peng, Haitao Xu, Xiaodong Li , and Wenqiang Xu.Disparity-Based Multiscale Fusion Network for Transportation Detection.《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, VOL. 23, NO. 10, OCTOBER 2022》.2022,全文. *
JING CHEN 1, WENQIANG XU 2, WEIMIN PENG 1, (Member, IEEE), WANGHUI BU3, BAIXI XING1, AND GENG LIU.Road Object Detection Using a Disparity-Based Fusion Model.《IEEE Access》.2018,全文. *
Jing Chen,Wenqiang Xu, Haitao Xu, Fei Lin, Yong Sun, and Xiaoying Shi.Fast Vehicle Detection Using a Disparity Projection Method.《IEEE TRANSACTIONS ON INTELLIGENT TRANSPORTATION SYSTEMS, VOL. 19, NO. 9, SEPTEMBER 2018》.2018,全文. *
李庆武 ; 周亚琴 ; 马云鹏 ; 邢俊 ; 许金鑫 ; .基于双目视觉的显著性目标检测方法.光学学报.2017,(03),全文. *

Also Published As

Publication number Publication date
CN111414931A (zh) 2020-07-14

Similar Documents

Publication Publication Date Title
CN111414931B (zh) 一种基于图像深度的多分支多尺度小目标检测方法
Wang et al. Fadnet: A fast and accurate network for disparity estimation
CN109522966B (zh) 一种基于密集连接卷积神经网络的目标检测方法
CN110675418B (zh) 一种基于ds证据理论的目标轨迹优化方法
CN109903331B (zh) 一种基于rgb-d相机的卷积神经网络目标检测方法
CN106780631B (zh) 一种基于深度学习的机器人闭环检测方法
CN110689562A (zh) 一种基于生成对抗网络的轨迹回环检测优化方法
CN110569875B (zh) 一种基于特征复用的深度神经网络目标检测方法
CN110381268B (zh) 生成视频的方法,装置,存储介质及电子设备
CN111507222B (zh) 一种基于多源数据知识迁移的三维物体检测框架
CN110246151B (zh) 一种基于深度学习和单目视觉的水下机器人目标跟踪方法
CN111998862B (zh) 一种基于bnn的稠密双目slam方法
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN112734931B (zh) 一种辅助点云目标检测的方法及系统
CN112883850A (zh) 一种基于卷积神经网络的多视角空天遥感图像匹配方法
CN111861880A (zh) 基于区域信息增强与块自注意力的图像超分与融合方法
CN114724155A (zh) 基于深度卷积神经网络的场景文本检测方法、系统及设备
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN110334656A (zh) 基于信源概率加权的多源遥感图像水体提取方法及装置
CN115147488B (zh) 一种基于密集预测的工件位姿估计方法与抓取系统
CN111553296B (zh) 一种基于fpga实现的二值神经网络立体视觉匹配方法
CN113313176A (zh) 一种基于动态图卷积神经网络的点云分析方法
CN112927264A (zh) 一种无人机跟踪拍摄系统及其rgbd跟踪方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN111292369A (zh) 激光雷达的伪点云数据生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant