CN111738344A - 一种基于多尺度融合的快速目标检测方法 - Google Patents

一种基于多尺度融合的快速目标检测方法 Download PDF

Info

Publication number
CN111738344A
CN111738344A CN202010595268.XA CN202010595268A CN111738344A CN 111738344 A CN111738344 A CN 111738344A CN 202010595268 A CN202010595268 A CN 202010595268A CN 111738344 A CN111738344 A CN 111738344A
Authority
CN
China
Prior art keywords
feature
output
channel
scale
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010595268.XA
Other languages
English (en)
Other versions
CN111738344B (zh
Inventor
杨振坤
扶梅
马向华
朱丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Institute of Technology
Original Assignee
Shanghai Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Institute of Technology filed Critical Shanghai Institute of Technology
Priority to CN202010595268.XA priority Critical patent/CN111738344B/zh
Publication of CN111738344A publication Critical patent/CN111738344A/zh
Application granted granted Critical
Publication of CN111738344B publication Critical patent/CN111738344B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多尺度融合的快速目标检测方法,包括:S1:将待检测图像输入Darknet53特征提取器提取待检测图像特征图;S2:将Darknet53特征提取器提取的特征图输入至多特征融合模块;S3:将多特征融合模块获得的特征信息输入至多尺度聚合模块;S4:将多尺度聚合模块获得的特征信息输入至具有空间注意力机制的残差预测模块,输出目标检测结果。本发明所构建的多特征融合模块,通过将可学习的加权参数自适应分配给三个不同的卷积分支,提高目标检测模型的多特征表示能力。检测网络的四条输出分支通过多尺度聚合模块自上而下的增强了网络的多尺度检测能力。在预测模块中使用空间注意力,使网络更好地定位物体的位置信息。

Description

一种基于多尺度融合的快速目标检测方法
技术领域
本发明涉及深度学习中的目标检测技术领域,特别涉及一种基于多尺度融合的快速目标检测方法。
背景技术
近年来,随着深度学习的不断发展,基于深度学习的目标检测技术得到了广泛的应用。在现实生活的场景中,目标检测受到多种因素的干扰,如:光照、遮挡等。如何快速地、准确地对复杂场景下的目标进行检测、识别已经成为一个值得深入研究的课题。目标检测技术是利用计算机视觉技术判断静态图像或动态视频中是否存在感兴趣的物体,正确识别物体类别,并定位物体的位置信息。现有的目标检测方法一般分为两大类:两阶段法和单阶段法。两阶段法首先使用区域推荐网络获得若干候选框;然后这些候选框再通过特征提取网络提取图像特征,最后进行分类和位置回归。两阶段法一般具有较高的检测准确性,但是检测速度较慢。单阶段法将目标检测当做回归问题来解决,同时训练和检测放在一个网络中。相比于两阶段法,单阶段法一般具有更好的检测实时性。
发明内容
为了克服现有技术中的不足,本发明提供一种基于多尺度融合的快速目标检测方法,通过提出一种多特征融合模块来改善现有检测网络的多尺度特征表达能力,此外,通过提出一种具有空间注意力构建块的残差预测模块,使网络更好的定位目标的位置信息。
为了达到上述发明目的,解决其技术问题所采用的技术方案如下:
一种基于多尺度融合的快速目标检测方法,包括以下步骤:
步骤S1:将待检测图像输入Darknet53特征提取器提取待检测图像特征图;
步骤S2:将步骤S1中Darknet53特征提取器提取的特征图输入至多特征融合模块;
步骤S3:将步骤S2中多特征融合模块获得的特征信息输入至多尺度聚合模块;
步骤S4:将步骤S3中多尺度聚合模块获得的特征信息输入至具有通道注意力机制的残差预测模块,输出目标检测结果。
进一步的,步骤S2具体包括以下内容:
一个多特征融合模块由卷积核为3×3、1×3、3×1三个平行分支组成,对于多特征融合模块中的一个分支,I∈M×N×D表示卷积层的输入,使用F=[g1,g2,…,gc]表示学习的卷积核集,其中gc表示对应的第c个卷积核的参数,U∈H×W×C表示卷积层的输出,H、W、C分别表示输出特征图的高度、宽度、通道数,对于该层的第c个滤波器,对应的输出特征图通道为:
Figure BDA0002555357730000021
其中,*表示卷积,gcK×K×D,U=[V1,V2,...,VC],
Figure BDA0002555357730000022
I=[Y1,Y2,...,YD]和
Figure BDA0002555357730000023
表示gc的单个通道的二维空间核,Vc表示U的第c个输出特征图通道,Ys表示I的第s个输入特征图通道;
为了减少过拟合,在卷积层之后采用批量归一化操作,批处理后的归一化层进行线性尺度变换以增强网络的表示能力,输出特征映射通道变为:
Figure BDA0002555357730000024
其中,uc和σc表示通道平均值和批量归一化的标准偏差,γc和βc分别表示学习尺度因子和偏差项;
最终,可学习的权重被添加到多特征融合模块的三个分支中,对应的融合输出特征图通道可以计算为:
Figure BDA0002555357730000031
其中,Vfusion c表示三个平行分支对应的第c个融合输出特征图通道,
Figure BDA0002555357730000032
Figure BDA0002555357730000033
表示三个平行分支的相应权重和相应第c个输出特征图通道,其中i∈{1,2,3}。
进一步的,步骤S3中所述多尺度聚合模块由两个操作符组成,分别为一个上采样操作和一个特征图拼接操作,所述上采样操作将来自顶层的特征图的尺寸扩大一倍,用于和底层的特征图进行拼接操作。
进一步的,步骤S4具体包括以下内容:
对于输入空间注意力构建块的特征图Q=[q1,q2,…,qc],首先我们进行两个变换Hmean
Figure BDA0002555357730000034
和Hmax:U→V∈H×W×1,Hmean和Hmax指的分别是沿相应通道轴的全局平均池化和全局最大池化操作,将上一步两个变换获得的特征图
Figure BDA0002555357730000036
和v拼接在一起以创建空间注意力图M′∈H×W×2
Figure BDA0002555357730000035
其中,cat表示拼接函数,然后通过大小为7×7的卷积核对空间注意力图M′进行卷积以产生2D空间注意力图M″∈H×W
M″=F7×7(cat(Hmean(U),Hmax(U))) (1.5)
其中,F7×7表示卷积核大小为7×7的卷积运算,在上一步骤中生成的2D空间注意图M″基础上,生成多维空间注意图M∈H×W×C
M=F1×1(F7×7(cat(Hmean(U),Hmax(U)))) (1.6)
其中,F1×1表示卷积核大小为1×1的卷积运算,然后,使用全局平均池来生成通道统计量,通过将M缩小到其空间维度H×W来生成统计量n∈C,使得统计量n的第c个元素通过以下公式计算:
Figure BDA0002555357730000041
其中,Fga(·)表示全局平均池操作符,mc表示特征图Q的第c个通道特征图,mc(i,j)表示特征图Q的第c个通道上位置为(i,j)的像素点;
之后,对空间注意力构建块的输出结果应用一个简单的sigmoid运算符,得到如下结果:
R=σ(n) (1.8)
其中,R表示空间注意力分支应用sigmoid运算符之后得到的输出特征图,σ表示sigmoid运算符;
再将上一步得到的输出结果与第二个分支应用一个通道像素乘积算子得到输出特征图G,可写为:
G=Q·R (1.9)
然后,在上一步得到的输出特征图G与特征图X之间运用一个通道像素求和算子得到输出特征图Y,可写为:
Y=X·G (1.10)
最后,对上一步得到的输出特征图Y应用一个非极大值抑制函数输出目标检测结果。
本发明由于采用以上技术方案,使之与现有技术相比,具有以下的优点和积极效果:
本发明设计一种多特征融合模块,提高目标检测模型的多特征表示能力。检测网络的四条输出分支通过多尺度聚合模块自上而下的增强了网络的多尺度检测能力。在预测模块中使用空间注意力,使网络更好地定位物体的位置信息。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。显而易见,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图中:
图1是本发明的整体流程示意图;
图2是本发明基于多尺度融合的快速目标检测网络的结构图;
图3是本发明多特征融合模块的结构图;
图4是本发明空间注意力构建块的结构图;
图5是本发明具有空间注意力构建块的残差预测模块的结构图。
具体实施方式
以下将结合本发明的附图,对本发明实施例中的技术方案进行清楚、完整的描述和讨论,显然,这里所描述的仅仅是本发明的一部分实例,并不是全部的实例,基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1所示,本实施例公开了一种基于多尺度融合的快速目标检测方法,包括以下步骤:
步骤S1:将待检测图像输入Darknet53特征提取器提取待检测图像特征图;
步骤S2:将步骤S1中Darknet53特征提取器提取的特征图输入至多特征融合模块;
所述多特征融合模块包括以下步骤:
图2显示了基于多尺度融合的快速目标检测网络的结构图,图3显示了多特征融合模块的结构图。如图2所示,我们目标检测网络的输出包括四个分支,每个输出分支都含有一个多特征融合模块。如图3所示,一个多特征融合模块由卷积核为3×3、1×3、3×1三个平行分支组成,对于多特征融合模块中的一个分支,I∈M×N×D表示卷积层的输入,使用F=[g1,g2,…,gc]表示学习的卷积核集,其中gc表示对应的第c个卷积核的参数,U∈H×W×C表示卷积层的输出,H、W、C分别表示输出特征图的高度、宽度、通道数,对于该层的第c个滤波器,对应的输出特征图通道为:
Figure BDA0002555357730000061
其中,*表示卷积,gcK×K×D,U=[V1,V2,...,VC],
Figure BDA0002555357730000062
I=[Y1,Y2,...,YD]和
Figure BDA0002555357730000063
表示gc的单个通道的二维空间核,Vc表示U的第c个输出特征图通道,Ys表示I的第s个输入特征图通道;
为了减少过拟合,在卷积层之后采用批量归一化操作,批处理后的归一化层进行线性尺度变换以增强网络的表示能力,输出特征映射通道变为:
Figure BDA0002555357730000064
其中,uc和σc表示通道平均值和批量归一化的标准偏差,γc和βc分别表示学习尺度因子和偏差项;
最终,可学习的权重被添加到多特征融合模块的三个分支中,对应的融合输出特征图通道可以计算为:
Figure BDA0002555357730000065
其中,Vfusion c表示三个平行分支对应的第c个融合输出特征图通道,
Figure BDA0002555357730000066
Figure BDA0002555357730000067
表示三个平行分支的相应权重和相应第c个输出特征图通道,其中i∈{1,2,3}。
步骤S3:将步骤S2中多特征融合模块获得的特征信息输入至多尺度聚合模块;
所述多尺度聚合模块包括以下步骤:
图3显示中显示了多尺度聚合模块的结构,步骤S3中所述多尺度聚合模块由两个操作符组成,分别为一个上采样操作和一个特征图拼接(Concatenate)操作,所述上采样操作将来自顶层的特征图的尺寸扩大一倍,用于和底层的特征图进行拼接(Concatenate)操作。
步骤S4:将步骤S3中多尺度聚合模块获得的特征信息输入至具有通道注意力机制的残差预测模块,输出目标检测结果。
所述具有空间注意力构建块的残差预测模块包括以下步骤::
图4显示了空间注意力构建块的结构图,图5显示了具有空间注意力构建块的残差预测模块的结构图。对于输入空间注意力构建块的特征图Q=[q1,q2,…,qc],首先我们进行两个变换Hmean
Figure BDA0002555357730000071
和Hmax:U→V∈H×W×1,Hmean和Hmax指的分别是沿相应通道轴的全局平均池化和全局最大池化操作,将上一步两个变换获得的特征图
Figure BDA0002555357730000074
和v拼接在一起以创建空间注意力图M′∈H×W×2
Figure BDA0002555357730000072
其中,cat表示拼接函数,然后通过大小为7×7的卷积核对空间注意力图M′进行卷积以产生2D空间注意力图M″∈H×W
M″=F7×7(cat(Hmean(U),Hmax(U))) (1.5)
其中,F7×7表示卷积核大小为7×7的卷积运算,在上一步骤中生成的2D空间注意图M″基础上,生成多维空间注意图M∈H×W×C
M=F1×1(F7×7(cat(Hmean(U),Hmax(U)))) (1.6)
其中,F1×1表示卷积核大小为1×1的卷积运算,然后,使用全局平均池来生成通道统计量,通过将M缩小到其空间维度H×W来生成统计量n∈C,使得统计量n的第c个元素通过以下公式计算:
Figure BDA0002555357730000073
其中,Fga(·)表示全局平均池操作符,mc表示特征图Q的第c个通道特征图,mc(i,j)表示特征图Q的第c个通道上位置为(i,j)的像素点;
之后,对空间注意力构建块的输出结果应用一个简单的sigmoid运算符,得到如下结果:
R=σ(n) (1.8)
其中,R表示空间注意力分支应用sigmoid运算符之后得到的输出特征图,σ表示sigmoid运算符;
再将上一步得到的输出结果与第二个分支应用一个通道像素乘积算子得到输出特征图G,可写为:
G=Q·R (1.9)
然后,在上一步得到的输出特征图G与特征图X之间运用一个通道像素求和算子得到输出特征图Y,可写为:
Y=X·G (1.10)
最后,对上一步得到的输出特征图Y应用一个非极大值抑制函数输出目标检测结果。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (4)

1.一种基于多尺度融合的快速目标检测方法,其特征在于,包括以下步骤:
步骤S1:将待检测图像输入Darknet53特征提取器提取待检测图像特征图;
步骤S2:将步骤S1中Darknet53特征提取器提取的特征图输入至多特征融合模块;
步骤S3:将步骤S2中多特征融合模块获得的特征信息输入至多尺度聚合模块;
步骤S4:将步骤S3中多尺度聚合模块获得的特征信息输入至具有空间注意力机制的残差预测模块,输出目标检测结果。
2.根据权利要求1所述的一种基于多尺度融合的快速目标检测方法,其特征在于,步骤S2具体包括以下内容:
一个多特征融合模块由卷积核为3×3、1×3、3×1三个平行分支组成,对于多特征融合模块中的一个分支,I∈M×N×D表示卷积层的输入,使用F=[g1,g2,…,gc]表示学习的卷积核集,其中gc表示对应的第c个卷积核的参数,U∈H×W×C表示卷积层的输出,H、W、C分别表示输出特征图的高度、宽度、通道数,对于该层的第c个滤波器,对应的输出特征图通道为:
Figure FDA0002555357720000011
其中,*表示卷积,gcK×K×D,U=[V1,V2,...,VC],
Figure FDA0002555357720000012
I=[Y1,Y2,...,YD]和
Figure FDA0002555357720000013
表示gc的单个通道的二维空间核,Vc表示U的第c个输出特征图通道,Ys表示I的第s个输入特征图通道;
为了减少过拟合,在卷积层之后采用批量归一化操作,批处理后的归一化层进行线性尺度变换以增强网络的表示能力,输出特征映射通道变为:
Figure FDA0002555357720000021
其中,uc和σc表示通道平均值和批量归一化的标准偏差,γc和βc分别表示学习尺度因子和偏差项;
最终,可学习的权重被添加到多特征融合模块的三个分支中,对应的融合输出特征图通道可以计算为:
Figure FDA0002555357720000022
其中,Vfusion c表示三个平行分支对应的第c个融合输出特征图通道,Wi c和Vi c表示三个平行分支的相应权重和相应第c个输出特征图通道,其中i∈{1,2,3}。
3.根据权利要求2所述的一种基于多尺度融合的快速目标检测方法,其特征在于,步骤S3中所述多尺度聚合模块由两个操作符组成,分别为一个上采样操作和一个特征图拼接操作,所述上采样操作将来自顶层的特征图的尺寸扩大一倍,用于和底层的特征图进行拼接操作。
4.根据权利要求3所述的一种基于多尺度融合的快速目标检测方法,其特征在于,步骤S4具体包括以下内容:
对于输入空间注意力构建块的特征图Q=[q1,q2,…,qc],首先我们进行两个变换Hmean
Figure FDA0002555357720000025
和Hmax:U→V∈H×W×1,Hmean和Hmax指的分别是沿相应通道轴的全局平均池化和全局最大池化操作,将上一步两个变换获得的特征图
Figure FDA0002555357720000027
和v拼接在一起以创建空间注意力图M′∈H×W×2
Figure FDA0002555357720000026
其中,cat表示拼接函数,然后通过大小为7×7的卷积核对空间注意力图M′进行卷积以产生2D空间注意力图M″∈H×W
M″=F7×7(cat(Hmean(U),Hmax(U))) (1.5)
其中,F7×7表示卷积核大小为7×7的卷积运算,在上一步骤中生成的2D空间注意图M″基础上,生成多维空间注意图M∈H×W×C
M=F1×1(F7×7(cat(Hmean(U),Hmax(U)))) (1.6)
其中,F1×1表示卷积核大小为1×1的卷积运算,然后,使用全局平均池来生成通道统计量,通过将M缩小到其空间维度H×W来生成统计量n∈C,使得统计量n的第c个元素通过以下公式计算:
Figure FDA0002555357720000031
其中,Fga(·)表示全局平均池操作符,mc表示特征图Q的第c个通道特征图,mc(i,j)表示特征图Q的第c个通道上位置为(i,j)的像素点;
之后,对空间注意力构建块的输出结果应用一个简单的sigmoid运算符,得到如下结果:
R=σ(n) (1.8)
其中,R表示空间注意力分支应用sigmoid运算符之后得到的输出特征图,σ表示sigmoid运算符;
再将上一步得到的输出结果与第二个分支应用一个通道像素乘积算子得到输出特征图G,可写为:
G=Q·R (1.9)
然后,在上一步得到的输出特征图G与特征图X之间运用一个通道像素求和算子得到输出特征图Y,可写为:
Y=X·G (1.10)
最后,对上一步得到的输出特征图Y应用一个非极大值抑制函数输出目标检测结果。
CN202010595268.XA 2020-06-24 2020-06-24 一种基于多尺度融合的快速目标检测方法 Active CN111738344B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010595268.XA CN111738344B (zh) 2020-06-24 2020-06-24 一种基于多尺度融合的快速目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010595268.XA CN111738344B (zh) 2020-06-24 2020-06-24 一种基于多尺度融合的快速目标检测方法

Publications (2)

Publication Number Publication Date
CN111738344A true CN111738344A (zh) 2020-10-02
CN111738344B CN111738344B (zh) 2024-02-02

Family

ID=72651253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010595268.XA Active CN111738344B (zh) 2020-06-24 2020-06-24 一种基于多尺度融合的快速目标检测方法

Country Status (1)

Country Link
CN (1) CN111738344B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232232A (zh) * 2020-10-20 2021-01-15 城云科技(中国)有限公司 一种目标检测方法
CN112288690A (zh) * 2020-10-14 2021-01-29 武汉大学 一种融合多尺度多层级特征的卫星影像密集匹配方法
CN112488999A (zh) * 2020-11-19 2021-03-12 特斯联科技集团有限公司 一种图像中小目标检测方法、系统、存储介质及终端
CN112560907A (zh) * 2020-12-02 2021-03-26 西安电子科技大学 基于混合域注意力的有限像素红外无人机目标检测方法
CN112613544A (zh) * 2020-12-16 2021-04-06 北京迈格威科技有限公司 目标检测方法、装置、电子设备和计算机可读介质
CN113420729A (zh) * 2021-08-23 2021-09-21 城云科技(中国)有限公司 多尺度目标检测方法、模型、电子设备及其应用
CN113486908A (zh) * 2021-07-13 2021-10-08 杭州海康威视数字技术股份有限公司 目标检测方法、装置、电子设备及可读存储介质
CN114581318A (zh) * 2022-01-24 2022-06-03 广东省科学院智能制造研究所 一种低照明度图像增强方法及系统
CN115880614A (zh) * 2023-01-19 2023-03-31 清华大学 一种宽视场高分辨视频高效智能检测方法及系统
CN116152633A (zh) * 2023-04-18 2023-05-23 天津大学 一种基于空间特征表示的目标检测网络的检测方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871777A (zh) * 2019-01-23 2019-06-11 广州智慧城市发展研究院 一种基于注意力机制的行为识别系统
WO2020047738A1 (zh) * 2018-09-04 2020-03-12 安徽中科智能感知大数据产业技术研究院有限责任公司 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN111242127A (zh) * 2020-01-15 2020-06-05 上海应用技术大学 基于非对称卷积的具有粒度级多尺度特性的车辆检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020047738A1 (zh) * 2018-09-04 2020-03-12 安徽中科智能感知大数据产业技术研究院有限责任公司 多尺度特征融合网络结合定位模型的害虫自动计数方法
CN109871777A (zh) * 2019-01-23 2019-06-11 广州智慧城市发展研究院 一种基于注意力机制的行为识别系统
CN111242127A (zh) * 2020-01-15 2020-06-05 上海应用技术大学 基于非对称卷积的具有粒度级多尺度特性的车辆检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘涛;汪西莉;: "采用卷积核金字塔和空洞卷积的单阶段目标检测", 中国图象图形学报, no. 01 *
项圣凯;曹铁勇;方正;洪施展;: "使用密集弱注意力机制的图像显著性检测", 中国图象图形学报, no. 01 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112288690B (zh) * 2020-10-14 2023-08-18 武汉大学 一种融合多尺度多层级特征的卫星影像密集匹配方法
CN112288690A (zh) * 2020-10-14 2021-01-29 武汉大学 一种融合多尺度多层级特征的卫星影像密集匹配方法
CN112232232A (zh) * 2020-10-20 2021-01-15 城云科技(中国)有限公司 一种目标检测方法
CN112232232B (zh) * 2020-10-20 2022-09-27 城云科技(中国)有限公司 一种目标检测方法
CN112488999A (zh) * 2020-11-19 2021-03-12 特斯联科技集团有限公司 一种图像中小目标检测方法、系统、存储介质及终端
CN112488999B (zh) * 2020-11-19 2024-04-05 特斯联科技集团有限公司 一种图像中小目标检测方法、系统、存储介质及终端
CN112560907A (zh) * 2020-12-02 2021-03-26 西安电子科技大学 基于混合域注意力的有限像素红外无人机目标检测方法
CN112560907B (zh) * 2020-12-02 2024-05-28 西安电子科技大学 基于混合域注意力的有限像素红外无人机目标检测方法
CN112613544A (zh) * 2020-12-16 2021-04-06 北京迈格威科技有限公司 目标检测方法、装置、电子设备和计算机可读介质
CN113486908A (zh) * 2021-07-13 2021-10-08 杭州海康威视数字技术股份有限公司 目标检测方法、装置、电子设备及可读存储介质
CN113486908B (zh) * 2021-07-13 2023-08-29 杭州海康威视数字技术股份有限公司 目标检测方法、装置、电子设备及可读存储介质
CN113420729A (zh) * 2021-08-23 2021-09-21 城云科技(中国)有限公司 多尺度目标检测方法、模型、电子设备及其应用
CN114581318A (zh) * 2022-01-24 2022-06-03 广东省科学院智能制造研究所 一种低照明度图像增强方法及系统
CN115880614A (zh) * 2023-01-19 2023-03-31 清华大学 一种宽视场高分辨视频高效智能检测方法及系统
CN116152633A (zh) * 2023-04-18 2023-05-23 天津大学 一种基于空间特征表示的目标检测网络的检测方法和系统

Also Published As

Publication number Publication date
CN111738344B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
CN111738344A (zh) 一种基于多尺度融合的快速目标检测方法
Wang et al. Detect globally, refine locally: A novel approach to saliency detection
CN109583483B (zh) 一种基于卷积神经网络的目标检测方法和系统
CN105938559B (zh) 使用卷积神经网络的数字图像处理
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN111860171B (zh) 一种大规模遥感图像中不规则形状目标的检测方法及系统
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN107808129B (zh) 一种基于单个卷积神经网络的面部多特征点定位方法
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN111242127B (zh) 基于非对称卷积的具有粒度级多尺度特性的车辆检测方法
CN111160269A (zh) 一种人脸关键点检测方法及装置
CN108171133B (zh) 一种基于特征协方差矩阵的动态手势识别方法
CN110059728B (zh) 基于注意力模型的rgb-d图像视觉显著性检测方法
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN110222718B (zh) 图像处理的方法及装置
Lee et al. Joint estimation of age and gender from unconstrained face images using lightweight multi-task cnn for mobile applications
CN110751195B (zh) 一种基于改进YOLOv3的细粒度图像分类方法
WO2021047587A1 (zh) 手势识别方法、电子设备、计算机可读存储介质和芯片
CN110827312A (zh) 一种基于协同视觉注意力神经网络的学习方法
CN112580458A (zh) 人脸表情识别方法、装置、设备及存储介质
CN110852199A (zh) 一种基于双帧编码解码模型的前景提取方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN115115825B (zh) 图像中的对象检测方法、装置、计算机设备和存储介质
CN110532959B (zh) 基于双通道三维卷积神经网络的实时暴力行为检测系统
CN114707604A (zh) 一种基于时空注意力机制的孪生网络跟踪系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant