CN113011384B - 一种基于轻量化卷积的无锚框目标检测方法 - Google Patents

一种基于轻量化卷积的无锚框目标检测方法 Download PDF

Info

Publication number
CN113011384B
CN113011384B CN202110390662.4A CN202110390662A CN113011384B CN 113011384 B CN113011384 B CN 113011384B CN 202110390662 A CN202110390662 A CN 202110390662A CN 113011384 B CN113011384 B CN 113011384B
Authority
CN
China
Prior art keywords
corner
convolution
offset
pooling
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110390662.4A
Other languages
English (en)
Other versions
CN113011384A (zh
Inventor
袁正午
寇思佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202110390662.4A priority Critical patent/CN113011384B/zh
Publication of CN113011384A publication Critical patent/CN113011384A/zh
Application granted granted Critical
Publication of CN113011384B publication Critical patent/CN113011384B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于轻量化卷积的无锚框目标检测方法,属于计算机视觉目标检测领域。该方法包括:S1:构造轻量化的骨干网络,并输入图片到轻量化的骨干网络中,提取特征图;S2:根据得到的特征图进行左上角点和右下角点的池化操作;S3:池化后的左上角点、右下角点都分别进行十字星变形卷积与角点预测操作;S4:根据预测的角点和向心位移算法进行角点匹配,由预测边界框的得分输出最终结果。本发明采用的无锚框的设计思想,在训练过程中可以解决正负样本不平衡,超参数设计复杂,锚框的复杂计算等问题,同时轻量化的骨干网络可以达到有效压缩网络模型,降低模型参数量,减少计算资源消耗,提升运算速度的效果。

Description

一种基于轻量化卷积的无锚框目标检测方法
技术领域
本发明属于计算机视觉目标检测领域,涉及一种基于轻量化卷积的无锚框目标检测方法。
背景技术
随着深度学习的迅速发展,目标检测受到越来越多研究者的关注,用锚框来确定目标物体的位置是目标检测中常用的方法,近年来引入了无锚框的设计思想,基于无锚框的目标检测抛开大量先验候选框的思想,直接对目标物体进行分类和预测位置。相比于之前基于锚框的方法,有更多的优点:减少超参数的使用;减少大量的内存资源消耗;解决正负样本不平衡的问题等等。因此基于无锚框的目标检测在自动驾驶、移动娱乐、视频监控等领域具有重要的研究价值和广泛的应用前景。
基于无锚框的经典网络模型如CornerNet、CenterNet,其中CenterNet网络模型是利用物体定位边框的角点和中心点来实现目标的分类与回归,其效果不低于准确度较高的基于锚框的网络模型。尽管基于无锚框的网络模型有着较高的预测精度,但也避免不了存在着一些缺陷:用来定位物体位置的边界框角点大都位于物体之外,不能充分地表达目标内部的信息;对于多个相同的物体,容易造成误检与漏检;训练过程中产生大量的参数等等,这都与主干网络的选取有着一定的联系。
因此选取轻量化的骨干网络,可以较好地压缩网络模型,减少计算资源消耗,降低模型参数量,提升运算速度。在相同计算资源的情况下,轻量化的网络模型有着更高的检测效率,同时在自动驾驶、无人机等领域有着广泛的应用前景,这也是未来研究人员越来越关注的方向。
发明内容
有鉴于此,本发明的目的在于提供一种基于轻量化卷积的无锚框目标检测方法,该方法采用的无锚框的设计思想,在训练过程中可以解决正负样本不平衡,超参数设计复杂,锚框的复杂计算等问题,同时使用轻量化的骨干网络可以达到有效压缩网络模型,降低模型参数量,减少计算资源消耗,提升运算速度的效果。
为达到上述目的,本发明提供如下技术方案:
一种基于轻量化卷积的无锚框目标检测方法,包括以下步骤:
S1:构造轻量化的骨干网络,并输入图片到轻量化的骨干网络中,提取特征图;
S2:根据得到的特征图进行左上角点和右下角点的池化操作;
S3:池化后的左上角点、右下角点都分别进行十字星变形卷积与角点预测操作;
S4:根据预测的角点和向心位移算法进行角点匹配,由预测边界框的得分输出最终结果。
进一步,步骤S1中,构造轻量化的骨干网络包括以下步骤:
S11:构造基本卷积模块,包括:构造分离特征模块;所述分离特征模块采用通道分离,深度卷积,通道拼接和通道重排等操作,构造成残差结构,融入了步长为2的下采样卷积和步长为1基本卷积;进行通道分离后的左右两个分支,分别进行卷积,池化和正则化等一系列操作后,进行通道数拼接,使输入和输出通道数相同;
S12:构造骨干网络:由步长为2的下采样卷积和步长为1基本卷积交替出现,融入分离特征模块中,层层串联构成。骨干网络分为3个阶段,由基本卷积模块层层串联构成;阶段2包括4个卷积块,阶段3包括7个卷积块,输入维度为(511,511,3)的图片,进行卷积和最大池化操作后,输出维度是(256,256,24),接着进行阶段2、3的操作。
进一步,步骤S11中,基本卷积模块中,分为两种卷积模块;第一类卷积块:通道分离后分为左右分支,左分支进行Conv2D,批处理归一化,Relu激活,DepthWiseConv2D,批处理归一化等融合操作;右分支进行DepthWiseConv2D,批处理归一化,Conv2D,Relu激活等融合操作;第二类卷积模块:左分支相较第一类卷积模块多了一层通道乱序的Lambda层,右分支只有一个通道乱序的Lambda层;同时在各个卷积模块之间加入一个通道乱序的Lambda层,最后将左右分支的输出进行通道拼接;其中Convn2D步长为1,DepthWiseConv2D步长为2,左右分支的通道数都为256,经过阶段2、3后,模型的输出维度为(128,128,256)。
进一步,步骤S2中,从得到的特征图进行左上角点和右下角点的池化的操作,包括:骨干网络输出的特征图进入池化层中,分别作水平方向与垂直方向上的最大池化得到相对应的特征图,将这两个特征图进行元素相加,得到最终的池化结果。
进一步,步骤S3中,将池化后的左上角点、右下角点都分别进行十字星变形卷积与角点预测操作,具体包括以下步骤:
S31:角点预测:角池化通过保留最大值和求和操作,输出左上角点和右下角点的热度图进行角点预测;输出的每一个热度图集都有C个通道,C表示类别数,并且每一个通道的尺寸为H×W,每一个通道都是一个二值的掩码,来表示每一类物体在图中角点的位置;
S32:十字星变形卷积:经过角池化后会将目标内部信息沿“十字星”边框扩展到角点处,产生一些十字交叉的特征,通过池化后的不确定的角点范围,卷积核可以在当前位置附近随意的采样,再对每个采样点的位置都增加一个偏移变量,通过引导偏移可以更准确地确定角点的正确位置。
进一步,步骤S32中,所述偏移量是在边缘位置附近随意采样获得的,角点池输出嵌入到特征映射中,采用的损失函数公式为:
Figure BDA0003016605510000031
其中,N表示训练样本中真实角点的数量,n为求和变量,δtl表示引导偏移后的左上角点,
Figure BDA0003016605510000032
表示由δtl得到的掩膜映射,δbr表示引导偏移后的右下角点,
Figure BDA0003016605510000033
表示由δbr得到的掩模映射,L1是SmoothL1损失函数。
所述引导偏移是引导角点向中心区域的偏移,定义为
Figure BDA0003016605510000034
其中,δ表示引导偏移,物体i的边界框的坐标bboxi=(tlxi,tlyi,brxi,bryi),几何中心坐标是(ctxi,ctyi)。
进一步,步骤S4中,根据预测角点和向心位移算法进行角点匹配,具体包括:给定一对角点,为每个角点定义一个二维向量,向心偏移对角点到边界框中心点的空间偏移进行编码,这样每个角点都可以根据向心偏移生成一个中心点,是否匹配是由两个和该匹配的几何中心之间的距离来表示,如果两个角点属于同一个边界框,则它们生成的中心点是接近的。
进一步,步骤S4中,向心偏移:从角点到中心到偏移区域分支的偏移,该偏移包含形状和方向信息,通过偏移算法来判断同属于同一个目标的角点。
设物体i的边界框的坐标为bboxi=(tlxi,tlyi,brxi,bryi),几何中心坐标为
Figure BDA0003016605510000035
通过向心偏移,分别解码左上角和右下角的中心(tlctx,tlcty)和(brctx,brcty);
左上角点向心偏移定义为:
Figure BDA0003016605510000036
右下角点向心偏移定义为:
Figure BDA0003016605510000037
训练过程中,在真实角点的位置使用SmoothL1损失函数进行预测优化,公式如下:
Figure BDA0003016605510000038
其中,L1是SmoothL1损失,N是训练样本中真实角点的数量,
Figure BDA0003016605510000041
是由
Figure BDA0003016605510000042
得到的掩膜映射。
进一步,步骤S4中,角点匹配:从角点热图和局部偏移特征图中获得角点,对属于同一类别的角点进行分组,满足tlx<brx∧tly<bry的条件,即可构造预测的边界框。对于每个边界框,将其得分设置为其角点置信度的几何平均值,将每个边界框的中心区域定义为Rcentral={(x,y)|x∈[ctlx,cbrx],y∈[ctly,cbry]},那么Rcentral的角点计算公式如下:
Figure BDA0003016605510000043
Figure BDA0003016605510000044
Figure BDA0003016605510000045
Figure BDA0003016605510000046
其中,0<μ≤1表示中心区域的宽度和高度是边界框的宽度和高度的μ倍。
进一步,步骤S4中,角点是根据向心偏移算法生成的中心点是否足够接近判断是否匹配,计算所有角点对中心区域的权重,选取得分最高的作为候选框,输出最终的预测结果。
计算满足
Figure BDA0003016605510000047
的预测边界框的得分权重Wj,公式如下:
Figure BDA0003016605510000048
其中,对于其他边界框,将Wj设置为0,最后通过与权重的乘积来预测边界框进行重新评分,意味着回归中心越接近,预测框的得分权重越高。
最终采用的多任务的损失函数如下公式:
Figure BDA0003016605510000049
其中,Ldet表示角点检测的损失,Loff表示位置偏差的损失,Lcs表示向心偏移的损失,
Figure BDA00030166055100000410
设置为0.5。
本发明的有益效果在于:本发明采用了轻量化的骨干网络,以及无锚框的设计思想,可以有效的解决正负样本不平衡,超参数设计复杂的问题,有效地压缩网络模型,降低模型的参数量,减少计算资源消耗,提升运算速度;在自动驾驶、移动娱乐、视频监控等领域具有重要的研究意义。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明基于轻量化卷积的无锚框目标检测方法的流程示意图;
图2为本发明方法网络结构中卷积块的大致示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1~图2,如图1所示,本发明所揭示的是一种基于轻量化卷积的无锚框目标检测方法,详细步骤如下:
步骤1):输入图片到轻量化的骨干网络中,提取特征图,其中轻量化的骨干网络详细结构:
(1)基本卷积模块,分离特征模块采用了通道分离、深度卷积、通道拼接、通道重排等操作,融入了步长为2的下采样卷积和步长为1基本卷积;进行通道分离后的左右两个分支,分别进行卷积、池化、正则化等一系列操作后,进行通道数拼接,使输入和输出通道数相同。
基本卷积模块中,分为两种卷积模块。第一类卷积块:通道分离后分为左右分支,左分支进行Conv2D,批处理归一化,Relu激活,DepthWiseConv2D,批处理归一化等融合操作;右分支进行DepthWiseConv2D,批处理归一化,Conv2D,Relu激活等融合操作;第二类卷积模块:左分支相较第一类卷积模块多了一层通道乱序的Lambda层,右分支只有一个通道乱序的Lambda层;同时在各个卷积模块之间加入一个通道乱序的Lambda层,最后将左右分支的输出进行通道拼接。其中Convn2D步长为1,DepthWiseConv2D步长为2,左右分支的通道数都为256,经过阶段2、3后,模型的输出维度为(128,128,256)。
(2)骨干网络:骨干网络分为3个阶段,由基本卷积模块层层串联构成。阶段2包括4个卷积块,阶段3包括7个卷积块,输入维度为(511,511,3)的图片,进行卷积和最大池化操作后,输出维度是(256,256,24),接着进行阶段2、3的操作。
构造骨干网络:模型将输入(511,511,3)的图片先进行卷积和最大池化操作得到输出的维度是(256,256,24),将输出传入4个卷积块进行运算。第一个卷积块分为左右两个分支,左边分支依次包含Conv2D,批处理归一化,Relu激活,DepthWiseConv2D,批处理归一化,Conv2D,批处理归一化,Relu激活,共8层网络结构组成,右边分支包括DepthWiseConv2D,批处理归一化,Conv2D,批处理归一化,Relu,共5层网络结构组成;第二三四个卷积模块的左分支相较第一个卷积模块多了一层通道乱序的Lambda层,而右边分支都只有一个通道乱序的Lambda层;各个卷积模块之间加入一个通道乱序的Lambda层。第一个卷积块中Convn2D步长为1,DepthWiseConv2D步长为2,左右分支的通道数都设置为128,然后将左右分支的输出进行通道拼接,得到输出的维度是(128,128,256),后面的3个卷积块,Convn2D和DepthWiseConvn步长都为1,左右分支的通道数都为256,经过这3个卷积块,模型的维度没有变化,还是为(128,128,256)。
步骤2):从得到的特征图进行左上角点和右下角点的池化操作:骨干网络输出的特征图进入池化层中,分别作水平方向与垂直方向上的最大池化得到相对应的特征图,将这两个特征图进行元素相加,得到最终的池化结果。
步骤3):将池化后的左上角点、右下角点分别进行特征自适应和交叉十字星操作,操作步骤如下:
3.1)角点预测:角池化通过保留最大值和求和操作,输出左上角点和右下角点的热度图进行角点预测。输出的每一个热度图集都有C个通道,C表示类别数,并且每一个通道的尺寸为H×W,每一个通道都是一个二值的掩码,来表示每一类物体在图中角点的位置。
3.2)十字星变形卷积:经过角池化后会将目标内部信息沿“十字星”边框扩展到角点处,产生一些十字交叉的特征,通过池化后的不确定的角点范围,卷积核可以在当前位置附近随意的采样,再对每个采样点的位置都增加一个偏移变量,通过引导偏移可以更准确地确定角点的正确位置。其中,
偏移量是在边缘位置附近随意采样获得的,角点池输出嵌入到特征映射中,采用的损失函数公式如下:
Figure BDA0003016605510000061
其中,N表示训练样本中真实角点的数量,n为求和变量,δtl表示引导偏移后的左上角点,
Figure BDA0003016605510000062
表示由δtl得到的掩膜映射,δbr表示引导偏移后的右下角点,
Figure BDA0003016605510000063
表示由δbr得到的掩模映射,L1是SmoothL1损失函数。
引导偏移是引导角点向中心区域的偏移,定义为
Figure BDA0003016605510000071
其中,δ表示引导偏移,物体i的边界框的坐标bboxi=(tlxi,tlyi,brxi,bryi),几何中心坐标是(ctxi,ctyi)。
步骤4):根据预测角点和向心位移算法进行角点匹配,由预测边界框的得分输出最终的预测结果,过程如下:给定一对角点,为每个角点定义一个二维向量,向心偏移对角点到边界框中心点的空间偏移进行编码,这样每个角点都可以根据向心偏移生成一个中心点,是否匹配是由两个角点和该匹配的几何中心之间的距离来表示,如果两个角点属于同一个边界框,则它们生成的中心点是接近的;同时划定一个中心区域,计算所有角点对中心区域的权重,选取得分最高的作为候选框,然后输出最终的预测结果。
其中向心偏移和角点匹配是重要的步骤。
(1)向心偏移:从角点到中心到偏移区域分支的偏移,该偏移包含形状和方向信息,通过偏移算法来判断同属于同一个目标的角点。
设物体i的边界框的坐标为bboxi=(tlxi,tlyi,brxi,bryi),几何中心坐标为
Figure BDA0003016605510000072
通过向心偏移,分别解码左上角和右下角的中心(tlctx,tlcty)和(brctx,brcty);
左上角点向心偏移定义为:
Figure BDA0003016605510000073
右下角点向心偏移定义为:
Figure BDA0003016605510000074
训练过程中,在真实角点的位置使用SmoothL1损失函数进行预测优化,公式如下:
Figure BDA0003016605510000075
其中,L1是SmoothL1损失,N是训练样本中真实角点的数量,
Figure BDA0003016605510000076
是由
Figure BDA0003016605510000077
得到的掩膜映射。
(2)角点匹配:从角点热图和局部偏移特征图中获得角点,对属于同一类别的角点进行分组,满足tlx<brx∧tly<bry的条件,即可构造预测的边界框。对于每个边界框,将其得分设置为其角点置信度的几何平均值,将每个边界框的中心区域定义为Rcentral={(x,y)|x∈[ctlx,cbrx],y∈[ctly,cbry]},那么Rcentral的角点计算公式如下:
Figure BDA0003016605510000081
Figure BDA0003016605510000082
Figure BDA0003016605510000083
Figure BDA0003016605510000084
其中,0<μ≤1表示中心区域的宽度和高度是边界框的宽度和高度的μ倍。
(3)角点是根据向心偏移算法生成的中心点是否足够接近判断是否匹配,计算所有角点对中心区域的权重选取得分最高的作为候选框。
计算满足
Figure BDA0003016605510000085
的预测边界框的得分权重Wj,公式如下:
Figure BDA0003016605510000086
其中,对于其他边界框,将Wj设置为0,最后通过与权重的乘积来预测边界框进行重新评分,意味着回归中心越接近,预测框的得分权重越高。
最终采用的多任务的损失函数如下公式:
Figure BDA0003016605510000087
其中,Ldet表示角点检测的损失,Loff表示位置偏差的损失,Lcs表示向心偏移的损失,
Figure BDA0003016605510000088
设置为0.5。
最后根据预测边界框的得分,最高者即为预测边框,输出最终预测结果。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (7)

1.一种基于轻量化卷积的无锚框目标检测方法,其特征在于,该方法包括以下步骤:
S1:构造轻量化的骨干网络,并输入图片到轻量化的骨干网络中,提取特征图;
S2:根据得到的特征图进行左上角点和右下角点的池化操作;
S3:池化后的左上角点、右下角点都分别进行十字星变形卷积与角点预测操作;
S4:根据预测的角点和向心位移算法进行角点匹配,由预测边界框的得分输出最终结果;
步骤S1中,构造轻量化的骨干网络包括以下步骤:
S11:构造基本卷积模块,包括:构造分离特征模块;所述分离特征模块采用通道分离,深度卷积,通道拼接和通道重排的操作,构造成残差结构进行通道分离后的左右两个分支,分别进行卷积,池化和正则化,进行通道数拼接,使输入和输出通道数相同;
基本卷积模块中,分为两种卷积模块;第一类卷积块:通道分离后分为左右分支,左分支进行Conv2D,批处理归一化,Relu激活,DepthWiseConv2D,批处理归一化;右分支进行DepthWiseConv2D,批处理归一化,Conv2D,Relu激活;第二类卷积模块:左分支相较第一类卷积模块多了一层通道乱序的Lambda层,右分支只有一个通道乱序的Lambda层;同时在各个卷积模块之间加入一个通道乱序的Lambda层,最后将左右分支的输出进行通道拼接;
S12:构造骨干网络:由步长为2的下采样卷积和步长为1基本卷积交替出现,融入分离特征模块中,层层串联构成;
步骤S2中,从得到的特征图进行左上角点和右下角点的池化的操作,包括:骨干网络输出的特征图进入池化层中,分别作水平方向与垂直方向上的最大池化得到相对应的特征图,将这两个特征图进行元素相加,得到最终的池化结果。
2.根据权利要求1所述的无锚框目标检测方法,其特征在于,步骤S3中,将池化后的左上角点、右下角点都分别进行十字星变形卷积与角点预测操作,具体包括以下步骤:
S31:角点预测:角池化通过保留最大值和求和操作,输出左上角点和右下角点的热度图进行角点预测;输出的每一个热度图集都有C个通道,C表示类别数,并且每一个通道的尺寸为H×W,每一个通道都是一个二值的掩码,来表示每一类物体在图中角点的位置;
S32:十字星变形卷积:经过角池化后会将目标内部信息沿“十字星”边框扩展到角点处,产生十字交叉的特征,通过池化后的不确定的角点范围,卷积核在当前位置附近随意的采样,再对每个采样点的位置都增加一个偏移变量,通过引导偏移更准确地确定角点的正确位置。
3.根据权利要求2所述的无锚框目标检测方法,其特征在于,步骤S32中,所述偏移变量是在边缘位置附近随意采样获得的,角点池输出嵌入到特征映射中,采用的损失函数公式为:
Figure FDA0003878106050000021
其中,N表示训练样本中真实角点的数量,n为求和变量,δtl表示引导偏移后的左上角点,
Figure FDA0003878106050000022
表示由δtl得到的掩膜映射,δbr表示引导偏移后的右下角点,
Figure FDA0003878106050000023
表示由δbr得到的掩膜映射,L1是SmoothL1损失函数;
所述引导偏移是引导角点向中心区域的偏移,定义为
Figure FDA0003878106050000024
其中,δ表示引导偏移,物体i的边界框的坐标bboxi=(tlxi,tlyi,brxi,bryi),几何中心坐标是(ctxi,ctyi)。
4.根据权利要求1所述的无锚框目标检测方法,其特征在于,步骤S4中,根据预测角点和向心位移算法进行角点匹配,具体包括:给定一对角点,为每个角点定义一个二维向量,向心偏移对角点到边界框中心点的空间偏移进行编码,这样每个角点根据向心偏移生成一个中心点,是否匹配是由两个和该匹配的几何中心之间的距离来表示,如果两个角点属于同一个边界框,则它们生成的中心点是接近的。
5.根据权利要求4所述的无锚框目标检测方法,其特征在于,步骤S4中,所述向心偏移:从角点到中心到偏移区域分支的偏移,该偏移包含形状和方向信息,通过偏移算法来判断同属于同一个目标的角点。
6.根据权利要求4所述的无锚框目标检测方法,其特征在于,步骤S4中,所述角点匹配:从角点热图和局部偏移特征图获得角点,对属于同一类别的角点进行分组,满足特定的条件,即可构造预测的边界框。
7.根据权利要求4所述的无锚框目标检测方法,其特征在于,步骤S4中,角点是根据向心偏移算法生成的中心点是否足够接近判断是否匹配,计算所有角点对中心区域的权重,选取得分最高的作为候选框,输出最终的预测结果。
CN202110390662.4A 2021-04-12 2021-04-12 一种基于轻量化卷积的无锚框目标检测方法 Active CN113011384B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110390662.4A CN113011384B (zh) 2021-04-12 2021-04-12 一种基于轻量化卷积的无锚框目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110390662.4A CN113011384B (zh) 2021-04-12 2021-04-12 一种基于轻量化卷积的无锚框目标检测方法

Publications (2)

Publication Number Publication Date
CN113011384A CN113011384A (zh) 2021-06-22
CN113011384B true CN113011384B (zh) 2022-11-25

Family

ID=76388440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110390662.4A Active CN113011384B (zh) 2021-04-12 2021-04-12 一种基于轻量化卷积的无锚框目标检测方法

Country Status (1)

Country Link
CN (1) CN113011384B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113822277B (zh) * 2021-11-19 2022-02-18 万商云集(成都)科技股份有限公司 基于深度学习目标检测的违规广告图片检测方法及系统
CN116340807B (zh) * 2023-01-10 2024-02-13 中国人民解放军国防科技大学 宽带频谱信号检测与分类网络

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299722A (zh) * 2018-08-16 2019-02-01 北京旷视科技有限公司 用于神经网络的特征图处理方法、装置和系统及存储介质
CN109657784A (zh) * 2018-12-25 2019-04-19 北京迈格威科技有限公司 神经网络创建方法和装置、图像处理方法和电子设备
CN110309837A (zh) * 2019-07-05 2019-10-08 北京迈格威科技有限公司 基于卷积神经网络特征图的数据处理方法及图像处理方法
CN110633731A (zh) * 2019-08-13 2019-12-31 杭州电子科技大学 一种基于交错感知卷积的单阶段无锚框目标检测方法
CN111476252A (zh) * 2020-04-03 2020-07-31 南京邮电大学 一种面向计算机视觉应用的轻量化无锚框目标检测方法
CN111967305A (zh) * 2020-07-01 2020-11-20 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN112101430A (zh) * 2020-08-28 2020-12-18 电子科技大学 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194270B (zh) * 2011-06-02 2012-11-07 杭州电子科技大学 基于启发信息的行人流量统计方法
CN111210474B (zh) * 2020-02-26 2023-05-23 上海麦图信息科技有限公司 一种获取机场飞机实时地面位置的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109299722A (zh) * 2018-08-16 2019-02-01 北京旷视科技有限公司 用于神经网络的特征图处理方法、装置和系统及存储介质
CN109657784A (zh) * 2018-12-25 2019-04-19 北京迈格威科技有限公司 神经网络创建方法和装置、图像处理方法和电子设备
CN110309837A (zh) * 2019-07-05 2019-10-08 北京迈格威科技有限公司 基于卷积神经网络特征图的数据处理方法及图像处理方法
CN110633731A (zh) * 2019-08-13 2019-12-31 杭州电子科技大学 一种基于交错感知卷积的单阶段无锚框目标检测方法
CN111476252A (zh) * 2020-04-03 2020-07-31 南京邮电大学 一种面向计算机视觉应用的轻量化无锚框目标检测方法
CN111967305A (zh) * 2020-07-01 2020-11-20 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN112101430A (zh) * 2020-08-28 2020-12-18 电子科技大学 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"CentripetalNet: Pursuing High-quality Keypoint Pairs for Object Detection";Zhiwei Dong等;《arXiv》;20200320;正文第1-10页 *
"ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design";Ningning Ma等;《arXiv》;20180730;正文第1-19页 *
"神经网络学习小记录47——ShuffleNetV2模型的复现详解";Bubbliiiing;《https://blog.csdn.net/weixin_44791964/article/details/105485513》;20200513;正文第1-3页 *
Zhiwei Dong等."CentripetalNet: Pursuing High-quality Keypoint Pairs for Object Detection".《arXiv》.2020, *

Also Published As

Publication number Publication date
CN113011384A (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN108647585B (zh) 一种基于多尺度循环注意力网络的交通标识符检测方法
CN111553193B (zh) 一种基于轻量级深层神经网络的视觉slam闭环检测方法
CN110378222B (zh) 一种输电线路防震锤目标检测与缺陷识别方法及装置
CN113011384B (zh) 一种基于轻量化卷积的无锚框目标检测方法
CN110660052A (zh) 一种基于深度学习的热轧带钢表面缺陷检测方法
CN111402227B (zh) 一种桥梁裂缝检测方法
CN110991444B (zh) 面向复杂场景的车牌识别方法及装置
CN113221787B (zh) 基于多元差异性融合的行人多目标跟踪方法
CN110633738B (zh) 一种用于工业零件图像的快速分类方法
CN113177560A (zh) 一种普适性轻量级深度学习车辆检测方法
CN114913150B (zh) 一种混凝土大坝缺陷时序图像智能识别方法
CN115049619B (zh) 一种针对复杂场景的高效瑕疵检测方法
CN113420643A (zh) 基于深度可分离空洞卷积的轻量级水下目标检测方法
CN114463759A (zh) 一种基于无锚框算法的轻量化文字检测方法及装置
CN116228792A (zh) 一种医学图像分割方法、系统及电子装置
CN116844126A (zh) 一种基于YOLOv7改进的复杂道路场景目标检测方法
CN111339967A (zh) 一种基于多视域图卷积网络的行人检测方法
CN111222534A (zh) 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法
CN112967271B (zh) 一种基于改进DeepLabv3+网络模型的铸件表面缺陷识别方法
CN113468994A (zh) 基于加权采样和多分辨率特征提取的三维目标检测方法
CN117496384A (zh) 一种无人机图像物体检测方法
CN117593243A (zh) 可靠伪标签引导的压缩机外观自适应检测方法
CN115937736A (zh) 基于注意力和上下文感知的小目标检测方法
CN116051808A (zh) 一种基于YOLOv5的轻量化零件识别定位方法
CN116912670A (zh) 基于改进yolo模型的深海鱼类识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant