CN112733821A - 一种融合轻量级注意力模型的目标检测方法 - Google Patents

一种融合轻量级注意力模型的目标检测方法 Download PDF

Info

Publication number
CN112733821A
CN112733821A CN202110344079.XA CN202110344079A CN112733821A CN 112733821 A CN112733821 A CN 112733821A CN 202110344079 A CN202110344079 A CN 202110344079A CN 112733821 A CN112733821 A CN 112733821A
Authority
CN
China
Prior art keywords
attention
channel
model
spatial
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110344079.XA
Other languages
English (en)
Other versions
CN112733821B (zh
Inventor
黄进
付国栋
杨涛
郑思宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Xijiao Zhihui Big Data Technology Co ltd
Original Assignee
Chengdu Xijiao Zhihui Big Data Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Xijiao Zhihui Big Data Technology Co ltd filed Critical Chengdu Xijiao Zhihui Big Data Technology Co ltd
Priority to CN202110344079.XA priority Critical patent/CN112733821B/zh
Publication of CN112733821A publication Critical patent/CN112733821A/zh
Application granted granted Critical
Publication of CN112733821B publication Critical patent/CN112733821B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉中的目标检测技术领域,涉及一种融合轻量级注意力模型的目标检测方法。本发明针对目标检测中的两个问题提出了相应的解决办法,其一是针对注意力模型参数量大的问题提出通过一维卷积和空洞卷积来分别聚合通道和空间上下文特征,显著减少了模型的参数量。其二是在YOLOv4中选择合适的位置注入该轻量级注意力模型,显著提高YOLOv4的性能。

Description

一种融合轻量级注意力模型的目标检测方法
技术领域
本发明属于计算机视觉技术领域,具体的说是涉及一种融合轻量级注意力模型的目标检测方法。
背景技术
目标检测是计算机视觉和数字图像处理的一个热门方向,该技术亦在分析识别图像中物体的类别和位置。这项技术被广泛应用于机器人导航、智能视频监控、自动驾驶等许多重要领域。目前,主流的目标检测技术以深度学习为主,以YOLOv4算法目标检测为例,网络结构如图2所示,其步骤可以简要概括为:通过主干网络CSPDarknet53提取图像特征;用SPP和PANet将不同层级的特征进行融合;对融合后的特征进行编码预测。然而,由于现实场景中存在诸多复杂的因素,例如天气、角度、光照、目标物体形变以及姿态变化等,目标检测算法研究仍面临诸多挑战,现有的检测方法仍存在一些难点问题有待克服优化,其检测性能亟待改善。考虑到人类的视觉注意机制,能够决定需要关注输入的哪部分并分配有限的信息处理资源给重要的部分,对此,为解决目标特征信息利用不充分、分类置信度和定位精度间缺乏一致性的问题,使网络合理分配有限的计算资源并充分利用网络所提取的图像特征信息,让网络能够关注应该关注的图像区域,考虑将注意力模型融合进入目标检测网络。目前主流的注意力模型通常含有大量的参数,如果将注意力模型直接融合进入目标检测网络中,会显著降低网络的推理性能,这与目标检测应用场景的广泛依赖实时性相悖。因此,需要一种轻量级的注意力模型来提高目标检测的性能。
通过上述分析,现有技术存在的问题及缺陷为:
(1)YOLOv4算法对特征信息的利用不充分,没有考虑特征间的关联性。这一点造成目标检测方法对图像理解的不完整。以图2为例,图2展示了YOLOv4网络的整体结构,在特征融合部分使用SPP融合不同感受野大小的特征图,使用PANet聚合不同层级的特征图,在聚合过程中直接对不同层级的特征进行采样相加,未考虑特征图中通道特征、空间特征的相关性。
(2)现有的注意力模型含有大量参数,融合进入目标检测网络中会增加网络的复杂度,不满足目标检测的实时性需求。以图3为例,图3展示了CBAM注意力模型的通道注意力和空间注意力结构,在生成通道注意力时,使用含两层全连接层的共享全连接网络对通道特征进行聚合,共享全连接网络的参数量直接与输入特征图通道数的平方成正相关;在生成空间注意力时,使用卷积核为7×7的大卷积来聚合空间上下文信息,虽然提高了空间注意力采样点的感受野,聚合了更加广泛的信息,但同时也增加了模块的参数量。如果在目标检测网络中广泛应用该注意力模型,会极大增加网络的复杂度,增加网络推理时间。
解决以上问题及缺陷的难度为:现有技术缺乏对注意力机制如何有效融合进入目标检测网络的研究与讨论,缺少应对该问题的有效方法与评估。对于注意力机制而言,现有的注意力机制虽然存在参数量较大的缺陷,但已经形成了一套相对固定的流程。要弥补现有注意力机制的不足,需要对模型结构进行创新地设计。
解决以上问题及缺陷的意义为:上述两个问题,着眼于目标检测领域的模型复杂度与检测效果的讨论。这两个问题的解决,会使得模型在保证复杂度不大量增长的基础下,有效提升检测效果。
发明内容
本发明针对上述问题,提出一种融合轻量级注意力模型的YOLOv4目标检测方法。
本发明的技术方案是:
一种融合轻量级注意力模型的目标检测方法,其特征在于,包括以下步骤:
S1、利用现有图像制作训练数据集;
S2、构建神经网络模型:采用YOLOv4网络作为神经网络模型,在YOLOv4网络的PANet部分融入轻量级注意力模型,在横向进行每次卷积操作后对特征图进行一次注意力调整;所述轻量级注意力模型对输入特征图的处理方法为:
a、对输入特征图分别进行空间全局最大值池化和均值池化操作,生成两个一维通道特征描述符;
b、分别对步骤a中生成的两个一维通道特征描述符进行一维卷积操作,获得一维卷积后的通道特征描述符;
c、对一维卷积后的通道特征描述符按对应元素相加,获得融合后的描述符,对融合后的描述符使用Sigmoid函数运算,生成通道注意力;
d、将生成的通道注意力在空间域进行广播,扩充到与输入特征图的大小相同,随后与输入特征图按对应元素相乘,获得注入通道注意力后的特征图;
e、对注入通道注意力后的特征图分别进行通道全局最大值池化和均值池化操作,生成两个空间特征描述符,对两个空间特征描述符在通道轴方向进行叠加,获得叠加后空间特征描述符;
f、对叠加后空间特征描述符进行3×3的空洞卷积,空洞率设置为2,对卷积后的描述符使用Sigmoid函数运算,生成空间注意力;
g、将空间注意力在通道域进行广播,扩充到与输入特征图的大小相同,随后与注入通道注意力后的特征图按对应元素相乘,获得注入空间注意力后的特征图;
S3、采用训练数据集对步骤S2构建的神经网络进行训练,获得训练好的神经网络模型;
S4、将待检测图像输入训练好的神经网络模型,获得目标检测结果。
进一步的,所述步骤b中,进行一维卷积操作的卷积核的长度由以下公式自适应决定:
Figure DEST_PATH_IMAGE001
其中,C表示输入特征图通道数,| t |odd表示取与t最接近的奇数,
Figure DEST_PATH_IMAGE002
进一步的,所述步骤c中,生成通道注意力的方法为:
Figure DEST_PATH_IMAGE003
其中,
Figure DEST_PATH_IMAGE004
表示输入特征图,AvgPool()和MaxPool()分别表示空间全局均值池化和 全局最大值池化,
Figure DEST_PATH_IMAGE005
表示卷积核大小为k的一维卷积,
Figure DEST_PATH_IMAGE006
表示Sigmoid函数。
进一步的,所述步骤f中,生成空间注意力的方法为:
Figure DEST_PATH_IMAGE007
其中,
Figure DEST_PATH_IMAGE008
表示3×3大小的空洞卷积。
本发明的技术方案,主要是在YOLOv4网络中融合注意力机制构成新的神经网络,具体流程如图1所示,包括S101、定义通道注意力模块;S102、定义空间注意力模块;S103、定义通道注意力与空间注意力串联的注意力模型;S104、将注意力模型融合进入YOLOv4的特征融合层;S105、在V0C2012数据集上训练调优,得到模型结果。本发明的注意力模型如图4所示,它是一种通用的卷积神经网络模块,可以插入在网络的任意位置。该模型摒弃了全连接层和大卷积核来聚合通道和空间特征,极大减少了注意力模型的参数量。针对YOLOv4目标检测网络,考虑网络的浅层特征具有图像的普适性,深层特征更加独特,适合通过注意力机制调整,因此本发明选择在YOLOv4的PANet部分融合上述注意力模型进行改进。融合注意力模型后的PANet结构如图5所示。
本发明的有益效果为,本发明针对目标检测中的两个问题提出了相应的解决办法,其一是针对注意力模型参数量大的问题提出通过一维卷积和空洞卷积来分别聚合通道和空间上下文特征,显著减少了模型的参数量。其二是在YOLOv4中选择合适的位置注入该轻量级注意力模型,显著提高YOLOv4的性能。
附图说明
图1是本发明提供的YOLOv4融合注意力机制的流程图。
图2是原始YOLOv4的整体结构。
图3是CBAM注意力模型。
图4是本发明提供的轻量级注意力模型。
图5是本发明提供的在YOLOv4的PANet部分融合注意力模型后的结构。
具体实施方式
下面结合附图和测试实例,对本发明的有效性和实用性进行描述:
本发明旨在通过模型算法的处理,对图像中的目标进行识别和定位,将目标的区域输出到影像中。下面结合实施例对本发明的技术方案作进一步描述。
本发明选择了公开数据集VOC2012作为实验材料,使用模型参数量和mAP作为评价指标。该数据集共包含20类别,其中共有5717个训练样本和5823个验证样本。训练样本对目标检测模型进行训练,验证集对模型效果进行评估。
首先,本发明选择了YOLOv4原始网络的模型参数量和在VOC2012数据集上测试的mAP作为测试基准,分别将现有的注意力模型SE、CBAM,以及本发明提出的轻量级注意力模型融合进入YOLOv4的PANet部分,做横向对比测试。三个改进的模型分别记为YOLOv4-1,YOLOv4-2,YOLOv4-3,对YOLOv4和这三个改进模型进行训练并测试,测试结果见表1。
表1 YOLOv4融合不同注意力模型在VOC2012数据集上测试结果
Figure DEST_PATH_IMAGE009
其中,测试中所包含的指标为参数增量、mAP。参数增量表示融合注意力模型后整个网络参数的增加量,反应了模型的复杂程度,具体地,参数增量越大表明注意力模型越复杂。mAP表示模型在VOC2012数据集上对20个类的平均精确度,其中在计算mAP时筛选正负样本的交并比IoU阈值设置为0.5,mAP越大表明模型地检测效果越好。召回率表示模型预测变化正确的部分占真实遥感变化部分的比例。F1指标为准确率和召回率的调和平均数。表中粗体表示的数据,为同一列中模型最优的指标。
之后,本发明重复试验,单独测试通道注意力的有效性,将只保留CBAM中的通道注意力模块、本发明提出的轻量级通道注意力模块,分别融合进入YOLOv4的PANet部分,两个模型分别记为YOLOv4-C1,YOLOv4-C2,对两个模型训练并测试,得到如表2所示的结果。
表2 YOLOv4只融合通道注意力在VOC2012数据集上测试结果
Figure DEST_PATH_IMAGE010
最后,本发明重复试验,单独测试空间注意力的有效性,将本发明提出的轻量级空间注意力模块分为三组,分别采用一次大小为3×3,空洞率为2的空洞卷积;一次大小为7×7,空洞率为2的空洞卷积;两次大小为3×3,空洞率为2的空洞卷积。将只保留CBAM中空间注意力模块和以上三组空间注意力分别融合进入YOLOv4的PANet部分,分别记为YOLOv4-S1,YOLOv4-S2,YOLOv4-S3,YOLOv4-S4。对四个模型训练并测试,得到如表3所示的结果。
表3 YOLOv4只融合空间注意力在VOC2012数据集上测试结果
Figure DEST_PATH_IMAGE011
根据表1的结果可知,YOLOv4在融合注意力模型后,效果显著提升,尤其本发明提出的轻量级注意力模型,在引入少量参数的情况下,模型的性能提升最优。结合表2分析认为主要因为CBAM存在对通道进行特征压缩的过程,该过程虽然使得模块的运算量减少,同时也舍弃了特征图的部分信息,使得通道注意力的特征表达能力下降。对比本发明提出的通道注意力,由于直接对全局池化后的通道特征进行一维卷积,并没有对特征进行压缩,整个特征图的通道信息得以完整保留。另外表3的实验结果证明在卷积聚合空间信息过程中,感受野越大,能聚合的空间上下文信息越丰富,对空间特征的编码能力越强,映射生成的空间注意力效果越好,堆叠多个卷积层同样能提高空间注意力的特征表达能力。
综上实验结果表明,在YOLOv4中融合本发明所设计的两个注意力模块,只引入少量参数,模型效果显著提升,相比于现有模型在引入参数量最少的情况下,检测精度达到最优。

Claims (4)

1.一种融合轻量级注意力模型的目标检测方法,其特征在于,包括以下步骤:
S1、利用现有图像制作训练数据集;
S2、构建神经网络模型,采用YOLOv4网络作为神经网络模型,在YOLOv4网络的PANet部分融入轻量级注意力模型,在横向进行每次卷积操作后对特征图进行一次注意力调整;所述轻量级注意力模型对输入特征图的处理方法具体包括以下步骤:
a、对输入特征图分别进行空间全局最大值池化和均值池化操作,生成两个一维通道特征描述符;
b、分别对步骤a中生成的两个一维通道特征描述符进行一维卷积操作,获得一维卷积后的通道特征描述符;
c、对一维卷积后的通道特征描述符按对应元素相加,获得融合后的描述符,对融合后的描述符使用Sigmoid函数运算,生成通道注意力;
d、将生成的通道注意力在空间域进行广播,扩充到与输入特征图的大小相同,随后与输入特征图按对应元素相乘,获得注入通道注意力后的特征图;
e、对注入通道注意力后的特征图分别进行通道全局最大值池化和均值池化操作,生成两个空间特征描述符,对两个空间特征描述符在通道轴方向进行叠加,获得叠加后空间特征描述符;
f、对叠加后空间特征描述符进行3×3的空洞卷积,空洞率设置为2,对卷积后的描述符使用Sigmoid函数运算,生成空间注意力;
g、将空间注意力在通道域进行广播,扩充到与输入特征图的大小相同,随后与注入通道注意力后的特征图按对应元素相乘,获得注入空间注意力后的特征图;
S3、采用训练数据集对步骤S2构建的神经网络进行训练,获得训练好的神经网络模型;
S4、将待检测图像输入训练好的神经网络模型,获得目标检测结果。
2.根据权利要求1所述的一种融合轻量级注意力模型的目标检测方法,其特征在于,所述步骤b中,进行一维卷积操作的卷积核的长度k由以下公式自适应决定:
Figure 129391DEST_PATH_IMAGE001
其中,C表示输入特征图通道数,|t |odd表示取与t最接近的奇数,
Figure 46531DEST_PATH_IMAGE002
3.根据权利要求2所述的一种融合轻量级注意力模型的目标检测方法,其特征在于,所述步骤c中,生成通道注意力的方法为:
Figure 763952DEST_PATH_IMAGE003
其中,
Figure 346112DEST_PATH_IMAGE004
表示输入特征图,AvgPool()和MaxPool()分别表示空间全局均值池化和全局最 大值池化,
Figure 160484DEST_PATH_IMAGE005
表示卷积核大小为k的一维卷积,
Figure 920629DEST_PATH_IMAGE006
表示Sigmoid函数。
4.根据权利要求3所述的一种融合轻量级注意力模型的目标检测方法,其特征在于,所述步骤f中,生成空间注意力的方法为:
Figure 187663DEST_PATH_IMAGE007
其中,
Figure 74978DEST_PATH_IMAGE008
表示3×3大小的空洞卷积。
CN202110344079.XA 2021-03-31 2021-03-31 一种融合轻量级注意力模型的目标检测方法 Active CN112733821B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110344079.XA CN112733821B (zh) 2021-03-31 2021-03-31 一种融合轻量级注意力模型的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110344079.XA CN112733821B (zh) 2021-03-31 2021-03-31 一种融合轻量级注意力模型的目标检测方法

Publications (2)

Publication Number Publication Date
CN112733821A true CN112733821A (zh) 2021-04-30
CN112733821B CN112733821B (zh) 2021-07-02

Family

ID=75596180

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110344079.XA Active CN112733821B (zh) 2021-03-31 2021-03-31 一种融合轻量级注意力模型的目标检测方法

Country Status (1)

Country Link
CN (1) CN112733821B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192040A (zh) * 2021-05-10 2021-07-30 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113393439A (zh) * 2021-06-11 2021-09-14 重庆理工大学 一种基于深度学习的锻件缺陷检测方法
CN113468967A (zh) * 2021-06-02 2021-10-01 北京邮电大学 基于注意力机制的车道线检测方法、装置、设备及介质
CN114078230A (zh) * 2021-11-19 2022-02-22 西南交通大学 一种自适应特征融合冗余优化的小目标检测方法
CN114298187A (zh) * 2021-12-20 2022-04-08 西南交通大学 一种融合改进注意力机制的目标检测算法
CN114332083A (zh) * 2022-03-09 2022-04-12 齐鲁工业大学 一种基于PFNet的工业品伪装瑕疵识别方法
CN115564775A (zh) * 2022-12-05 2023-01-03 北京矩视智能科技有限公司 基于轻量级注意力机制的缺陷检测方法、装置及存储介质

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8478111B2 (en) * 2008-10-03 2013-07-02 3M Innovative Properties Company Systems and methods for optimizing a scene
US20190294929A1 (en) * 2018-03-20 2019-09-26 The Regents Of The University Of Michigan Automatic Filter Pruning Technique For Convolutional Neural Networks
CN110503052A (zh) * 2019-08-27 2019-11-26 西南交通大学 一种基于改进u-net网络的图像语义分割方法
CN111079584A (zh) * 2019-12-03 2020-04-28 东华大学 基于改进YOLOv3的快速车辆检测方法
CN111339858A (zh) * 2020-02-17 2020-06-26 电子科技大学 一种基于神经网络的油气管道标志物识别方法
CN111445913A (zh) * 2020-03-24 2020-07-24 南开大学 基于神经网络的声纹特征提取方法和装置
CN111709289A (zh) * 2020-05-18 2020-09-25 杭州电子科技大学 一种用于提高人体解析效果的多任务深度学习模型
CN111767882A (zh) * 2020-07-06 2020-10-13 江南大学 一种基于改进yolo模型的多模态行人检测方法
CN111797717A (zh) * 2020-06-17 2020-10-20 电子科技大学 一种高速高精度的sar图像船只检测方法
CN111860693A (zh) * 2020-07-31 2020-10-30 元神科技(杭州)有限公司 一种轻量级视觉目标检测方法及系统
CN112183583A (zh) * 2020-09-08 2021-01-05 昆明理工大学 一种注意力导向的太赫兹图像中的小目标检测方法
CN112215207A (zh) * 2020-11-10 2021-01-12 中国人民解放军战略支援部队信息工程大学 联合多尺度和注意力机制的遥感影像飞机目标检测方法
CN112232214A (zh) * 2020-10-16 2021-01-15 天津大学 一种基于深度特征融合和注意力机制的实时目标检测方法
CN112233090A (zh) * 2020-10-15 2021-01-15 浙江工商大学 基于改进注意力机制的薄膜瑕疵检测方法
CN112257527A (zh) * 2020-10-10 2021-01-22 西南交通大学 基于多目标融合与时空视频序列的手机检测方法
CN112299172A (zh) * 2020-10-31 2021-02-02 成都新潮传媒集团有限公司 手势求救的识别方法、装置及存储介质
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法
CN112541503A (zh) * 2020-12-11 2021-03-23 南京邮电大学 基于上下文注意力机制和信息融合的实时语义分割方法
US20210090547A1 (en) * 2019-09-24 2021-03-25 Baidu Usa Llc Small-footprint flow-based models for raw audio

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8478111B2 (en) * 2008-10-03 2013-07-02 3M Innovative Properties Company Systems and methods for optimizing a scene
US20190294929A1 (en) * 2018-03-20 2019-09-26 The Regents Of The University Of Michigan Automatic Filter Pruning Technique For Convolutional Neural Networks
CN110503052A (zh) * 2019-08-27 2019-11-26 西南交通大学 一种基于改进u-net网络的图像语义分割方法
US20210090547A1 (en) * 2019-09-24 2021-03-25 Baidu Usa Llc Small-footprint flow-based models for raw audio
CN111079584A (zh) * 2019-12-03 2020-04-28 东华大学 基于改进YOLOv3的快速车辆检测方法
CN111339858A (zh) * 2020-02-17 2020-06-26 电子科技大学 一种基于神经网络的油气管道标志物识别方法
CN111445913A (zh) * 2020-03-24 2020-07-24 南开大学 基于神经网络的声纹特征提取方法和装置
CN111709289A (zh) * 2020-05-18 2020-09-25 杭州电子科技大学 一种用于提高人体解析效果的多任务深度学习模型
CN111797717A (zh) * 2020-06-17 2020-10-20 电子科技大学 一种高速高精度的sar图像船只检测方法
CN111767882A (zh) * 2020-07-06 2020-10-13 江南大学 一种基于改进yolo模型的多模态行人检测方法
CN111860693A (zh) * 2020-07-31 2020-10-30 元神科技(杭州)有限公司 一种轻量级视觉目标检测方法及系统
CN112183583A (zh) * 2020-09-08 2021-01-05 昆明理工大学 一种注意力导向的太赫兹图像中的小目标检测方法
CN112257527A (zh) * 2020-10-10 2021-01-22 西南交通大学 基于多目标融合与时空视频序列的手机检测方法
CN112233090A (zh) * 2020-10-15 2021-01-15 浙江工商大学 基于改进注意力机制的薄膜瑕疵检测方法
CN112232214A (zh) * 2020-10-16 2021-01-15 天津大学 一种基于深度特征融合和注意力机制的实时目标检测方法
CN112299172A (zh) * 2020-10-31 2021-02-02 成都新潮传媒集团有限公司 手势求救的识别方法、装置及存储介质
CN112215207A (zh) * 2020-11-10 2021-01-12 中国人民解放军战略支援部队信息工程大学 联合多尺度和注意力机制的遥感影像飞机目标检测方法
CN112541503A (zh) * 2020-12-11 2021-03-23 南京邮电大学 基于上下文注意力机制和信息融合的实时语义分割方法
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
ALEXEY BOCHKOVSKIY 等: "YOLOv4: Optimal Speed and Accuracy of Object Detection", 《网络在线公开: HTTPS://ARXIV.ORG/ABS/2004.10934》 *
POOJA MAHTO 等: "Refining Yolov4 for Vehicle Detection", 《INTERNATIONAL JOURNAL OF ADVANCED RESEARCH IN ENGINEERING AND TECHNOLOGY》 *
QILONG WANG 等: "ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks", 《2020 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 *
WENKAO YANG 等: "Real-time Traffic Signs Detection Based on YOLO Network Model", 《2020 INTERNATIONAL CONFERENCE ON CYBER-ENABLED DISTRIBUTED COMPUTING AND KNOWLEDGE DISCOVERY》 *
付国栋 等: "改进CBAM的轻量级注意力模型", 《计算机工程与应用》 *
刘腾: "基于CenterNet改进的车辆检测方法", 《中国计算机用户协会网络应用分会2020年第二十四届网络新技术与应用年会论文集》 *
庞康宁: "基于残差密集结构的轻量级航拍目标检测算法", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
肖雨晴 等: "目标检测算法在交通场景中应用综述", 《计算机工程与应用》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192040A (zh) * 2021-05-10 2021-07-30 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113192040B (zh) * 2021-05-10 2023-09-22 浙江理工大学 一种基于YOLO v4改进算法的织物瑕疵检测方法
CN113468967A (zh) * 2021-06-02 2021-10-01 北京邮电大学 基于注意力机制的车道线检测方法、装置、设备及介质
CN113468967B (zh) * 2021-06-02 2023-08-18 北京邮电大学 基于注意力机制的车道线检测方法、装置、设备及介质
CN113393439A (zh) * 2021-06-11 2021-09-14 重庆理工大学 一种基于深度学习的锻件缺陷检测方法
CN114078230A (zh) * 2021-11-19 2022-02-22 西南交通大学 一种自适应特征融合冗余优化的小目标检测方法
CN114078230B (zh) * 2021-11-19 2023-08-25 西南交通大学 一种自适应特征融合冗余优化的小目标检测方法
CN114298187A (zh) * 2021-12-20 2022-04-08 西南交通大学 一种融合改进注意力机制的目标检测算法
CN114298187B (zh) * 2021-12-20 2023-08-29 西南交通大学 一种融合改进注意力机制的目标检测方法
CN114332083A (zh) * 2022-03-09 2022-04-12 齐鲁工业大学 一种基于PFNet的工业品伪装瑕疵识别方法
CN115564775A (zh) * 2022-12-05 2023-01-03 北京矩视智能科技有限公司 基于轻量级注意力机制的缺陷检测方法、装置及存储介质
CN115564775B (zh) * 2022-12-05 2023-04-14 北京矩视智能科技有限公司 基于轻量级注意力机制的缺陷检测方法、装置及存储介质

Also Published As

Publication number Publication date
CN112733821B (zh) 2021-07-02

Similar Documents

Publication Publication Date Title
CN112733821B (zh) 一种融合轻量级注意力模型的目标检测方法
CN110321923B (zh) 不同尺度感受野特征层融合的目标检测方法、系统及介质
CN111091130A (zh) 基于轻量级卷积神经网络的实时图像语义分割方法及系统
CN111738110A (zh) 基于多尺度注意力机制的遥感图像车辆目标检测方法
CN114842365B (zh) 一种无人机航拍目标检测识别方法和系统
CN110543890A (zh) 一种基于特征金字塔的深度神经网络图像匹配方法
CN115170638A (zh) 一种双目视觉立体匹配网络系统及其构建方法
CN112818969A (zh) 一种基于知识蒸馏的人脸姿态估计方法及系统
CN112818849B (zh) 基于对抗学习的上下文注意力卷积神经网络的人群密度检测算法
CN113642486A (zh) 一种具有机载前端识别模型的无人机配网巡检方法
CN115439694A (zh) 一种基于深度学习的高精度点云补全方法及装置
CN117496384A (zh) 一种无人机图像物体检测方法
Wang et al. TF-SOD: a novel transformer framework for salient object detection
CN115719445A (zh) 一种基于深度学习和树莓派4b模块的海产品识别方法
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN117689731B (zh) 一种基于改进YOLOv5模型的轻量化新能源重卡电池包识别方法
CN113095479A (zh) 一种基于多尺度注意力机制的冰下层结构提取方法
CN110659724B (zh) 基于目标尺度的目标检测深度卷积神经网络构建方法
CN114998304B (zh) 自冲铆成形质量的检测方法、装置、电子设备及存储介质
CN116543339A (zh) 一种基于多尺度注意力融合的短视频事件检测方法及装置
CN114385619B (zh) 一种多通道海洋观测时序标量数据缺失值预测方法及系统
Wencan et al. Segmentation of points in the future: Joint segmentation and prediction of a point cloud
CN115659253A (zh) 一种基于多维模型融合的水下目标识别方法
CN114937153A (zh) 弱纹理环境下基于神经网络的视觉特征处理系统及方法
Li et al. YOLOv7-based land and underwater target detection and recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant