CN116912673A - 一种基于水下光学图像的目标检测方法 - Google Patents

一种基于水下光学图像的目标检测方法 Download PDF

Info

Publication number
CN116912673A
CN116912673A CN202310909216.9A CN202310909216A CN116912673A CN 116912673 A CN116912673 A CN 116912673A CN 202310909216 A CN202310909216 A CN 202310909216A CN 116912673 A CN116912673 A CN 116912673A
Authority
CN
China
Prior art keywords
module
optical image
target detection
underwater
underwater optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310909216.9A
Other languages
English (en)
Inventor
赵亮
云晴
袁夫彩
陈瑞
金军委
朱献超
张坤鹏
付璐璐
李宣
任旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University of Technology
Original Assignee
Henan University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University of Technology filed Critical Henan University of Technology
Priority to CN202310909216.9A priority Critical patent/CN116912673A/zh
Publication of CN116912673A publication Critical patent/CN116912673A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/05Underwater scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于水下光学图像的目标检测方法。该方法包括:步骤1:获取水下光学图像目标数据集,并分为训练集、验证集和测试集;步骤2:对YOLOv7网络进行改进以构建得到基于水下光学图像的目标检测模型,包括构建新的骨干网络、新的检测头模块和融入新的注意力机制;步骤3:采用训练集和验证集对所述目标检测模型进行训练;步骤4:使用训练好的目标检测模型对测试集进行检测。本发明构建的目标检测模型极大地提高了水下目标检测的平均检测精度,且有效减少了模型参数规模,使检测模型更加轻量化,有利于部署在低成本的水下检测设备上。

Description

一种基于水下光学图像的目标检测方法
技术领域
本发明涉及计算机视觉和人工智能技术领域,尤其涉及一种基于水下光学图像的目标检测方法。
背景技术
水下目标检测技术在海洋环境监测和早期预警方面发挥着重要作用。装备有目标检测设备的水下机器人可以代替潜水员实施水下环境中感兴趣目标的准确定位与识别。因为以下三个因素使得水下目标检测任务具有相当的挑战:(1)天气和洋流等因素导致水下环境复杂多变,捕捉的图像在环境噪声的作用下饱和度低、边缘模糊;(2)水下目标种类丰富,部分种类目标体型微小且位置隐蔽;(3)水下目标检测设备有限的存储和计算能力要求检测模型轻量化。传统的基于水下光学图像的目标检测方法效果不佳。
随着计算机视觉和深度学习技术的发展,使用深度学习方法从水下光学图像中检测感兴趣目标成为研究热点。Jian Zhang等提出一种基于改进的YOLOv5框架的海洋生物检测方法。此外,Hao Wang等改进了Faster RCNN两阶段算法,用于检测海参、棘鱼、扇贝、海星和水草。虽然他们已经取得了相当的成果,但仍然存在明显的缺陷。改进的YOLOv5的检测精度仍然差强人意,改进的Faster RCNN的实时性不能满足要求。所以,改进和创新水下目标检测技术是当前亟需解决的重要问题。
发明内容
为了兼顾基于水下光学图像的目标检测任务需要的检测精度和实时性,本发明提出了一种水下目标检测方法,通过对YOLOv7进行深度改进,构建得到一种高精度轻量化的YOLOv7-CHS目标检测模型,能够更好地适应水下环境的特殊要求。
本发明提供的一种基于水下光学图像的目标检测方法,包括:
步骤1:获取水下光学图像目标数据集,并分为训练集、验证集和测试集;
步骤2:对YOLOv7网络进行改进以构建得到基于水下光学图像的目标检测模型,包括构建新的骨干网络、新的检测头模块和融入新的注意力机制;
步骤3:采用训练集和验证集对所述目标检测模型进行训练;
步骤4:使用训练好的目标检测模型对测试集进行检测。
进一步地,步骤2中,构建新的骨干网络具体包括:
将YOLOv7的骨干网络中的两个ELAN模块替换为C3HB模块,并在第一个C3HB模块后加入一个下采样卷积层,在第二个C3HB模块后加入一个特征提取卷积层。
进一步地,所述C3HB模块的构建过程具体包括:
使用递归门控卷积RGConv构建高阶空间交互HOSI模块;
使用HOSI模块替换C3模块中的一个卷积层得到C3HB模块。
进一步地,步骤2中,构建新的检测头模块具体包括:
在YOLOv7的检测头中的ELAN模块替换为CT3模块;其中,所述CT3模块包括第一分支、第二分支、连接层和第一CBS模块;其中,所述第一分支的输出和所述第二分支的输出先经连接层进行拼接,拼接后的特征图再经第一CBS模块处理;所述第一分支包括相连接的第二CBS模块和CT瓶颈模块,所述第二分支包括第三CBS模块;
所述CT瓶颈模块包括第四CBS模块和CT模块;其中,输入的原始特征图依次经过第四CBS模块和CT模块处理后,再与输入的原始特征图合并。
进一步地,所述融入新的注意力机制包括:
将YOLOv7的检测头中的MP-2模块中的1×1卷积块替换为SPFA模块得到MP-SPFA模块;其中,所述SPFA模块包括:先由特征生成3-D权重,再经过扩展生成既包含通道注意力又包含空间注意力的三维权重。
进一步地,步骤3具体包括:
采用COCO基准数据集对所述目标检测模型进行预训练;
采用训练集和验证集对预训练后的目标检测模型进行调整,得到训练好的目标检测模型。
本发明的有益效果:
(1)提出C3HB模块构建检测模型新的骨干网络,可以更好地提取水下光学图像中目标特征,同时克服了检测模型参数量巨大、计算复杂度高的缺陷,使得改进的检测模型更加轻量化,更有利于将检测模型部署在水下机器人的目标检测设备中;
(2)提出CT3模块替换YOLOv7检测头部分的ELAN模块,提高了检测模型对尺寸微小的水下目标的检测效果,改善了模型的检测精度,以适应严苛的水下检测环境;
(3)引入SPFA注意力机制改进MP-2模块,使得检测模型的视觉表示能力进一步提高以更加准确地识别模糊的水下图像,提升了模型的检测精度。
(4)在训练基于水下光学图像的目标检测模型时,基于迁移学习方法,先使用COCO基准数据集上的模型权重作为目标检测模型的预训练权重,再在水下光学图像数据集上重新训练,加快模型的收敛增强泛化能力;
(5)本发明构建的目标检测模型极大地提高了水下目标检测的平均检测精度,且有效减少了模型参数规模,使检测模型更加轻量化,有利于部署在低成本的水下目标检测设备上。
附图说明
图1为本发明实施例提供的一种基于水下光学图像的目标检测方法的流程示意图;
图2为本发明实施例提供的不同环境下的水下光学图像示意图:(a)光线昏暗环境;(b)成像模糊环境;(c)微小目标环境;
图3为本发明实施例提供的YOLOv7-CHS目标检测模型的整体结构;
图4为本发明实施例提供的水下光学图像四种检测目标分布;
图5为本发明实施例提供的HOSI模块结构图;
图6为本发明实施例提供的C3HB模块结构图;
图7为本发明实施例提供的CT模块结构图;
图8为本发明实施例提供的(a)CT瓶颈模块结构图;(b)CT3模块结构图;
图9为本发明实施例提供的SPFA模块结构图;
图10为本发明实施例提供的MP-SPFA模块结构图;
图11为本发明实施例提供的YOLOv7-CHS目标检测模型在测试集上的检测结果。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了实现性能优异的高精度轻量化水下目标检测任务,本发明提出了一种基于YOLOv7-CHS进行水下目标检测的方法,解决了传统水下目标检测任务面临的水下成像质量差、目标微小、以及检测模型参数规模过大等问题。如图1所示,具体实施方式如下:
S101:获取水下光学图像目标数据集,并分为训练集、验证集和测试集;
本实施例中,采集到的水下光学图像目标数据集包括海参、海胆、扇贝和海星四类待检测目标。四类目标的总数为74515个,其中海参、海胆、扇贝和海星分别为7887、50156、1924和14548个(如图4所示),具有相当显著的长尾效应,会对检测结果(扇贝的检出率)带来不利影响。该数据集一共包含7782张不同分辨率的水下光学图像和对应的标注信息,标注信息是图像中目标的类别和包围该目标边界框的坐标值。
将采集到的水下光学图像数据集制作成YOLO格式的数据集,主要包括图像和标签两个文件夹,其中图像文件夹中包含三个子文件夹,分别用来存放训练集、验证集和测试集的jpg格式的水下光学图像,标签文件夹中也包含三个子文件夹,分别用来存放图像文件夹中三个子文件夹对应的txt格式的标签信息。经过归一化处理的标签信息格式为[class,x_center,y_center,w,h]。其中class表示目标类别;(x_center,y_center)表示边界框的中心点坐标;w表示边界框的宽度;h表示边界框的高度。
S102:对YOLOv7网络进行改进以构建得到YOLOv7-CHS目标检测模型,包括构建新的骨干网络、新的检测头模块和融入新的注意力机制;
为了更加高效地完成水下目标检测任务,本发明实施例对YOLOv7网络进行深度改进,主要改进方面包括构建新的骨干网络、新的检测头模块和融入新的注意力机制。本实施例是在Windows10操作系统上使用Python3.7环境,并基于Pytorch深度学习框架构建目标检测模型。本发明实施例提出的目标检测模型的整体结构如图3所示。
(1)构建新的骨干网络增强水下目标的有效特征提取
水下成像设备的工作环境异常严酷,光照强度、温度、盐度、洋流速度、方向以及水下机器人的工作状态都会对水下环境的图像捕捉造成巨大影响。因此,水下光学图像(如图2所示)的质量不能达到大气中光学图像的质量水平。
为了更好的提取水下光学图像中目标特征且使模型骨干网络更加轻量化,将YOLOv7骨干网络中的两个ELAN模块替换为C3HB模块,并在第一个C3HB模块后加入一个下采样卷积层,在第二个C3HB模块后加入一个特征提取卷积层,使得骨干网络能够实现高阶空间交互,并且网络更加轻量化。
所述C3HB模块的构建过程具体包括:使用递归门控卷积RGConv构建高阶空间交互HOSI模块,如图5所示;使用HOSI模块替换C3模块中的一个卷积层得到C3HB模块,如图6所示,该模块使得检测模型提取水下光学图像特征能力更强且参数更加轻量化。
(2)提出新的检测头模块改善微小水下目标的检测效果
水下设备捕获的环境光学图像中大部分目标是小于30×30像素的微小目标,容易漏检。为了提高它们的检测率,在检测头部分将ELAN模块替换为可以检测微小目标的CT3模块,通过静态和动态上下文的融合提高模型对局部图像特征的视觉建模能力。
CT3模块主要是为了提高水下图像中微小目标的检出率而设计的。先使用CT模块构建CT瓶颈模块,再由CT瓶颈模块构建CT3模块。关于CT模块,首先通过上下文对输入键进行编码卷积,使输入的静态上下文得到表示,接着通过两个连续的卷积将编码键与输入查询连接起来,然后将学习到的注意力矩阵乘以输入值,以实现输入的动态上下文表示,静态和动态上下文表示的融合最终被作为输出。CT模块的结构如图7所示。图8(a)是CT瓶颈模块,而图8(b)表示CT3模块。CT3模块使得模型检测微小目标的精度得到了有效提高。
(3)融入新的注意力机制提高水下目标的检测精度和实时性
水下机器人的目标检测设备成本和实时性要求检测模型在不增加网络参数规模的前提下进一步提高精度。为达成这一目标,提出一种新的注意力机制SPFA替换MP-2模块中的一个1×1卷积操作,得到MP-SPFA模块,结构如图10所示,MP-SPFA模块包括两个分支:第一个分支由一个最大池化层和一个卷积核为1×1、步长为1的CBS模块组成;第二个分支包括SPFA模块和一个卷积核为3×3、步长为2的CBS模块。相比于现有的通道注意力和空间注意力机制,SPFA模块可以直接推理出三维的注意力权重,不增加任何参数量,改善卷积操作的表征能力,使模型的检测能力进一步有效提高,结构如图9所示。所述SPFA模块包括:先由特征生成3-D权重,然后扩展生成既包含通道注意力又包含空间注意力的三维权重。相同的颜色表示每个特征上的每个点使用单个标量。
S103:采用训练集和验证集对所述目标检测模型进行训练;
为了保证实验结果的可靠性和鲁棒性,需要合理选择模型训练的超参数。输入模型的水下光学图像大小是640×640像素,训练进行300次迭代,训练批次大小是8。对比实验中使用Adam优化器调整模型参数,学习率设置为0.001。消融实验中使用SGD优化器调整模型参数,学习率设置为0.01。
在训练模型时,采用迁移学习的方法,先在COCO基准数据集上训练得到一个权重文件,然后以该权重文件作为YOLOv7-CHS模型的预训练权重在基于水下光学图像的目标检测数据集上(训练集和验证集)进行训练,最终得到目标检测模型。
S104:使用训练好的目标检测模型对测试集进行检测;
当检测模型构建并训练完成之后,使用测试集对YOLOv7-CHS检测模型进行性能评估。在给定置信度阈值条件下,得到最终的检测结果如图11所示,它包含预测的目标类别和预测边界框的坐标信息。
表1比较不同目标检测模型的检测精度和实时性
表2消融实验
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (6)

1.一种基于水下光学图像的目标检测方法,其特征在于,包括:
步骤1:获取水下光学图像目标数据集,并分为训练集、验证集和测试集;
步骤2:对YOLOv7网络进行改进以构建得到基于水下光学图像的目标检测模型,包括构建新的骨干网络、新的检测头模块和融入新的注意力机制;
步骤3:采用训练集和验证集对所述目标检测模型进行训练;
步骤4:使用训练好的目标检测模型对测试集进行检测。
2.根据权利要求1所述的一种基于水下光学图像的目标检测方法,其特征在于,步骤2中,构建新的骨干网络具体包括:
将YOLOv7的骨干网络中的两个ELAN模块替换为C3HB模块,并在第一个C3HB模块后加入一个下采样卷积层,在第二个C3HB模块后加入一个特征提取卷积层。
3.根据权利要求2所述的一种基于水下光学图像的目标检测方法,其特征在于,所述C3HB模块的构建过程具体包括:
使用递归门控卷积RGConv构建高阶空间交互HOSI模块;
使用HOSI模块替换C3模块中的一个卷积层得到C3HB模块。
4.根据权利要求1述的一种基于水下光学图像的目标检测方法,其特征在于,步骤2中,构建新的检测头模块具体包括:
在YOLOv7的检测头中的ELAN模块替换为CT3模块;其中,所述CT3模块包括第一分支、第二分支、连接层和第一CBS模块;其中,所述第一分支的输出和所述第二分支的输出先经连接层进行拼接,拼接后的特征图再经第一CBS模块处理;所述第一分支包括相连接的第二CBS模块和CT瓶颈模块,所述第二分支包括第三CBS模块;
所述CT瓶颈模块包括第四CBS模块和CT模块;其中,输入的原始特征图依次经过第四CBS模块和CT模块处理后,再与输入的原始特征图合并。
5.根据权利要求1所述的一种基于水下光学图像的目标检测方法,其特征在于,所述融入新的注意力机制包括:
将YOLOv7的检测头中的MP-2模块中的1×1卷积块替换为SPFA模块得到MP-SPFA模块;其中,所述SPFA模块包括:先由特征生成3-D权重,再经过扩展生成既包含通道注意力又包含空间注意力的三维权重。
6.根据权利要求1所述的一种基于水下光学图像的目标检测方法,其特征在于,步骤3具体包括:
采用COCO基准数据集对所述目标检测模型进行预训练;
采用训练集和验证集对预训练后的目标检测模型进行调整,得到训练好的目标检测模型。
CN202310909216.9A 2023-07-19 2023-07-19 一种基于水下光学图像的目标检测方法 Pending CN116912673A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310909216.9A CN116912673A (zh) 2023-07-19 2023-07-19 一种基于水下光学图像的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310909216.9A CN116912673A (zh) 2023-07-19 2023-07-19 一种基于水下光学图像的目标检测方法

Publications (1)

Publication Number Publication Date
CN116912673A true CN116912673A (zh) 2023-10-20

Family

ID=88356294

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310909216.9A Pending CN116912673A (zh) 2023-07-19 2023-07-19 一种基于水下光学图像的目标检测方法

Country Status (1)

Country Link
CN (1) CN116912673A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117315453A (zh) * 2023-11-21 2023-12-29 南开大学 一种基于水下声纳图像的水下小目标检测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116452966A (zh) * 2023-04-24 2023-07-18 北京理工大学珠海学院 一种水下图像的目标检测方法、装置、设备及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116452966A (zh) * 2023-04-24 2023-07-18 北京理工大学珠海学院 一种水下图像的目标检测方法、装置、设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
俞国燕等: "基于改进YOLOv7的网箱网衣破损识别方法", 《渔业现代化》, 20 June 2023 (2023-06-20), pages 1 - 11 *
张泽龙等: "基于改进YOLOv7模型的变电站异物入侵识别", 《应用天地》, 15 June 2023 (2023-06-15), pages 1 - 8 *
肖振久等: "改进YOLOv7的SAR舰船检测算法", 《计算机工程与应用》, 9 May 2023 (2023-05-09), pages 1 - 10 *
袁磊等: "改进YOLOv5的复杂环境道路目标检测方法", 《计算机工程与应用》, 8 June 2023 (2023-06-08), pages 1 - 11 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117315453A (zh) * 2023-11-21 2023-12-29 南开大学 一种基于水下声纳图像的水下小目标检测方法
CN117315453B (zh) * 2023-11-21 2024-02-20 南开大学 一种基于水下声纳图像的水下小目标检测方法

Similar Documents

Publication Publication Date Title
CN107563381B (zh) 基于全卷积网络的多特征融合的目标检测方法
CN113076871B (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN110852182B (zh) 一种基于三维空间时序建模的深度视频人体行为识别方法
CN113408584B (zh) Rgb-d多模态特征融合3d目标检测方法
CN114943876A (zh) 一种多级语义融合的云和云影检测方法、设备及存储介质
CN112163508A (zh) 一种基于真实场景的文字识别方法、系统及ocr终端
CN116912673A (zh) 一种基于水下光学图像的目标检测方法
CN114005028A (zh) 一种抗干扰的遥感图像目标检测轻量模型及其方法
CN116503418A (zh) 一种复杂场景下的作物三维目标检测方法
CN115713546A (zh) 移动终端设备用的轻量化目标跟踪算法
CN114863112A (zh) 改进U-net语义分割模型构建方法及用于茶嫩芽识别与采摘点定位方法、系统
Sun et al. UAV image detection algorithm based on improved YOLOv5
CN110751271A (zh) 一种基于深度神经网络的图像溯源特征表征方法
CN112668662B (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
CN113781556A (zh) 双向融合机制下基于多模态数据特征提取与机器人的位姿估计方法
CN113538474A (zh) 基于边缘特征融合的3d点云分割目标检测系统
Li et al. CDMY: A lightweight object detection model based on coordinate attention
CN115050010B (zh) 一种针对三维物体检测器的迁移学习方法
CN116452795A (zh) 一种智能弹药识别方法
CN115909276A (zh) 基于改进YOLOv5的复杂天气下小交通标志目标检测方法
CN115661657A (zh) 一种轻量化的无人艇目标检测方法
Wang et al. Billet number recognition based on ESRGAN and improved YOLOv5
CN114037737A (zh) 一种基于神经网络的近岸海底鱼类检测及跟踪统计方法
Zhang et al. An Improved Yolov3 Object Detection Algorithm for UAV Aerial Images
Yan et al. Optical remote sensing image waters extraction technology based on deep learning context-unet

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination