CN116664545A - 一种基于深度学习的近海底栖生物定量检测方法及系统 - Google Patents

一种基于深度学习的近海底栖生物定量检测方法及系统 Download PDF

Info

Publication number
CN116664545A
CN116664545A CN202310735663.7A CN202310735663A CN116664545A CN 116664545 A CN116664545 A CN 116664545A CN 202310735663 A CN202310735663 A CN 202310735663A CN 116664545 A CN116664545 A CN 116664545A
Authority
CN
China
Prior art keywords
image
offshore
detection
acquiring
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310735663.7A
Other languages
English (en)
Inventor
徐森
嵇宏伟
朱锦新
邵俊
许贺洋
郭乃瑄
卞学胜
姜陈雨
陈思博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yancheng Institute of Technology
Yancheng Institute of Technology Technology Transfer Center Co Ltd
Original Assignee
Yancheng Institute of Technology
Yancheng Institute of Technology Technology Transfer Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yancheng Institute of Technology, Yancheng Institute of Technology Technology Transfer Center Co Ltd filed Critical Yancheng Institute of Technology
Priority to CN202310735663.7A priority Critical patent/CN116664545A/zh
Publication of CN116664545A publication Critical patent/CN116664545A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/80Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in fisheries management
    • Y02A40/81Aquaculture, e.g. of fish

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于深度学习的近海底栖生物定量检测方法及系统,其中,系统包括:步骤1:获取近海底栖生物的光学图像数据集;步骤2:划分光学图像数据集获得训练集和测试集;步骤3:设置YOLOv8网络模型;步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;步骤5:获取待检测图像;步骤6:将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。本发明的一种基于深度学习的近海底栖生物定量检测方法及系统,设置YOLOv8网络模型训练近海底栖生物定量检测模型,提高了近海底栖生物定量检测模型对图像特征的处理能力,检测正确率更高,也增强了模型的泛化能力,另外,检测速度更快。

Description

一种基于深度学习的近海底栖生物定量检测方法及系统
技术领域
本发明涉及深度学习技术领域,特别涉及一种基于深度学习的近海底栖生物定量检测方法及系统。
背景技术
近海底栖生物(例如:海星、海胆和贝类等)定量检测是实现水下生物探测的基础和核心技术,目前,深度学习技术也被运用于近海底栖生物定量检测中。深度学习技术是是一种机器学习的方法,通过构建多层神经网络来学习数据的特征表示,从而实现对数据的分类、预测和生成等任务。
申请号为:CN2020112326的发明专利公开了一种基于单阶段深度学习网络的海底生物识别和检测方法,其中方法包括:基于卷积神经网络的海底生物特征提取;采用GIoU策略计算真值框和预测框的回归误差;基于K-means算法的维度聚类。上述发明利用基于卷积神经网络方法实现海底生物有效特征的提取,有效抑制背景噪声对于海底生物的干扰,同时突显海底生物的特征,有利于提高海底生物检测和识别的精度;借助GIoU的方法,预测框和真值框之间的回归误差可以被精确的计算,从而整个检测系统的卷积权重可以被充分优化;借助于K-means聚类算法,获取海底生物外形尺寸的先验信息能够更加贴合海底生物的实际特性,有效降低海底生物的误检率。
但是,海底环境较为复杂,上述现有技术直接通过卷积神经网络提取海底生物特征对检测结果的精度影响较大,同时,深度学习的神经网络模型对训练的图像中出现过的干扰特征能够准确排除干扰,再出现新的干扰检测的其他特征时,适应性较差,另外,传统的卷积神经网络模型的检测速度也较低。
鉴于此,亟需一种基于深度学习的近海底栖生物定量检测方法及系统。
发明内容
本发明目的之一在于提供了一种基于深度学习的近海底栖生物定量检测方法,设置YOLOv8网络模型用于近海底栖生物定量检测模型的训练,提高了近海底栖生物定量检测模型对检测图像的图像特征的处理能力,提升了检测的正确率,也增强了模型的泛化能力,另外,引入YOLOv8网络模型也使得检测速度更快。
本发明实施例提供的一种基于深度学习的近海底栖生物定量检测方法,包括:
步骤1:获取近海底栖生物的光学图像数据集;
步骤2:对光学图像数据集进行划分,获得训练集和测试集;
步骤3:设置YOLOv8网络模型;
步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;
步骤5:获取待检测图像;
步骤6:将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。
优选的,步骤3:设置YOLOv8网络模型,包括:
获取初始化YOLOv8网络模型;
确定初始化YOLOv8网络模型的主干网络卷积模块,并用SPD-Conv模块替换主干网络卷积模块;
在SPD-Conv模块中加入BiFormer模块。
优选的,确定初始化YOLOv8网络模型的主干网络卷积模块,并用SPD-Conv模块替换主干网络卷积模块,包括:
获取主干网络卷积模块的池化层,并用SPD-Conv模块替换池化层;其中,所述SPD-Conv模块包括:SPD层和non-strided convolution层。
优选的,在SPD-Conv模块中加入BiFormer模块,包括:
获取SPD-Conv模块的第一神经元,同时,获取BiFormer模块的第二神经元;
连接第一神经元和第二神经元,完成加入。
优选的,步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型,包括:
基于近海底栖生物定量检测模型的检测需求,构建损失函数;
利用训练集对YOLOv8网络模型进行模型训练,获得训练结果;
根据测试集,确定训练结果对应的差异指标;
根据差异指标和损失函数,确定最优损失函数;
获取最优损失函数对应的差异指标,并作为目标指标;
获取产生目标指标的训练结果的模型参数,并作为最优模型参数;
设置YOLOv8网络模型最优模型参数,获得近海底栖生物定量检测模型。
优选的,步骤1:获取近海底栖生物的光学图像数据集,包括:
基于预设的近海海域确定规则,确定近海海域;
获取近海海域的海域属性信息;
根据海域属性信息,确定图像采集设备的设备参数;
设置图像采集设备对应设备参数并进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集。
优选的,根据海域属性信息,确定图像采集设备的设备参数,包括:
获取海域属性信息的属性类型;
根据属性类型对应预设的属性特征拾取模板,获取属性类型对应的属性特征;
获取图像采集设备的设备种类;
确定设备种类对应的图像采集设备的设备参数调节模型;
将属性特征输入设备参数调节模型,获得设备参数。
优选的,设置图像采集设备对应设备参数并进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集,包括:
通过图像采集设备,采集相应近海海域的第一图像;
基于预设的特征粗拾取模板,确定第一图像的第一图像特征;
根据第一图像特征,判断第一图像中是否存在包含近海底栖生物图像的可疑区域;
若是,确定可疑区域内检测目标的运动类型;
若运动类型为预设的第一运动模式,获取检测目标的第二图像;
若运动类型为预设的第二运动模式,将对应第一图像作为第三图像;
基于目标跟踪技术,根据第三图像,对检测目标进行目标跟踪,获取检测目标的第四图像;
将第二图像和第四图像共同作为第五图像;
基于预设的底层特征拾取模板,确定第五图像的第二图像特征;
根据第二图像特征,判断是否存在近海底栖生物;
若是,将对应第五图像的集合作为光学图像数据集。
优选的,基于目标跟踪技术,根据第三图像,对检测目标进行目标跟踪,获取检测目标的第四图像,包括:
获取第三图像的拍摄时间;
将第三图像按照拍摄时间从早到晚的顺序进行排序,获得图像序列;
依次遍历图像序列中每一第三图像,每次遍历时,将当前正在遍历的第三图像作为第六图像;
获取第六图像中检测目标的第一位置;
获取图像序列中第六图像之前一个遍历的第三图像中检测目标的第二位置;
确定第一位置和第二位置的相对位置和相对位置的确定时刻;
根据每一确定时刻的相对位置,预测图像检测设备下一个的拍摄时刻时检测目标的预测位置;
获取当前时刻,同时,获取图像检测设备当前所在的第三位置;
计算当前时刻和拍摄时刻的时间差值;
获取图像检测设备的速度参数;
根据第三位置、速度参数和时间差值,确定图像检测设备能够到达的目标区域;
获取图像检测设备的拍摄范围;
根据预测位置和拍摄范围,确定理想拍摄区域;
获取理想拍摄区域和目标区域的交集区域;
控制图像检测设备前往交集区域;
当图像检测设备到达交集区域后,基于目标检测技术,确定检测目标,控制图像采集设备实时拍摄检测目标,获得第七图像;
整合所有第七图像,获得第四图像。
本发明实施例提供的一种基于深度学习的近海底栖生物定量检测系统,包括:
数据集获取子系统,用于获取近海底栖生物的光学图像数据集;
数据集划分子系统,用于对光学图像数据集进行划分,获得训练集和测试集;
网络模型设置子系统,用于设置YOLOv8网络模型;
检测模型确定子系统,用于基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;
待检测图像获取子系统,用于获取待检测图像;
检测结果确定子系统,用于将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。
本发明的有益效果为:
本发明设置YOLOv8网络模型用于近海底栖生物定量检测模型的训练,提高了近海底栖生物定量检测模型对检测图像的图像特征的处理能力,提升了检测的正确率,也增强了模型的泛化能力,另外,引入YOLOv8网络模型也使得检测速度更快。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于深度学习的近海底栖生物定量检测方法的示意图;
图2为本发明实施例中一种基于深度学习的近海底栖生物定量检测系统的示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
本发明实施例提供了一种基于深度学习的近海底栖生物定量检测方法,如图1所示,包括:
步骤1:获取近海底栖生物的光学图像数据集;近海底栖生物为:生活在海洋浅海区域底部的生物,包括各种底栖动物和植物,例如:海草、珊瑚、海藻、贝类和螃蟹等;光学图像数据集为:通过光学仪器(例如:水下相机)拍摄的近海底栖生物的图像的集合;
步骤2:对光学图像数据集进行划分,获得训练集和测试集;训练集为:用于后续近海底栖生物定量检测模型训练的数据;测试集为:用于测试迭代的近海底栖生物定量检测模型是否训练收敛的数据;
步骤3:设置YOLOv8网络模型;YOLOv8网络模型为目标检测和图像分割领域中具有高度影响力的模型中的一个模型,设置YOLOv8网络模型时,用SPD-Conv(SymmetricPositive Definite Convolution,对称正定卷积)模块替换YOLOv8网络模型中的主干网络卷积模块,再在SPD-Conv模块中加入BiFormer模块(一种基于transformer的双向编码器);
步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;深度学习技术属于现有技术范畴,不作赘述;根据训练集,训练YOLOv8网络模型,再通过测试集测试训练的YOLOv8网络模型,优化损失函数,使得训练的YOLOv8网络模型收敛,获得近海底栖生物定量检测模型;
步骤5:获取待检测图像;待检测图像为:需要进行近海底栖生物定量检测的光学图像;
步骤6:将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。近海底栖生物定量检测结果为:近海底栖生物的种类组成、密度和生物量。
上述技术方案的工作原理及有益效果为:
本申请对获取的光学图像数据集进行划分,获得训练集和测试集,再设置YOLOv8网络模型,引入深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型,将获取的待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。
本申请设置YOLOv8网络模型用于近海底栖生物定量检测模型的训练,提高了近海底栖生物定量检测模型对检测图像的图像特征的处理能力,提升了检测的正确率,也增强了模型的泛化能力,另外,引入YOLOv8网络模型也使得检测速度更快。
在一个实施例中,步骤3:设置YOLOv8网络模型,包括:
获取初始化YOLOv8网络模型;初始化YOLOv8网络模型为:还未进行参数设置的YOLOv8网络模型;
确定初始化YOLOv8网络模型的主干网络卷积模块,并用SPD-Conv模块替换主干网络卷积模块;SPD-Conv模块为:对称正定卷积模块,用于获取原始数据的协方差矩阵的特征值和特征向量并进行卷积运算;主干网络卷积模块为:初始化YOLOv8网络模型中用于提取输入数据特征的模块;
在SPD-Conv模块中加入BiFormer模块。BiFormer模块用于引入自注意力机制和双向上下文注意力机制提高模型运行精度。
上述技术方案的工作原理及有益效果为:
本申请用SPD-Conv模块替换初始化YOLOv8网络模型的主干网络卷积模块,并在SPD-Conv模块中加入BiFormer模块,提高了模型的图像特征的处理能力,也提升了模型的泛化能力。
在一个实施例中,确定初始化YOLOv8网络模型的主干网络卷积模块,并用SPD-Conv模块替换主干网络卷积模块,包括:
获取主干网络卷积模块的池化层,并用SPD-Conv模块替换池化层;其中,所述SPD-Conv模块包括:SPD层和non-strided convolution层。池化层用于对卷积层的输出进行下采样,减少特征图的大小和参数数量,从而降低计算复杂度和内存消耗;SPD层为:安全策略数据库(Security Policy Database)层,用于负责管理和维护安全策略;non-stridedconvolution层是一种卷积层,输入数据、卷积核和输出数据都是对称正定矩阵。
上述技术方案的工作原理及有益效果为:
本申请用SPD-Conv模块替换主干网络卷积模块的池化层,提高了YOLOv8网络模型图像特征的处理能力。
在一个实施例中,在SPD-Conv模块中加入BiFormer模块,包括:
获取SPD-Conv模块的第一神经元,同时,获取BiFormer模块的第二神经元;第一神经元为:SPD-Conv模块所在YOLOv8网络模型的神经网络层中的神经元;第二神经元为:BiFormer模块所在YOLOv8网络模型的神经网络层中的神经元;
连接第一神经元和第二神经元,完成加入。连接时,将每一第二神经元与每一第一神经元相连。
上述技术方案的工作原理及有益效果为:
本申请连接SPD-Conv模块的第一神经元和Bi Former模块的第二神经元,实现BiFormer模块的加入,更加合理。
在一个实施例中,步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型,包括:
基于近海底栖生物定量检测模型的检测需求,构建损失函数;检测需求为:检测样本的种类和数量等;损失函数为:均方误差的计算函数;
利用训练集对YOLOv8网络模型进行模型训练,获得训练结果;训练结果为:对YOLOv8网络模型进行模型训练的过程中获得的过程模型;
根据测试集,确定训练结果对应的差异指标;差异指标为:预测值与真实值之间的平均差异;
根据差异指标和损失函数,确定最优损失函数;最优损失函数为:最优损失函数为:均方误差最小时的均方误差函数;
获取最优损失函数对应的差异指标,并作为目标指标;目标指标为:最优损失函数对应的差异指标;
获取产生目标指标的训练结果的模型参数,并作为最优模型参数;模型参数为:产生目标指标的训练结果时实时更新的模型参数;
设置YOLOv8网络模型最优模型参数,获得近海底栖生物定量检测模型。
上述技术方案的工作原理及有益效果为:
本申请根据近海底栖生物定量检测模型的检测需求,构建损失函数,损失函数的构建更合理;获取训练集对YOLOv8网络模型进行模型训练获得训练结果,根据测试集,确定训练结果的差异指标,根据差异指标和损失函数,确定最优损失函数,确定最优损失函数对应的目标指标,获取产生目标指标的训练结果的模型参数,并作为最优模型参数,提高了最优模型参数的准确性;设置YOLOv8网络模型最优模型参数,获得近海底栖生物定量检测模型,近海底栖生物定量检测模型的获取更适宜。
在一个实施例中,步骤1:获取近海底栖生物的光学图像数据集,包括:
基于预设的近海海域确定规则,确定近海海域;预设的近海海域确定规则为:人工预先设置确定近海海域的规则;近海海域为,例如:海域地图上标记经纬度坐标的矩形框;
获取近海海域的海域属性信息;海域属性信息为:近海海域的水深、流速、方向和气象条件等;
根据海域属性信息,确定图像采集设备的设备参数;设备参数为:图像采集设备需要设置的工作参数,例如:光圈大小、曝光时间和帧率等;
设置图像采集设备对应设备参数并进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集。
上述技术方案的工作原理及有益效果为:
本申请获取近海海域的海域属性信息,根据海域属性信息,确定图像采集设备的设备参数,设置图像采集设备对应设备参数进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集,适应的根据近海海域环境采集光学图像数据,提升了光学图像数据集的可用性。
在一个实施例中,根据海域属性信息,确定图像采集设备的设备参数,包括:
获取海域属性信息的属性类型;属性类型为:海域属性信息数据的数据类型,例如:海域气象;
根据属性类型对应预设的属性特征拾取模板,获取属性类型对应的属性特征;预设的属性特征拾取模板为:海域属性信息的属性类型对应的特征化模板,特征化模板约束只进行相应属性类型的属性信息的特征化,特征化技术属于现有技术范畴,不作赘述;
获取图像采集设备的设备种类;设备种类为,例如:水下相机,又例如:水下无人机;
确定设备种类对应的图像采集设备的设备参数调节模型;设备参数调节模型为:代替人工进行设备种类对应的图像采集设备的参数调节的人工智能模型;
将属性特征输入设备参数调节模型,获得设备参数。设备参数为,例如:光圈调成多大,又例如:帧率设置为多少。
上述技术方案的工作原理及有益效果为:
本申请获取海域属性信息的属性类型,引入属性类型对应的属性特征拾取模板,通过属性特征拾取模板,获取属性特征,提升了属性特征的精确性;引入设备种类对应的图像采集设备的设备参数调节模型,将属性特征输入设备参数调节模型,获得设备参数,更加智能,也提高了设备参数的精确程度。
在一个实施例中,设置图像采集设备对应设备参数并进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集,包括:
通过图像采集设备,采集相应近海海域的第一图像;第一图像为:近海海域的拍摄图像;
基于预设的特征粗拾取模板,确定第一图像的第一图像特征;预设的特征粗拾取模板为:预先设置的用于粗略的提取图像特征的模板,粗略的提取图像特征指的是对图像的颜色、形状以及面积等表层信息进行特征提取;第一图像特征为,例如:橙色,五角星形以及70平方厘米;
根据第一图像特征,判断第一图像中是否存在包含近海底栖生物图像的可疑区域;可疑区域为:第一图像中可能存在近海底栖生物的区域;
若是,确定可疑区域内检测目标的运动类型;运动类型包括:第一运动模式和第二运动模式;第一运动模式为:静止;第二运动模式为:运动;
若运动类型为预设的第一运动模式,获取检测目标的第二图像;第二图像为:静止的检测目标的图像,例如:珊瑚;
若运动类型为预设的第二运动模式,将对应第一图像作为第三图像;
基于目标跟踪技术,根据第三图像,对检测目标进行目标跟踪,获取检测目标的第四图像;目标跟踪技术属于现有技术范畴,不作赘述;第四图像为:运动的检测目标的跟踪图像;
将第二图像和第四图像共同作为第五图像;
基于预设的底层特征拾取模板,确定第五图像的第二图像特征;预设的底层特征拾取模板为:预先设置的用于轮廓点和轮廓线条的特征化的模板;第二图像特征为,例如:何种轮廓线条;
根据第二图像特征,判断是否存在近海底栖生物;判断时,获取近海底栖生物轮廓特征库,确定近海底栖生物的轮廓特征,将第二图像特征和轮廓特征进行匹配,获取匹配获得的匹配值的匹配值和值,若匹配值和值大于等于预设的匹配值和值阈值,则判断对应第四图像存在近海底栖生物;
若是,将对应第五图像的集合作为光学图像数据集。
上述技术方案的工作原理及有益效果为:
本申请引入特征粗拾取模板确定图像采集设备采集的第一图像的第一图像特征,特征粗拾取模板拾取第一图像特征时,只拾取提取算力需求较低的表层特征,根据第一图像特征,确定可能存在近海底栖生物图像的可疑区域,不是进行全部第一图像的特征的细致提取,降低了系统的能耗;获取可疑区域之后,引入检测目标的运动类型,一般的,检测目标的运动类型分为静态和动态,当检测目标(例如:珊瑚)是静态的时,获取相应检测目标多角度的第二图像;当检测目标是动态的时,由于检测目标(例如:寄居蟹)是运动的,需要获取多个运动状态的检测目标的图像,因此,引入目标追踪技术对检测目标进行目标追踪,获得第四图像,将第二图像和第四图像共同作为第五图像,提升了第五图像的丰富性;引入底层特征拾取模板提取第五图像的第二图像特征,根据第二图像特征,确定存在近海底栖生物的第五图像的集合作为光学图像数据集,光学图像数据集的获取效率更高且更全面。
在一个实施例中,基于目标跟踪技术,根据第三图像,对检测目标进行目标跟踪,获取检测目标的第四图像,包括:
获取第三图像的拍摄时间;拍摄时间为:第三图像的采集时间;
将第三图像按照拍摄时间从早到晚的顺序进行排序,获得图像序列;
依次遍历图像序列中每一第三图像,每次遍历时,将当前正在遍历的第三图像作为第六图像;
获取第六图像中检测目标的第一位置;第一位置为:第六图像中检测目标的位置;
获取图像序列中第六图像之前一个遍历的第三图像中检测目标的第二位置;第二位置为:第六图像之前一个遍历的第三图像中检测目标的位置;
确定第一位置和第二位置的相对位置和相对位置的确定时刻;相对位置为:第二位置相对于第一位置的位置,例如:西偏北方向多少度角度以及多远距离处;确定时刻为:第一位置对应的第六图像的拍摄时间;
根据每一确定时刻的相对位置,预测图像检测设备下一个的拍摄时刻时检测目标的预测位置;图像检测设备下一个的拍摄时刻根据图像检测设备预先设置的拍摄周期确定;
获取当前时刻,同时,获取图像检测设备当前所在的第三位置;当前时刻为:当前时间;第三位置为:图像检测设备在当前时刻的位置;
计算当前时刻和拍摄时刻的时间差值;时间差值为,例如:1秒;
获取图像检测设备的速度参数;速度参数为:图像检测设备的移动速度;
根据第三位置、速度参数和时间差值,确定图像检测设备能够到达的目标区域;目标区域为:图像检测设备经过时间差值的时长之后能够到达的区域;
获取图像检测设备的拍摄范围;拍摄范围为,例如:能够拍摄的拍摄距离,例如:20米;
根据预测位置和拍摄范围,确定理想拍摄区域;理想拍摄区域为:以预测位置为圆心,拍摄范围为半径的圆形区域内;
获取理想拍摄区域和目标区域的交集区域;交集区域为:理想拍摄区域与目标区域相交的区域范围;
控制图像检测设备前往交集区域;
当图像检测设备到达交集区域后,基于目标检测技术,确定检测目标,控制图像采集设备实时拍摄检测目标,获得第七图像;目标检测属于现有技术范畴,不作赘述;第七图像为:目标跟踪的所有过程图像;
整合所有第七图像,获得第四图像。
上述技术方案的工作原理及有益效果为:
本申请根据第三图像的拍摄时间,确定图像序列,再依次遍历图像序列中每一第三图像,实时获取第六图像中检测目标的第一位置和图像序列中第六图像之前一个遍历的第三图像中检测目标的第二位置的相对位置,根据每一确定时刻的相对位置,预测图像检测设备下一个的拍摄时刻时检测目标的预测位置,预测位置的获取更准确;根据获取的当前时刻和拍摄时刻的时间差值、图像检测设备的速度参数和图像检测设备当前所在的第三位置,确定图像检测设备能够到达的目标区域,根据图像检测设备的拍摄范围和预测位置,确定理想拍摄区域,再确定理想拍摄区域和目标区域的交集区域并控制图像检测设备前往,在保证图像设备能够到达相应拍摄位置的同时,拍摄效果也更好;当图像检测设备到达交集区域后,拍摄第七图像并整合,获得第四图像,提高了第四图像的适宜性。
本发明实施例提供了一种基于深度学习的近海底栖生物定量检测系统,如图2所示,包括:
数据集获取子系统1,用于获取近海底栖生物的光学图像数据集;
数据集划分子系统2,用于对光学图像数据集进行划分,获得训练集和测试集;
网络模型设置子系统3,用于设置YOLOv8网络模型;
检测模型确定子系统4,用于基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;
待检测图像获取子系统5,用于获取待检测图像;
检测结果确定子系统6,用于将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种基于深度学习的近海底栖生物定量检测方法,其特征在于,包括:
步骤1:获取近海底栖生物的光学图像数据集;
步骤2:对光学图像数据集进行划分,获得训练集和测试集;
步骤3:设置YOLOv8网络模型;
步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;
步骤5:获取待检测图像;
步骤6:将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。
2.如权利要求1所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,步骤3:设置YOLOv8网络模型,包括:
获取初始化YOLOv8网络模型;
确定初始化YOLOv8网络模型的主干网络卷积模块,并用SPD-Conv模块替换主干网络卷积模块;
在SPD-Conv模块中加入BiFormer模块。
3.如权利要求2所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,确定初始化YOLOv8网络模型的主干网络卷积模块,并用SPD-Conv模块替换主干网络卷积模块,包括:
获取主干网络卷积模块的池化层,并用SPD-Conv模块替换池化层;其中,所述SPD-Conv模块包括:SPD层和non-strided convolution层。
4.如权利要求2所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,在SPD-Conv模块中加入BiFormer模块,包括:
获取SPD-Conv模块的第一神经元,同时,获取BiFormer模块的第二神经元;
连接第一神经元和第二神经元,完成加入。
5.如权利要求1所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,步骤4:基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型,包括:
基于近海底栖生物定量检测模型的检测需求,构建损失函数;
利用训练集对YOLOv8网络模型进行模型训练,获得训练结果;
根据测试集,确定训练结果对应的差异指标;
根据差异指标和损失函数,确定最优损失函数;
获取最优损失函数对应的差异指标,并作为目标指标;
获取产生目标指标的训练结果的模型参数,并作为最优模型参数;
设置YOLOv8网络模型最优模型参数,获得近海底栖生物定量检测模型。
6.如权利要求1所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,步骤1:获取近海底栖生物的光学图像数据集,包括:
基于预设的近海海域确定规则,确定近海海域;
获取近海海域的海域属性信息;
根据海域属性信息,确定图像采集设备的设备参数;
设置图像采集设备对应设备参数并进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集。
7.如权利要求6所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,根据海域属性信息,确定图像采集设备的设备参数,包括:
获取海域属性信息的属性类型;
根据属性类型对应预设的属性特征拾取模板,获取属性类型对应的属性特征;
获取图像采集设备的设备种类;
确定设备种类对应的图像采集设备的设备参数调节模型;
将属性特征输入设备参数调节模型,获得设备参数。
8.如权利要求6所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,设置图像采集设备对应设备参数并进行相应近海海域的近海底栖生物的图像采集,获得光学图像数据集,包括:
通过图像采集设备,采集相应近海海域的第一图像;
基于预设的特征粗拾取模板,确定第一图像的第一图像特征;
根据第一图像特征,判断第一图像中是否存在包含近海底栖生物图像的可疑区域;
若是,确定可疑区域内检测目标的运动类型;
若运动类型为预设的第一运动模式,获取检测目标的第二图像;
若运动类型为预设的第二运动模式,将对应第一图像作为第三图像;
基于目标跟踪技术,根据第三图像,对检测目标进行目标跟踪,获取检测目标的第四图像;
将第二图像和第四图像共同作为第五图像;
基于预设的底层特征拾取模板,确定第五图像的第二图像特征;
根据第二图像特征,判断是否存在近海底栖生物;
若是,将对应第五图像的集合作为光学图像数据集。
9.如权利要求8所述的一种基于深度学习的近海底栖生物定量检测方法,其特征在于,基于目标跟踪技术,根据第三图像,对检测目标进行目标跟踪,获取检测目标的第四图像,包括:
获取第三图像的拍摄时间;
将第三图像按照拍摄时间从早到晚的顺序进行排序,获得图像序列;
依次遍历图像序列中每一第三图像,每次遍历时,将当前正在遍历的第三图像作为第六图像;
获取第六图像中检测目标的第一位置;
获取图像序列中第六图像之前一个遍历的第三图像中检测目标的第二位置;
确定第一位置和第二位置的相对位置和相对位置的确定时刻;
根据每一确定时刻的相对位置,预测图像检测设备下一个的拍摄时刻时检测目标的预测位置;
获取当前时刻,同时,获取图像检测设备当前所在的第三位置;
计算当前时刻和拍摄时刻的时间差值;
获取图像检测设备的速度参数;
根据第三位置、速度参数和时间差值,确定图像检测设备能够到达的目标区域;
获取图像检测设备的拍摄范围;
根据预测位置和拍摄范围,确定理想拍摄区域;
获取理想拍摄区域和目标区域的交集区域;
控制图像检测设备前往交集区域;
当图像检测设备到达交集区域后,基于目标检测技术,确定检测目标,控制图像采集设备实时拍摄检测目标,获得第七图像;
整合所有第七图像,获得第四图像。
10.一种基于深度学习的近海底栖生物定量检测系统,其特征在于,包括:
数据集获取子系统,用于获取近海底栖生物的光学图像数据集;
数据集划分子系统,用于对光学图像数据集进行划分,获得训练集和测试集;
网络模型设置子系统,用于设置YOLOv8网络模型;
检测模型确定子系统,用于基于深度学习技术,根据YOLOv8网络模型、训练集和测试集,确定近海底栖生物定量检测模型;
待检测图像获取子系统,用于获取待检测图像;
检测结果确定子系统,用于将待检测图像输入近海底栖生物定量检测模型,获得近海底栖生物定量检测结果。
CN202310735663.7A 2023-06-20 2023-06-20 一种基于深度学习的近海底栖生物定量检测方法及系统 Pending CN116664545A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310735663.7A CN116664545A (zh) 2023-06-20 2023-06-20 一种基于深度学习的近海底栖生物定量检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310735663.7A CN116664545A (zh) 2023-06-20 2023-06-20 一种基于深度学习的近海底栖生物定量检测方法及系统

Publications (1)

Publication Number Publication Date
CN116664545A true CN116664545A (zh) 2023-08-29

Family

ID=87715169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310735663.7A Pending CN116664545A (zh) 2023-06-20 2023-06-20 一种基于深度学习的近海底栖生物定量检测方法及系统

Country Status (1)

Country Link
CN (1) CN116664545A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237290A (zh) * 2023-09-11 2023-12-15 深圳杰泰科技有限公司 一种零件内壁表面缺陷检测及等级评定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237290A (zh) * 2023-09-11 2023-12-15 深圳杰泰科技有限公司 一种零件内壁表面缺陷检测及等级评定方法

Similar Documents

Publication Publication Date Title
Ma et al. Automatic detection and counting system for pavement cracks based on PCGAN and YOLO-MF
Han et al. Marine organism detection and classification from underwater vision based on the deep CNN method
CN107609601B (zh) 一种基于多层卷积神经网络的舰船目标识别方法
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN110728658A (zh) 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN111723657B (zh) 一种基于YOLOv3与自优化的河道异物检测方法及装置
CN110108704A (zh) 一种蓝藻自动监测预警方法及其自动监测预警系统
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
CN113469097B (zh) 一种基于ssd网络的水面漂浮物多相机实时检测方法
CN110991516A (zh) 一种基于风格迁移的侧扫声呐图像目标分类方法
CN115861619A (zh) 一种递归残差双注意力核点卷积网络的机载LiDAR城市点云语义分割方法与系统
CN112418028A (zh) 一种基于深度学习的卫星图像中船舶识别与分割方法
CN113850799A (zh) 一种基于YOLOv5的微量DNA提取工作站工件检测方法
CN116664545A (zh) 一种基于深度学习的近海底栖生物定量检测方法及系统
CN114724022A (zh) 融合SKNet与YOLOv5的养殖鱼群检测方法、系统和介质
CN111259733A (zh) 一种基于点云图像的船舶识别方法及装置
Han et al. Research on remote sensing image target recognition based on deep convolution neural network
CN117237986A (zh) 一种基于改进YOLOv7模型的鱼类目标个体位置检测方法
CN114861761A (zh) 一种基于孪生网络特征与几何验证的回环检测方法
CN116682106A (zh) 一种基于深度学习的柑橘木虱智能检测方法及装置
CN115439738A (zh) 一种基于自监督协同重构的水下目标检测方法
CN111723823A (zh) 一种基于第三方迁移学习的水下目标检测方法
CN113283320B (zh) 一种基于通道特征聚合的行人重识别方法
Feng et al. Fry counting models based on attention mechanism and YOLOv4-tiny
CN114037737B (zh) 一种基于神经网络的近岸海底鱼类检测及跟踪统计方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination