CN116665148A - 基于合成孔径雷达数据的海上船舶检测方法 - Google Patents
基于合成孔径雷达数据的海上船舶检测方法 Download PDFInfo
- Publication number
- CN116665148A CN116665148A CN202310617707.6A CN202310617707A CN116665148A CN 116665148 A CN116665148 A CN 116665148A CN 202310617707 A CN202310617707 A CN 202310617707A CN 116665148 A CN116665148 A CN 116665148A
- Authority
- CN
- China
- Prior art keywords
- yolov8
- network
- characteristic information
- ccat
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 86
- 238000012549 training Methods 0.000 claims abstract description 55
- 238000012360 testing method Methods 0.000 claims abstract description 33
- 238000011156 evaluation Methods 0.000 claims abstract description 18
- 238000012795 verification Methods 0.000 claims abstract description 16
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 230000002708 enhancing effect Effects 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 60
- 239000013598 vector Substances 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 34
- 238000010586 diagram Methods 0.000 claims description 29
- 230000006870 function Effects 0.000 claims description 26
- 230000007246 mechanism Effects 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 230000008447 perception Effects 0.000 claims description 12
- 238000007689 inspection Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 7
- 230000001629 suppression Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 230000004807 localization Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000005065 mining Methods 0.000 abstract 1
- 230000003993 interaction Effects 0.000 description 18
- 238000002679 ablation Methods 0.000 description 5
- 238000009412 basement excavation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明公开基于合成孔径雷达数据的海上船舶检测方法,对SAR船舶图像数据进行预处理和标注生成船舶图像数据集,并对船舶图像数据集按设定比例分为训练集、验证集和测试集,在YOLOv8网络添加增强对关键特征信息的提取能力的CCA模块和挖掘图像的深层特征信息的Transformer模块以构建CCAT‑YOLOv8网络;采用训练集来对CCAT‑YOLOv8网络进行训练得到CCAT‑YOLOv8检测模型,同时使用测试集来评估CCAT‑YOLOv8检测模型的性能,评价合格后则结束测试;将带检测SAR船舶图像输入的CCAT‑YOLOv8检测模型得到船舶检测结果。本发明在复杂环境下能够对船舶进行有效的检测。
Description
技术领域
本发明涉及船舶监测技术领域,尤其涉及基于合成孔径雷达数据的海上船舶检测方法。
背景技术
近年来,随着海上船舶数量的不断增加,海上事故频繁发生,海事部门对海上船舶的管理提出了更高要求。卫星图像技术作为一种快速、高效获取海上船舶信息的手段,越来越受到广泛关注。光学遥感卫星拍摄的图像可以提供高分辨率的船舶图像,但是在夜间或低云、低能见度等条件下,其图像质量受限。相比之下,SAR能够在24小时全天候、高穿透、多维度的获取船舶信息并生成图像,因此采用SAR图像对船舶进行检测成为了一种主要的方式。但是由于SAR生成的图像是灰度图像,在船舶检测过程中纹理特征不易提取,同时由于SAR的图像生成机制,该类图像在生成过程中容易受到各种杂波干扰,使得图像产生大量噪点,同时在港口等近岸区域的各类建筑易与目标船只产生特征相近的强散射光点,使得船舶检测具有一定难度,从而导致传统的检测方法精度不高。
发明内容
本发明的目的在于提供基于合成孔径雷达数据的海上船舶检测方法。
本发明采用的技术方案是:
基于合成孔径雷达数据的海上船舶检测方法,包括以下步骤:
步骤1,对SAR船舶图像数据进行预处理和标注生成船舶图像数据集,并对船舶图像数据集按设定比例分为训练集、验证集和测试集,训练集将被用来训练模型,验证集用于训练过程中的评估,测试集将被用来评估模型的性能;
进一步地,步骤1中预处理包括剪裁和筛选,即通过剪裁和筛选得到像素尺寸为256px×256px的船舶图像数据。
进一步地,步骤1中训练集、验证集和测试集的设定比例为8:1:1。
具体地,首先对SAR船舶图像数据进行处理,对其剪裁和筛选得到像素尺寸为256px×256px的船舶图像数据,同时采用LabelImg工具对每张图像中的船舶横纵坐标、长度、宽度进行标注,最后生成船舶图像数据集,对船舶图像数据集按8:1:1的比例分为训练集、验证集和测试集,训练集将被用来训练模型,验证集用于训练过程中的评估,测试集将被用来评估模型的性能;
步骤2,构建CCAT-YOLOv8网络:在YOLOv8网络的主干(Backbone)网络的输出端和颈部(Neck)网络输入端之间添加CCA模块,同时将YOLOv8模型的预测(Predict)网络的Transformer模块替换为改进Transformer模块,进行构建CCAT-YOLOv8网络;其中,CCA模块结合坐标注意力机制和通道注意力机制以提升网络获取特征信息的视野,增强对关键特征信息的提取能力;改进Transformer模块用于获取全局特征信息之间的联系,以挖掘出图像的深层特征信息;
步骤3,采用训练集来对CCAT-YOLOv8网络进行训练得到CCAT-YOLOv8检测模型,同时使用测试集来评估CCAT-YOLOv8检测模型的性能,基于评估结果对CCAT-YOLOv8检测模型进行评价,评价合格后则结束测试;
进一步地,在训练过程中,输入训练数据并根据网络输出与期望输出之间的差异计算损失值,并使用反向传播算法来更新网络参数。这个过程通过多次迭代来优化网络,使其逐渐学习提取特征并准确地预测目标。
性能评估:在模型训练完成后,使用测试集对CCAT-YOLOv8检测模型的性能进行评估。通过将测试集输入到训练好的模型中,观察模型的输出结果与真实标签之间的差异。评估指标包括评价指标包括平均精度(mean Average Precision,mAP)、准确率(Precision)、召回率(Recall)。通常当模型的评估结果达到或超过这些阈值时,可以认为模型已经训练成型,这里设置训练30个epoch,更多也可以。
进一步地,评估CCAT-YOLOv8检测模型的性能的评价指标包括平均精度(meanAverage Precision,mAP)、准确率(Precision)、召回率(Recall)。
步骤4,将带检测的新的SAR船舶图像输入训练好的CCAT-YOLOv8检测模型,CCAT-YOLOv8检测模型输出船舶检测结果,船舶检测结果包括船舶的边界框和类别信息。
进一步地,通过对训练好的CCAT-YOLOv8检测模型进行消融实验测试,以确认CCA模块和改进Transfomer模块对YOLOv8模型的影响;
进一步地,步骤2中YOLOv8网络结构包括输入端(Input)、主干网络(Backbone)、颈部网络(Neck)、预测网络(Predict);输入数据通过输入端(Input)输入YOLOv8模型;Backbone用于提取图像的特征信息,Neck部分用于增强Backbone提取的特征信息;Predict部分用于边界框的生成与损失函数的计算。
进一步地,步骤3中训练集的图像在输入CCAT-YOLOv8网络前用的Mosaic数据增强方式,即通过随机缩放、裁剪和排布图像,然后将多张图像拼接在一起作为输入,以提高模型的准确率。
进一步地,步骤3获得CCAT-YOLOv8检测模型的方法具体为:
步骤3-1,将训练集中的图像进行标准化预处理,并将预处理后的图像输入所述backbone部分,获得不同尺度的特征图;
步骤3-2,将不同尺度的特征图输入CCA模块,CCA模块结合坐标注意力机制和通道注意力机制以提升网络获取特征信息的视野,增强对关键特征信息;
步骤3-3,经CCA模块增强的不同尺度的特征图输入neck部分,进行上采样和特征融合后获得不同尺度的张量数据;
步骤3-4,将不同尺度的张量数据输入prediction部分,经改进Transformer模块获取全局特征信息之间的联系挖掘出图像的深层特征信息后,基于损失函数及反向传播对梯度进行计算,实时进行梯度更新并利用所述验证集进行验证,获得CCAT-YOLOv8检测模型。
进一步地,步骤3-2中CCA模块执行如下操作:
步骤3-2-1,CCA模块将输入特征图分别进行水平和垂直方向的平均池化,即分别沿着水平坐标和垂直坐标对每个通道进行编码,并计算生成两个独立的具有方向感知的特征向量图;两个独立的具有方向感知的特征向量图的表达式如下:
式中,表示高度为H的第C个通道特征,/>表示高度为W的第C个通道特征计算。
步骤3-2-2,将生成的两个方向感知特征向量图进行拼接后,再进行卷积操作和批标准化;同时采用非线性激活函数ReLU来提高网络的拟合能力和泛化能力;
步骤3-2-3,将拼接处理后的特征向量图分别输入两个1×1的卷积核,并采用Sigmoid函数计算出权重特征矩阵,再将权重特征矩阵与初始特征向量相乘生成新的特征向量图。
步骤3-2-4,对新生成的特征向量图进行全局平均局池化和一维卷积操作,全局平均池化计算公式如下:
步骤3-2-5,对一维卷积操作得到特征向量的每个位置进行注意力加权计算,生成特征权重矩阵,并对特征权重矩阵中的每个位置进行归一化处理;
步骤3-2-6,将归一化后的特征权重矩阵与初始输入特征映射相乘得到最终输出的特征向量图。
具体地,CCA模块通过一维卷积块来获取不同通道间的交互范围。在跨卷积交互的邻域中,通道尺寸越大,其中的交互作用就会越长,通道尺寸越小,其中的交互作用就会越小。这表现出了一个非线性关系如公式(4)所示。交互邻域k的计算方式如式(5)所示。在公式(5)中γ和b表示是线性参数,C表示特征通道的维度,│t│odd表示距离t最近的距离。
C=φ(k)=2(γ*k-b) (4)
进一步地,步骤3-4中改进Transfomer模块执行如下操作:
步骤3-4-1,将输入特征信息通过批标准化(Batch Normalization,BN)层,以标准化特征信息分布从而提升训练速度;
步骤3-4-2,将批标准化后的特征信息通过一多头自注意力(Mmulti-headAttention,MHA)模块增强提取图片的深层特征信息;提高模型在对多尺度、小目标、噪点高的图片上进行检测时的准确率。为了抑制网络过拟合,在MHA模块后添加了一个抑制(Dropout)层。
步骤3-4-3,将提取的深层特征信息通过一抑制(Dropout)层以抑制网络过拟合得到第一特征信息;
步骤3-4-4,利用一concat层将输入特征信息与初步特征信息进行加权相加得到加权特征信息;
步骤3-4-5,将加权特征信息依次通过一批标准化层和一多感知机层(MultilayerPerceptron,MLP)得到第二特征信息,以提高神经网络的非线性拟合能力和表达能力后,从而进一步提高模型的性能。
步骤3-4-6,利用一concat层将加权特征信息与第二特征信息进行加权相加得到最终的完整特征信息并输出;从而保证特征信息的完整性,提升网络在检测中的精度。
进一步地,步骤3-4-2中多头自注意力(Mmulti-head Attention,MHA)模块执行如下操作:
步骤3-4-2-1,首先对输入信息进行位置编码得到位置信息;
步骤3-4-2-2,然后基于位置信息建立多组查询(Query)矩阵、键(Key)矩阵和数值(Value)矩阵;
步骤3-4-2-3,将每组的Query矩阵与Key矩阵的转置相乘得到权重矩阵W,并通过权重矩阵W与Value向量进行缩放点积计算得到点积结果;缩放点积计算的目的是将点积结果缩放到一个较小的范围,从而减小计算结果对于梯度更新的影响。
步骤3-4-2-4,采用归一化的方式计算出每个注意力头上的注意力得分,并将每个注意力头的得分进行加权求和生成最终的注意力得分矩阵。
进一步地,步骤3-4-2-1中多头自注意力(Mmulti-head Attention,MHA)模块的位置编码的表达式如下:
式中:pos表示特征信息的位置;i是维度,dmodel表示模型的输出维度;
进一步地,步骤3-4-2-4中注意力得分的计算表达式如下:
式中:Q、K、V别表示查询、键、数值矩阵,du表示Query、Key、Vaule矩阵的维度。
本发明采用以上技术方案,基于SAR图像数据的海上船舶检测是一个重要的海事管理工作,本发明收集并准备包含SAR船舶图像的数据集。数据集应包含SAR图像以及每个图像中船舶的标注信息,如边界框或关键点。确保数据集中的图像和标注信息是配对的。使用准备好的SAR船舶图像数据集和适当配置的CCAT-YOLOv8模型进行训练。并利用CCA模块和改进Transformer模块提高对特征信息的提取能力和全局特征信息之间联系的挖掘能力,实现检测船舶对象并进行边界框的预测,同时根据需要进行训练迭代次数的调整,以获得更好的检测性能。
本发明对于提高海事管理效能,降低海上事故发生率具有重要意义。在实验测试中,采用了大规模的SAR船舶图像数据集进行测试,相比Faster-RCNN、YOLO系列及其它改进YOLO系列图像识别模型,本发明基于CCAT-YOLOv8检测模型的检测精度和准确率更高,且在高噪点、光污染、多尺度、小目标、复杂环境等情况下依然能够对船舶进行有效的检测。
附图说明
以下结合附图和具体实施方式对本发明做进一步详细说明;
图1为CCAT-YOLOv8网络的结构示意图;
图2为CCA模块的结构示意图;
图3为Transformer模块的结构示意图;
图4为多头注意力机制模块的结构示意图;
图5为C2f模块结构示意图;
图6为Bottleneck模块结构示意图;
图7为SPFF模块结构示意图;
图8为Detect模块结构示意图。
实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图对本申请实施例中的技术方案进行清楚、完整地描述。
如图1至图8之一所示,本发明公开了基于合成孔径雷达数据的海上船舶检测方法,其包括以下步骤:
步骤1,对SAR船舶图像数据进行预处理和标注生成船舶图像数据集,并对船舶图像数据集按设定比例分为训练集、验证集和测试集,训练集将被用来训练模型,验证集用于训练过程中的评估,测试集将被用来评估模型的性能;
具体地,首先对SAR船舶图像数据进行处理,对其剪裁和筛选得到像素尺寸为256px×256px的船舶图像数据,同时采用LabelImg工具对每张图像中的船舶横纵坐标、长度、宽度进行标注,最后生成船舶图像数据集,对船舶图像数据集按8:1:1的比例分为训练集、验证集和测试集,训练集将被用来训练模型,验证集用于训练过程中的评估,测试集将被用来评估模型的性能;
步骤2,构建CCAT-YOLOv8网络:在YOLOv8网络的主干(Backbone)网络的输出端和颈部(Neck)网络输入端之间添加CCA模块,同时将YOLOv8模型的预测(Predict)网络的Transformer模块替换为改进Transformer模块,进行构建CCAT-YOLOv8网络;其中,CCA模块结合坐标注意力机制和通道注意力机制以提升网络获取特征信息的视野,增强对关键特征信息的提取能力;改进Transformer模块用于获取全局特征信息之间的联系,以挖掘出图像的深层特征信息;
具体地,YOLOv8网络结构包括输入端Input、主干网络Backbone、颈部网络Neck、预测网络Predict;输入数据通过输入端Input输入YOLOv8模型;主干网络Backbone用于提取图像的特征信息,颈部网络Neck用于增强主干网络Backbone提取的特征信息;预测网络Predict用于边界框的生成与损失函数的计算。
步骤3,采用训练集来对CCAT-YOLOv8网络进行训练得到CCAT-YOLOv8检测模型,同时使用测试集来评估CCAT-YOLOv8检测模型的性能,基于评估结果对CCAT-YOLOv8检测模型进行评价,评价合格后则结束测试;
具体地,在训练过程中,输入训练数据并根据网络输出与期望输出之间的差异计算损失值,并使用反向传播算法来更新网络参数。这个过程通过多次迭代来优化网络,使其逐渐学习提取特征并准确地预测目标。
性能评估:在模型训练完成后,使用测试集对CCAT-YOLOv8检测模型的性能进行评估。通过将测试集输入到训练好的模型中,观察模型的输出结果与真实标签之间的差异。评估指标包括评价指标包括平均精度(mean Average Precision,mAP)、准确率(Precision)、召回率(Recall)。通常当模型的评估结果达到或超过这些阈值时,可以认为模型已经训练成型,这里设置训练30个epoch,更多也可以。
进一步地,步骤3中训练集的图像在输入CCAT-YOLOv8网络前用的Mosaic数据增强方式,即通过随机缩放、裁剪和排布图像,然后将多张图像拼接在一起作为输入,以提高模型的准确率。
进一步地,步骤3获得CCAT-YOLOv8检测模型的方法具体为:
步骤3-1,将训练集中的图像进行标准化预处理,并将预处理后的图像输入所述backbone部分,获得不同尺度的特征图;
步骤3-2,将不同尺度的特征图输入CCA模块,CCA模块结合坐标注意力机制和通道注意力机制以提升网络获取特征信息的视野,增强对关键特征信息;具体执行如下操作:
步骤3-2-1,CCA模块将输入特征图分别进行水平和垂直方向的平均池化,即分别沿着水平坐标和垂直坐标对每个通道进行编码,并计算生成两个独立的具有方向感知的特征向量图,两个独立的具有方向感知的特征向量图的表达式如下:
式中,表示高度为H的第C个通道特征,/>表示高度为W的第C个通道特征计算。
步骤3-2-2,将生成的两个方向感知特征向量图进行拼接后,再进行卷积操作和批标准化;同时采用非线性激活函数ReLU来提高网络的拟合能力和泛化能力;
步骤3-2-3,将拼接处理后的特征向量图分别输入两个1×1的卷积核,并采用Sigmoid函数计算出权重特征矩阵,再将权重特征矩阵与初始特征向量相乘生成新的特征向量图。
步骤3-2-4,对新生成的特征向量图进行全局平均局池化和一维卷积操作,全局平均池化计算公式如下:
步骤3-2-5,对一维卷积操作得到特征向量的每个位置进行注意力加权计算,生成特征权重矩阵,并对特征权重矩阵中的每个位置进行归一化处理;
步骤3-2-6,将归一化后的特征权重矩阵与初始输入特征映射相乘得到最终输出的特征向量图。
具体地,CCA模块通过一维卷积块来获取不同通道间的交互范围。在跨卷积交互的邻域中,通道尺寸越大,其中的交互作用就会越长,通道尺寸越小,其中的交互作用就会越小。这表现出了一个非线性关系如公式(4)所示。交互邻域k的计算方式如式(5)所示。在公式(5)中γ和b表示是线性参数,C表示特征通道的维度,│t│odd表示距离t最近的距离。
C=φ(k)=2(γ*k-b) (4)
步骤3-3,经CCA模块增强的不同尺度的特征图输入neck部分,进行上采样和特征融合后获得不同尺度的张量数据;
步骤3-4,将不同尺度的张量数据输入prediction部分,经改进Transformer模块获取全局特征信息之间的联系挖掘出图像的深层特征信息后,基于损失函数及反向传播对梯度进行计算,实时进行梯度更新并利用所述验证集进行验证,获得CCAT-YOLOv8检测模型。
进一步地,步骤3-4中改进Transfomer模块执行如下操作:
步骤3-4-1,将输入特征信息通过批标准化(Batch Normalization,BN)层,以标准化特征信息分布从而提升训练速度;
步骤3-4-2,将批标准化后的特征信息通过一多头自注意力(Mmulti-headAttention,MHA)模块增强提取图片的深层特征信息;提高模型在对多尺度、小目标、噪点高的图片上进行检测时的准确率。为了抑制网络过拟合,在MHA模块后添加了一个抑制(Dropout)层。多头自注意力(Mmulti-head Attention,MHA)模块执行如下操作:
步骤3-4-2-1,首先对输入信息进行位置编码得到位置信息;位置编码的表达式如下:
式中:pos表示特征信息的位置;i是维度,dmodel表示模型的输出维度;
步骤3-4-2-2,然后基于位置信息建立多组查询(Query)矩阵、键(Key)矩阵和数值(Value)矩阵;
步骤3-4-2-3,将每组的Query矩阵与Key矩阵的转置相乘得到权重矩阵W,并通过权重矩阵W与Value向量进行缩放点积计算得到点积结果;缩放点积计算的目的是将点积结果缩放到一个较小的范围,从而减小计算结果对于梯度更新的影响。
步骤3-4-2-4,采用归一化的方式计算出每个注意力头上的注意力得分,并将每个注意力头的得分进行加权求和生成最终的注意力得分矩阵。
步骤3-4-3,将提取的深层特征信息通过一抑制(Dropout)层以抑制网络过拟合得到第一特征信息;
步骤3-4-4,利用一concat层将输入特征信息与初步特征信息进行加权相加得到加权特征信息;注意力得分的计算表达式如下:
式中:Q、K、V别表示查询、键、数值矩阵,du表示Query、Key、Vaule矩阵的维度。
步骤3-4-5,将加权特征信息依次通过一批标准化层和一多感知机层(MultilayerPerceptron,MLP)得到第二特征信息,以提高神经网络的非线性拟合能力和表达能力后,从而进一步提高模型的性能。
步骤3-4-6,利用一concat层将加权特征信息与第二特征信息进行加权相加得到最终的完整特征信息并输出;从而保证特征信息的完整性,提升网络在检测中的精度。
进一步地,步骤3-4-2-4中
此外,作为可选实施步骤,在得到CCAT-YOLOv8检测模型后,可分别对目标检测模型YOLOv8、在YOLOv8中融入CCA模块的CCA-YOLOv8、在YOLOv8中融入Transfomer模块的Transformer-YOLOv8和在YOLOv8中同时融入CCA模块和Transfomer模块的CCAT-YOLOv8进行消融实验对比。通过对比不同模型配置(YOLOv8、CCA-YOLOv8、Transformer-YOLOv8和CCAT-YOLOv8)的性能差异。通过消融实验对比确定CCA模块和改进Transformer模块在海上船舶检测中的贡献和影响。
为探究本发明提出的CCA模块和改进Transfomer模块对YOLOv8算法的影响,采用目标检测算法:YOLOv8、在YOLOv8中融入CCA模块的CCA-YOLOv8、在YOLOv8中融入Transfomer模块的Transformer-YOLOv8和在YOLOv8中同时融入CCA模块和Transfomer模块的CCAT-YOLOv8,进行消融实验对比,实验结果如表5所示。
表5消融实验结果
从上表中可知,本发明提出的CCAT-YOLOv8算法的mAP、Recall、Precision值分别为92.57%、80.7%、91.58%,相比YOLOv8算法的mAP、Recall、precision值分别提升6.49%、6.95%、2.08%。这表明本发明所提出的机制对于YOLOv8算法其有较好的改善效果,提升其在船舶检测中的性能。具体来看,引入CCA模块的CCA-YOLOv8算法在平均精度、召回率和准确率相比YOLOv8算法更高,验证了CCA模块能够扩大对特征信息捕获的视野,增强算法对特征信息的捕获能力从而提升对检测目标的精度并且大幅度降低漏检率。同样引入Transformer模块的Transformer-YOLOv8算法相比YOLOv8算法的平均精度、召回率和准确率更高,验证了Tranfomer模块够获取图像特征信息之间的联系,挖掘出更深层的特征信息,从而提升算法的检测性能。同时,在CCAT-YOLOv8算法中同时融入CCA模块和Transformer模块,在三个评价指标上都有显著的提升,表明CCA模块和Transformer模块的结合能够进一步提升算法性能,因为CCA模块能够扩大特征信息的捕获视野,而Transformer模块能够挖掘更深层次的特征信息,两者的结合能够在不同层次上提升算法性能,从而取得更好的检测结果。因此,本发明提出的CCAT-YOLOv8算法具有很高的实用性和推广价值,能够为实际的船舶检测任务提供有效的解决方案。
步骤4,将带检测的新的SAR船舶图像输入训练好的CCAT-YOLOv8检测模型,CCAT-YOLOv8检测模型输出船舶检测结果,船舶检测结果包括船舶的边界框和类别信息。
下面就本发明的具体原理做详细说明:
CCAT-YOLOv8模型的结构如下图1所示,由Input、Backbone、Neck、Predict四部分组成。Backbone主要由CBS(Convolutional Bottleneck with SiLU)模块、C2f模块、SPFF(Spatial Pyramid Pooling-Fast)模块构成。其中,CBS模块由卷积函数、批量标准化(Batch Normalization,BN)函数和归一化函数SiLU(Sigmoid Linear Unit)组成。其中BN函数的主要作用是使得神经网络的每一层都保持相同的分布,避免网络训练中出现梯度消失。CBS模块通过改变特征通道数实现对特征信息的压缩和扩展,从而提高网络的计算速度和精度。其中C2f模块是一种用于提取深层特征信息的网络组件,它可以嵌入到任意位置或者替换任意卷积层以增强Backbone的性能。
C2f模块的结构如下图5所示。首先,将输入的特征信息通过CBS模块进行处理,再使用Split函数将特征信息分成两个部分,并分别输入到两个Bottleneck模块中。在这个过程中,Split函数的作用是将特征信息按照一定规则分割,以便网络更好地处理。在每个Bottleneck模块中,输入的特征信息会经过多层卷积和池化等操作,并将这个过程中每步所得到的特征信息加权相加,从而使网络能够获取到更深层且更充分的特征信息。
其中Bottleneck模块结构如图6所示。该模块将输入特征分别输入到两个卷积模块中,并在卷积操作之后将输出特征信息合并起来。这个操作的目的是增强网络的特征表达能力和抗干扰能力,使得特征信息可以更加全面、准确地进行训练和提取。Bottleneck模块的主要作用是对输入的特征信息进行降维处理,以减少网络参数和计算复杂度,同时保持特征信息的有效性。
CCAT-YOLOv8模型Backbone和Neck部分采用3个CCA模块进行连接,连接方式如上图4中所示,CCA模块对Backbone输出的特征权重进行重新分配、各个通道间进行了交互,使得神经网络能更充分的获取到图片特征信息。Neck主要由C2f、Upsample等模块构成。其中Neck的Upsample是一种上采样方法,即在图像的像素点之间插入更多的元素,使得图像放大以便获得更多图像的特征信息,以增强模型检测的精度。
CCA模块的结构如图2所示,其中输入特征图的参数W、H、C,分别表示宽、高、特征通道数。首先将输入特征分别进行水平和垂直方向的平均池化,即分别沿着水平坐标和垂直坐标对每个通道进行编码,生成两个独立的具有方向感知特征向量图,具体计算方式如式(1)和(2)所示。之后将生成的两个方向感知特征向量图进行拼接,并对其进行卷积操作和批标准化,同时采用非线性激活函数ReLU来提高网络的拟合能力和泛化能力。下一步将特征向量分别输入两个1×1的卷积核,并采用Sigmoid函数计算出权重特征矩阵,此后将权重特征矩阵与初始特征向量相乘生成新的特征向量图。
式中表示高度为H第C个通道特征,/>表示高度为W的第C个通道特征计算。
接下来对新生成的特征向量图进行全局平均局池化,并进行一维卷积操作,全局平均池化计算公式如式(3)所示。然后通过一维卷积得到特征向量,对每个位置进行注意力加权计算,生成特征权重矩阵。然后对特征权重矩阵中的每个位置进行归一化处理。将归一化后的特征权重矩阵与初始输入特征映射相乘得到最终输出的特征向量图。该部分结构通过一维卷积块来获取不同通道间的交互范围。在跨卷积交互的邻域中,通道尺寸越大,其中的交互作用就会越长,通道尺寸越小,其中的交互作用就会越小。这表现出了一个非线性关系如公式(4)所示。交互邻域k的计算方式如式(5)所示。在公式(5)中γ和b表示是线性参数,C表示特征通道的维度,│t│odd表示距离t最近的距离。
C=φ(k)=2(γ*k-b) (4)
CCAT-YOLOv8模型的Predict部分主要由改进Transformer模块和Detect模块构成,分别用于增强图像特征信息和检测目标对象。本发明构建的Transformer模块是一种可插入YOLOv8网络的检测头中用于辅助检测以增强其检测准确率的网络组件。在Transformer模块中采用了多头自注意力机制,其相比单头的自注意力机制更容易聚焦于图像局部特征信息之间联系,多头注意力机制能够不受距离限制的获取图像全局特征信息之间的联系来挖掘出更深层的特征信息,从而提升模型检测的准确率。
改进Transformer模块的结构如下图3所示。首先将特征信息输入到一个批标准化(Batch Normalization,BN)层中,用于标准化特征信息分布从而提升训练速度,然后连接一个多头自注意力(Mmulti-head Attention,MHA)模块,MHA模块用于增强对图片的深层特征信息的提取,提高模型在对多尺度、小目标、噪点高的图片上进行检测时的准确率。为了抑制网络过拟合,在MHA模块后添加了一个抑制(Dropout)层。同时,将输入信息与通过MHA模块提取的特征信息进行加权相加,以使特征信息更加丰富。之后连接一个批标准化层和一个多感知机层(Multilayer Perceptron,MLP),以提高神经网络的非线性拟合能力和表达能力,从而进一步提高模型的性能。最后将所有特征信息进行相加输出,从而保证特征信息的完整性,提升网络在检测中的精度。
其中MHA模块的结构如图4所示。该模块首先对输入信息进行位置编码,位置编码方法如式(6)、(7)所示。然后基于位置信息建立多组查询(Query)矩阵、键(Key)矩阵和数值(Value)矩阵。然后,将每组的Query矩阵与Key矩阵的转置相乘得到权重矩阵W,并通过W权重矩阵与Value向量进行缩放点积计算。缩放点积计算的目的是将点积结果缩放到一个较小的范围,从而减小计算结果对于梯度更新的影响。接着,采用归一化的方式计算出每个注意力头上的注意力得分,计算方法如式(8)所示。最后,将每个注意力头的得分进行加权求和生成最终的注意力得分矩阵。
式中:pos表示特征信息的位置,Q、K、V别表示查询、键、数值矩阵,du表示Query、Key、Vaule矩阵的维度。
Detect模块在Predict部分中的结构如下图8所示,当接收到特征向量后,会分别输入两条路径,每条路径包括一个CBS模块和一个一维卷积模块,两条路径中分别用于计算分类损失函数(Classification Loss)和回归损失函数(Bounding Box RegressionLoss)。
CCAT-YOLOv8模型的Detect部分主采用CIoU_Loss作为回归损失函数,CIoU_Loos的计算方式如式(9)所示[32]。在进行边界框去重时,本发明采用的非极大值抑制函数为Distance-IoU-NMS,Distance IoU相对于传统的IoU指标判断边界框重叠,其考虑了边界框中心点之间的距离,从而减少冗余的边界框[33]。该方法的计算方式如式(10)和(11)所示:
式(9)中IoU表示预测框与目标框的交集与并集的比值,C为包含目标框与预测框的最小外接框,C/(A∪B)表示为C中未包含A和B的部分。式10中si表示检测目标的当前类别得分,Bi表示检测目标类别的所有比较预测框,M表示预测框中置信度最高的预测框,Viou表示真实边框与预测边框中的交集与并集的比值。RDiou表示Diou的惩罚系数。ε为NMS的阈值。式11中P表示距离,b和bgt表示锚点框,c是包含两个锚点框的最小对角线长度。
本发明构建的CCA模块是一种能够融入到YOLO系列模型的主干网络中增强其检测精度的注意力网络组件。CCA模块结合坐标注意力(Coordinate Attention,CA)机制和通道注意力(Efficient Channel Attention Module,ECA)机制的特点,在CCA模块结构中,将位置信息嵌入到特征信息通道中,相比传统的通道注意力模块,它能够跨通道获得更多的特征视野,以收集到更多的特征信息,从而使得模型能够更加精准的定位和识别检测目标。同时CCA模块采用了不降维的局部跨通道交互策略,这种交互策略可以在不降低输入向量维度的情况下计算注意力权重来保证信息的完整性,同时跨通道能够更好的捕捉特征信息之间的相关性,从而提高模型识别的准确率。
本发明采用以上技术方案,基于SAR图像数据的海上船舶检测是一个重要的海事管理工作,本发明收集并准备包含SAR船舶图像的数据集。数据集应包含SAR图像以及每个图像中船舶的标注信息,如边界框或关键点。确保数据集中的图像和标注信息是配对的。使用准备好的SAR船舶图像数据集和适当配置的CCAT-YOLOv8模型进行训练。并利用CCA模块和改进Transformer模块提高对特征信息的提取能力和全局特征信息之间联系的挖掘能力,实现检测船舶对象并进行边界框的预测,同时根据需要进行训练迭代次数的调整,以获得更好的检测性能。
本发明对于提高海事管理效能,降低海上事故发生率具有重要意义。在实验测试中,采用了大规模的SAR船舶图像数据集进行测试,相比Faster-RCNN、YOLO系列及其它改进YOLO系列图像识别模型,本发明基于CCAT-YOLOv8检测模型的检测精度和准确率更高,且在高噪点、光污染、多尺度、小目标、复杂环境等情况下依然能够对船舶进行有效的检测。
显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
Claims (10)
1.基于合成孔径雷达数据的海上船舶检测方法,其特征在于:其包括以下步骤:
步骤1,对SAR船舶图像数据进行预处理和标注生成船舶图像数据集,并对船舶图像数据集按设定比例分为训练集、验证集和测试集,训练集将被用来训练模型,验证集用于训练过程中的评估,测试集将被用来评估模型的性能;
步骤2,构建CCAT-YOLOv8网络:在YOLOv8网络的主干网络Backbone的输出端和颈部网络Neck输入端之间添加CCA模块,同时将YOLOv8模型的预测网络Predict的Transformer模块替换为改进Transformer模块,进行构建CCAT-YOLOv8网络;其中,CCA模块结合坐标注意力机制和通道注意力机制以提升网络获取特征信息的视野,增强对关键特征信息的提取能力;改进Transformer模块用于获取全局特征信息之间的联系,以挖掘出图像的深层特征信息;
步骤3,采用训练集来对CCAT-YOLOv8网络进行训练得到CCAT-YOLOv8检测模型,同时使用测试集来评估CCAT-YOLOv8检测模型的性能,基于评估结果对CCAT-YOLOv8检测模型进行评价,评价合格后则结束测试;
步骤4,将带检测的新的SAR船舶图像输入训练好的CCAT-YOLOv8检测模型,CCAT-YOLOv8检测模型输出船舶检测结果,船舶检测结果包括船舶的边界框和类别信息。
2.根据权利要求1所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤1中预处理包括剪裁和筛选,即通过剪裁和筛选得到像素尺寸为256px×256px的船舶图像数据。
3.根据权利要求1所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤1中训练集、验证集和测试集的设定比例为8:1:1。
4.根据权利要求1所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤2中YOLOv8网络结构包括输入端Input、主干网络Backbone、颈部网络Neck、预测网络Predict;输入数据通过输入端Input输入YOLOv8模型;主干网络Backbone用于提取图像的特征信息,颈部网络Neck用于增强主干网络Backbone提取的特征信息;预测网络Predict用于边界框的生成与损失函数的计算。
5.根据权利要求1所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤3中采用训练集来对CCAT-YOLOv8网络进行训练时,输入训练数据并根据网络输出与期望输出之间的差异计算损失值,再使用反向传播算法来更新网络参数;通过多次迭代优化网络,使得逐渐学习提取特征并准确地预测目标。
6.根据权利要求1所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤3中使用测试集来评估CCAT-YOLOv8检测模型的性能时,在CCAT-YOLOv8检测模型训练完成后,通过将测试集输入到训练好的模型中获取CCAT-YOLOv8检测模型的输出结果与真实标签之间的差异,并计算得到评估指标;当CCAT-YOLOv8检测模型的评估指标达到或超过设定阈值时,判定CCAT-YOLOv8检测模型已经训练成型;评估指标包括评价指标包括平均精度、准确率、召回率。
7.根据权利要求1所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤3获得CCAT-YOLOv8检测模型的方法具体为:
步骤3-1,将训练集中的图像进行标准化预处理,并将预处理后的图像输入所述backbone部分,获得不同尺度的特征图;
步骤3-2,将不同尺度的特征图输入CCA模块,CCA模块结合坐标注意力机制和通道注意力机制以提升网络获取特征信息的视野,增强对关键特征信息;
步骤3-3,经CCA模块增强的不同尺度的特征图输入neck部分,进行上采样和特征融合后获得不同尺度的张量数据;
步骤3-4,将不同尺度的张量数据输入prediction部分,经改进Transformer模块获取全局特征信息之间的联系挖掘出图像的深层特征信息后,基于损失函数及反向传播对梯度进行计算,实时进行梯度更新并利用所述验证集进行验证,获得CCAT-YOLOv8检测模型。
8.根据权利要求7所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤3-2中CCA模块执行如下操作:
步骤3-2-1,CCA模块将输入特征图分别进行水平和垂直方向的平均池化,即分别沿着水平坐标和垂直坐标对每个通道进行编码,并计算生成两个独立的具有方向感知的特征向量图;两个独立的具有方向感知的特征向量图的表达式如下:
式中,表示高度为H的第C个通道特征,/>表示高度为W的第C个通道特征计算。
步骤3-2-2,将生成的两个方向感知特征向量图进行拼接后,再进行卷积操作和批标准化;同时采用非线性激活函数ReLU来提高网络的拟合能力和泛化能力;
步骤3-2-3,将拼接处理后的特征向量图分别输入两个1×1的卷积核,并采用Sigmoid函数计算出权重特征矩阵,再将权重特征矩阵与初始特征向量相乘生成新的特征向量图。
步骤3-2-4,对新生成的特征向量图进行全局平均局池化和一维卷积操作,全局平均池化计算公式如下:
步骤3-2-5,对一维卷积操作得到特征向量的每个位置进行注意力加权计算,生成特征权重矩阵,并对特征权重矩阵中的每个位置进行归一化处理;
步骤3-2-6,将归一化后的特征权重矩阵与初始输入特征映射相乘得到最终输出的特征向量图。
9.根据权利要求7所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤3-4中改进Transfomer模块执行如下操作:
步骤3-4-1,将输入特征信息通过批标准化(Batch Normalization,BN)层,以标准化特征信息分布从而提升训练速度;
步骤3-4-2,将批标准化后的特征信息通过一多头自注意力(Mmulti-head Attention,MHA)模块增强提取图片的深层特征信息;提高模型在对多尺度、小目标、噪点高的图片上进行检测时的准确率。为了抑制网络过拟合,在MHA模块后添加了一个抑制(Dropout)层。
步骤3-4-3,将提取的深层特征信息通过一抑制(Dropout)层以抑制网络过拟合得到第一特征信息;
步骤3-4-4,利用一concat层将输入特征信息与初步特征信息进行加权相加得到加权特征信息;
步骤3-4-5,将加权特征信息依次通过一批标准化层和一多感知机层(MultilayerPerceptron,MLP)得到第二特征信息,以提高神经网络的非线性拟合能力和表达能力后,从而进一步提高模型的性能。
步骤3-4-6,利用一concat层将加权特征信息与第二特征信息进行加权相加得到最终的完整特征信息并输出;从而保证特征信息的完整性,提升网络在检测中的精度。
10.根据权利要求9所述的基于合成孔径雷达数据的海上船舶检测方法,其特征在于:步骤3-4-2中多头自注意力模块执行如下操作:
步骤3-4-2-1,首先对输入信息进行位置编码得到位置信息;多头自注意力模块的位置编码的表达式如下:
式中:PE是编码位置,pos表示特征信息的位置,i是维度,dmodel表示模型的输出维度;
步骤3-4-2-2,然后基于位置信息建立多组查询矩阵Query、键矩阵Key和数值矩阵Value;步骤3-4-2-3,将每组的查询矩阵Query与键矩阵Key的转置相乘得到权重矩阵W,并通过权重矩阵W与数值矩阵Value的向量进行缩放点积计算得到点积结果;缩放点积计算的目的是将点积结果缩放到一个较小的范围,从而减小计算结果对于梯度更新的影响;
步骤3-4-2-4,采用归一化的方式计算出每个注意力头上的注意力得分,并将每个注意力头的得分进行加权求和生成最终的注意力得分矩阵,注意力得分的计算表达式如下:
式中:Q、K、V别表示查询、键、数值矩阵,du表示查询矩阵Query、键矩阵Key和数值矩阵Value的维度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310617707.6A CN116665148A (zh) | 2023-05-29 | 2023-05-29 | 基于合成孔径雷达数据的海上船舶检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310617707.6A CN116665148A (zh) | 2023-05-29 | 2023-05-29 | 基于合成孔径雷达数据的海上船舶检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116665148A true CN116665148A (zh) | 2023-08-29 |
Family
ID=87721836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310617707.6A Pending CN116665148A (zh) | 2023-05-29 | 2023-05-29 | 基于合成孔径雷达数据的海上船舶检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116665148A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117355038A (zh) * | 2023-11-10 | 2024-01-05 | 江西红板科技股份有限公司 | 用于线路板软板的x型孔加工方法及其系统 |
CN117710795A (zh) * | 2024-02-06 | 2024-03-15 | 成都同步新创科技股份有限公司 | 一种基于深度学习的机房线路安全性检测方法及系统 |
CN117975372A (zh) * | 2024-03-29 | 2024-05-03 | 山东浪潮科学研究院有限公司 | 一种基于YOLOv8和Transformer编码器相结合的工地安全检测系统及方法 |
CN117975372B (zh) * | 2024-03-29 | 2024-06-28 | 山东浪潮科学研究院有限公司 | 一种基于YOLOv8和Transformer编码器相结合的工地安全检测系统及方法 |
-
2023
- 2023-05-29 CN CN202310617707.6A patent/CN116665148A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117355038A (zh) * | 2023-11-10 | 2024-01-05 | 江西红板科技股份有限公司 | 用于线路板软板的x型孔加工方法及其系统 |
CN117355038B (zh) * | 2023-11-10 | 2024-03-19 | 江西红板科技股份有限公司 | 用于线路板软板的x型孔加工方法及其系统 |
CN117710795A (zh) * | 2024-02-06 | 2024-03-15 | 成都同步新创科技股份有限公司 | 一种基于深度学习的机房线路安全性检测方法及系统 |
CN117710795B (zh) * | 2024-02-06 | 2024-06-07 | 成都同步新创科技股份有限公司 | 一种基于深度学习的机房线路安全性检测方法及系统 |
CN117975372A (zh) * | 2024-03-29 | 2024-05-03 | 山东浪潮科学研究院有限公司 | 一种基于YOLOv8和Transformer编码器相结合的工地安全检测系统及方法 |
CN117975372B (zh) * | 2024-03-29 | 2024-06-28 | 山东浪潮科学研究院有限公司 | 一种基于YOLOv8和Transformer编码器相结合的工地安全检测系统及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111461291B (zh) | 基于YOLOv3剪枝网络和深度学习去雾模型的长输管线巡检方法 | |
CN110598029B (zh) | 基于注意力转移机制的细粒度图像分类方法 | |
CN111160311B (zh) | 基于多注意力机制双流融合网络的黄河冰凌语义分割方法 | |
Wan et al. | DA-RoadNet: A dual-attention network for road extraction from high resolution satellite imagery | |
CN116665148A (zh) | 基于合成孔径雷达数据的海上船舶检测方法 | |
CN110097028B (zh) | 基于三维金字塔图像生成网络的人群异常事件检测方法 | |
CN113159120A (zh) | 一种基于多尺度跨图像弱监督学习的违禁物检测方法 | |
CN110175248B (zh) | 一种基于深度学习和哈希编码的人脸图像检索方法和装置 | |
CN112101189B (zh) | 基于注意力机制的sar图像目标检测方法及测试平台 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
Wang et al. | A feature-supervised generative adversarial network for environmental monitoring during hazy days | |
CN112149612A (zh) | 一种基于深度神经网络的海洋生物识别系统及识别方法 | |
CN116091764A (zh) | 一种基于融合变换网络的云图像分割方法 | |
CN115880529A (zh) | 基于注意力和解耦知识蒸馏的鸟类细粒度分类方法及系统 | |
CN115423995A (zh) | 一种轻量化幕墙裂纹目标检测方法及系统、安全预警系统 | |
Chen et al. | An image restoration and detection method for picking robot based on convolutional auto-encoder | |
CN116863271A (zh) | 一种基于改进yolo v5的轻量级红外火焰检测方法 | |
CN116863293A (zh) | 一种基于改进YOLOv7算法的可见光下海上目标检测方法 | |
CN115984568A (zh) | 一种基于YOLOv3网络的雾霾环境下目标检测方法 | |
CN113537240B (zh) | 一种基于雷达序列图像的形变区智能提取方法及系统 | |
Xu et al. | Compressed YOLOv5 for oriented object detection with integrated network slimming and knowledge distillation | |
CN114565753A (zh) | 一种基于改进YOLOv4网络的无人机小目标识别方法 | |
CN114219989A (zh) | 一种基于干扰抑制和动态轮廓的雾天场景船舶实例分割方法 | |
CN113486860A (zh) | 一种基于YOLOv5的安全护具佩戴检测方法及系统 | |
Dong et al. | Intelligent pixel-level pavement marking detection using 2D laser pavement images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |