CN118334526B - 一种基于改进Yolov8模型的堤防损坏识别方法 - Google Patents

一种基于改进Yolov8模型的堤防损坏识别方法 Download PDF

Info

Publication number
CN118334526B
CN118334526B CN202410750870.4A CN202410750870A CN118334526B CN 118334526 B CN118334526 B CN 118334526B CN 202410750870 A CN202410750870 A CN 202410750870A CN 118334526 B CN118334526 B CN 118334526B
Authority
CN
China
Prior art keywords
damage
dike
model
feature
embankment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410750870.4A
Other languages
English (en)
Other versions
CN118334526A (zh
Inventor
徐嫣
文涛
潘文俊
雷佳欣
孙俐
郭晓辉
马玲玲
王碧莲
杨聿
杨洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong South China Hydroelectricity Hi Tech Development Co ltd
Original Assignee
Guangdong South China Hydroelectricity Hi Tech Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong South China Hydroelectricity Hi Tech Development Co ltd filed Critical Guangdong South China Hydroelectricity Hi Tech Development Co ltd
Priority to CN202410750870.4A priority Critical patent/CN118334526B/zh
Publication of CN118334526A publication Critical patent/CN118334526A/zh
Application granted granted Critical
Publication of CN118334526B publication Critical patent/CN118334526B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及堤防损坏识别技术领域,尤其涉及一种基于改进Yolov8模型的堤防损坏识别方法。所述方法包括以下步骤:利用数字孪生构建堤防损坏模型,并根据堤防损坏模型进行堤防损坏图像采集,从而得到堤防损坏图像集;对堤防损坏图像集进行图像预处理,生成标准堤防损坏图像集;对标准堤防损坏图像集进行损坏目标标注,生成堤防损坏识别数据集;对堤防损坏识别数据集进行数据增强,生成堤防损坏识别增强数据集;对地方损坏识别增强数据集进行数据集划分,生成模型训练集、模型测试集和模型验证集。本发明通过数字孪生技术、多维注意力机制、特征重建和模型多层优化等技术,提高了Yolov8模型和堤防损坏识别的精准性。

Description

一种基于改进Yolov8模型的堤防损坏识别方法
技术领域
本发明涉及堤防损坏识别技术领域,尤其涉及一种基于改进Yolov8模型的堤防损坏识别方法。
背景技术
目前,传统的堤防损坏识别一般主要依赖于人工检测,而人工检测主要依赖巡检人员使用简单的辅助设备进行直接观察,但这种方式存在很多弊端,如安全隐患大、数据收集不全面且准确度低,同时结果还容易受到检测人员主观判断的影响,整体效率也偏低。近年来,计算机视觉技术因其无损、高精度和高效率的特点而被广泛应用于堤防损坏自动检测和识别中。然而,在实际工作中,如何快速准确地识别堤防损坏然是一个亟待解决的问题。一阶段目标检测网络,特别是与两阶段网络相比,在检测速度方面具有明显优势,因此非常适合工业检测等需要高实时性的领域。在一阶段网络方面,Yolo系列模型广受关注。而Yolo系列模型中使用的传统的注意机制Squeeze-and-inspire-attention和Convolutional-Block-attention-Module等存在部分不足,其中SE注意力机制忽略了图像的位置信息,导致图像识别会出现偏差。CBAM是一种简单而有效的前馈卷积神经网络注意模块,但仅能提取局部的位置注意力信息,缺乏长距离关系提取的能力,进而导致堤防损坏识别的精准性较低。
发明内容
基于此,有必要提供一种基于改进Yolov8模型的堤防损坏识别方法,以解决至少一个上述技术问题。
为实现上述目的,一种基于改进Yolov8模型的堤防损坏识别方法,所述方法包括以下步骤:
步骤S1:利用数字孪生构建堤防损坏模型,并根据堤防损坏模型进行堤防损坏图像采集,从而得到堤防损坏图像集;
步骤S2:对堤防损坏图像集进行图像预处理,生成标准堤防损坏图像集;对标准堤防损坏图像集进行损坏目标标注,生成堤防损坏识别数据集;
步骤S3:对堤防损坏识别数据集进行数据增强,生成堤防损坏识别增强数据集;对地方损坏识别增强数据集进行数据集划分,生成模型训练集、模型测试集和模型验证集;
步骤S4:利用ODConv多维注意力机制进行核空间四维度处理,生成核空间四维度输出数据;通过CA注意力机制对标准堤防损坏图像集进行关键损坏特征区域提取,生成损坏特征图;
步骤S5:采用DySample模块对损坏特征图进行特征图重建,生成损坏特征重构图;根据模型训练集和模型验证集对预设的Yolov8模型进行模型多层改进,生成Yolov8优化模型层;利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型;
步骤S6:将标准堤防损坏图像集输入至改进后的Yolov8模型中进行堤防损坏识别优化,从而生成地方损坏识别优化数据。
本发明通过利用传感器数据、历史数据和物理模型构建堤防的数字孪生模型,模拟堤防在各种条件下的损坏情况。根据数字孪生模型生成的损坏情况进行图像采集,得到涵盖多种损坏类型和严重程度的图像集,可以生成高度逼真的堤防损坏图像,提升数据集的多样性,同时准确模拟各种损坏场景,提高模型的泛化能力。对堤防损坏图像集进行图像预处理,进行去噪、调整大小、颜色标准化等操作,生成统一标准的图像集。人工或半自动方式标注图像中的损坏目标,生成包含损坏类型和严重程度标注的识别数据集,可以提高图像质量,确保输入数据的一致性,同时提供准确的标注信息,为模型训练奠定基础。通过旋转、翻转、缩放等操作,扩展数据集的规模。将增强后的数据集划分为训练集、测试集和验证集,可以增加数据集的多样性,减少过拟合风险,同时合理划分数据集,确保模型训练和评估的科学性。对特征图进行四维度处理,捕捉复杂的空间和通道关系。提取图像中的关键损坏特征区域,生成损坏特征图,可以更好地捕捉复杂特征,提高模型的表达能力,同时精确提取关键区域,增强损坏识别的准确性。对特征图进行重建,提升特征表示的质量,根据训练集和验证集优化YOLOv8模型层,提升其对特征的敏感度,利用核空间四维度输出数据、损坏特征重构图和模型测试集进行最终模型重构,可以提升特征重建质量,使模型能够更好地识别损坏特征,通过多层次的优化和重构,显著提高YoLov8模型的检测性能。将预处理后的图像集输入改进后的YOLOv8模型,进行损坏识别,对模型输出结果进行分析和优化,生成最终的损坏识别数据。利用改进后的模型进行高效、准确的损坏识别,生成优化的损坏识别数据,为堤防维护提供科学依据。因此,本发明通过数字孪生技术、多维注意力机制、特征重建和模型多层优化等技术,提高了Yolov8模型和堤防损坏识别的精准性。
本发明的有益效果在于通过数字孪生技术可以模拟真实的堤防损坏情况,有助于理解不同损坏模式和因素的影响。通过数字孪生模型生成的堤防损坏图像集可以提供大量的训练数据,用于训练和评估后续的机器学习模型。图像预处理可以提高图像质量和减少噪声,有助于后续的特征提取和模型训练。对标准堤防损坏图像集进行目标标注可以生成准确的损坏目标位置信息,为后续的损坏识别提供有监督学习的数据。数据增强可以通过旋转、缩放、翻转等方式增加数据的多样性,提高模型的鲁棒性和泛化能力。数据集划分可以将数据集分为训练集、测试集和验证集,用于模型的训练、评估和调优。利用ODConv多维注意力机制和CA注意力机制可以提取关键的损坏特征信息,帮助模型更好地理解和识别堤防损坏。使用DySample模块对损坏特征图进行重建可以增强特征的表达和辨别能力。对预设的Yolov8模型进行多层改进和模型重构可以提升模型的性能和准确度。利用改进后的Yolov8模型进行堤防损坏识别优化可以提高识别的准确性和效率,为地方损坏的识别提供优化数据。因此,本发明通过数字孪生技术、多维注意力机制、特征重建和模型多层优化等技术,提高了Yolov8模型和堤防损坏识别的精准性。
附图说明
图1为一种基于改进Yolov8模型的堤防损坏识别方法的步骤流程示意图;
图2为图1中步骤S1的详细实施步骤流程示意图;
图3为图1中步骤S2的详细实施步骤流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
下面结合附图对本发明专利的技术方法进行清楚、完整的描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域所属的技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器方法和/或微控制器方法中实现这些功能实体。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
为实现上述目的,请参阅图1至图3,一种基于改进Yolov8模型的堤防损坏识别方法,所述方法包括以下步骤:
步骤S1:利用数字孪生构建堤防损坏模型,并根据堤防损坏模型进行堤防损坏图像采集,从而得到堤防损坏图像集;
步骤S2:对堤防损坏图像集进行图像预处理,生成标准堤防损坏图像集;对标准堤防损坏图像集进行损坏目标标注,生成堤防损坏识别数据集;
步骤S3:对堤防损坏识别数据集进行数据增强,生成堤防损坏识别增强数据集;对地方损坏识别增强数据集进行数据集划分,生成模型训练集、模型测试集和模型验证集;
步骤S4:利用ODConv多维注意力机制进行核空间四维度处理,生成核空间四维度输出数据;通过CA注意力机制对标准堤防损坏图像集进行关键损坏特征区域提取,生成损坏特征图;
步骤S5:采用DySample模块对损坏特征图进行特征图重建,生成损坏特征重构图;根据模型训练集和模型验证集对预设的Yolov8模型进行模型多层改进,生成Yolov8优化模型层;利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型;
步骤S6:将标准堤防损坏图像集输入至改进后的Yolov8模型中进行堤防损坏识别优化,从而生成地方损坏识别优化数据。
本发明通过利用传感器数据、历史数据和物理模型构建堤防的数字孪生模型,模拟堤防在各种条件下的损坏情况。根据数字孪生模型生成的损坏情况进行图像采集,得到涵盖多种损坏类型和严重程度的图像集,可以生成高度逼真的堤防损坏图像,提升数据集的多样性,同时准确模拟各种损坏场景,提高模型的泛化能力。对堤防损坏图像集进行图像预处理,进行去噪、调整大小、颜色标准化等操作,生成统一标准的图像集。人工或半自动方式标注图像中的损坏目标,生成包含损坏类型和严重程度标注的识别数据集,可以提高图像质量,确保输入数据的一致性,同时提供准确的标注信息,为模型训练奠定基础。通过旋转、翻转、缩放等操作,扩展数据集的规模。将增强后的数据集划分为训练集、测试集和验证集,可以增加数据集的多样性,减少过拟合风险,同时合理划分数据集,确保模型训练和评估的科学性。对特征图进行四维度处理,捕捉复杂的空间和通道关系。提取图像中的关键损坏特征区域,生成损坏特征图,可以更好地捕捉复杂特征,提高模型的表达能力,同时精确提取关键区域,增强损坏识别的准确性。对特征图进行重建,提升特征表示的质量,根据训练集和验证集优化YOLOv8模型层,提升其对特征的敏感度,利用核空间四维度输出数据、损坏特征重构图和模型测试集进行最终模型重构,可以提升特征重建质量,使模型能够更好地识别损坏特征,通过多层次的优化和重构,显著提高YoLov8模型的检测性能。将预处理后的图像集输入改进后的YOLOv8模型,进行损坏识别,对模型输出结果进行分析和优化,生成最终的损坏识别数据。利用改进后的模型进行高效、准确的损坏识别,生成优化的损坏识别数据,为堤防维护提供科学依据。因此,本发明通过数字孪生技术、多维注意力机制、特征重建和模型多层优化等技术,提高了Yolov8模型和堤防损坏识别的精准性。
本发明实施例中,参考图1所述,为本发明一种基于改进Yolov8模型的堤防损坏识别方法的步骤流程示意图,在本实例中,所述一种基于改进Yolov8模型的堤防损坏识别方法包括以下步骤:
步骤S1:利用数字孪生构建堤防损坏模型,并根据堤防损坏模型进行堤防损坏图像采集,从而得到堤防损坏图像集;
本发明实施例中,通过收集堤防结构的相关数据,包括传感器数据、地理信息、结构参数等。利用这些数据建立数学模型或计算模型,模拟堤防在不同环境条件下的损坏情况,如水位变化、地质条件等。确定模型的输入和输出,以及模型参数。根据构建的数字孪生模型,确定损坏模式和情景。在模拟或真实的环境中,利用摄像头、无人机或其他设备进行堤防损坏图像的采集。确保采集到的图像覆盖了各种损坏类型和程度。对采集到的图像进行整理和分类,根据不同的损坏类型和程度进行标记。确保图像集包含了足够的样本以及多样性,覆盖了各种堤防损坏情况。
步骤S2:对堤防损坏图像集进行图像预处理,生成标准堤防损坏图像集;对标准堤防损坏图像集进行损坏目标标注,生成堤防损坏识别数据集;
本发明实施例中,通过使用滤波器或其他去噪算法,去除图像中的噪声。调整图像的对比度、亮度等,以增强图像的质量和清晰度。将图像调整为相同的大小,以确保后续处理的一致性。对图像的颜色进行标准化处理,以消除不同图像间的色彩差异。使用图像标注工具(如LabelImg、VIA等),对标准堤防损坏图像集中的损坏目标进行手动标注。标注损坏目标的位置、类型和程度等信息,以便后续模型学习和识别。将经过预处理和标注的图像组织成数据集,包括图像文件和相应的标注文件。划分数据集为训练集、验证集和测试集,以便模型训练、评估和测试。
步骤S3:对堤防损坏识别数据集进行数据增强,生成堤防损坏识别增强数据集;对地方损坏识别增强数据集进行数据集划分,生成模型训练集、模型测试集和模型验证集;
本发明实施例中,通过对堤防损坏识别数据集进行数据增强,其中包括旋转:随机选择一定角度范围内进行旋转,增加数据集的多样性。翻转:水平或垂直翻转图像,扩展数据集的变化。缩放:随机缩放图像的大小,增加尺度变化的样本。平移:在水平和垂直方向上随机平移图像,引入平移变化。亮度/对比度调整:随机调整图像的亮度和对比度,增加图像的变化。加噪声:向图像中添加随机噪声,提高模型的鲁棒性。将数据集划分为训练集、测试集和验证集,通常采用7:2:1的比例。确保每个数据集中包含各种类型和程度的损坏图像,以保证模型在不同情况下的泛化能力。对于地方损坏识别增强数据集,可以采用相同的数据增强方法进行处理,然后进行相同的数据集划分。
步骤S4:利用ODConv多维注意力机制进行核空间四维度处理,生成核空间四维度输出数据;通过CA注意力机制对标准堤防损坏图像集进行关键损坏特征区域提取,生成损坏特征图;
本发明实施例中,通过使用ODConv多维注意力机制处理堤防损坏识别数据集中的图像数据,引入核空间四维度概念,即在通道维度、空间维度和深度维度上进行多维度注意力计算。ODConv(Octave Convolution)是一种特殊的卷积操作,可以同时处理不同尺度的特征图,通过分频和分辨率逐步降低计算复杂度,并利用多维注意力机制对不同尺度的特征图进行加权融合,以提高模型的感知能力和泛化能力。使用Channel Attention(CA)注意力机制,对标准堤防损坏图像集中的特征图进行关键损坏特征区域的提取。通过CA注意力机制,对图像特征的通道信息进行加权,突出重要的特征信息,从而提高损坏特征区域的识别准确性和鲁棒性。
步骤S5:采用DySample模块对损坏特征图进行特征图重建,生成损坏特征重构图;根据模型训练集和模型验证集对预设的Yolov8模型进行模型多层改进,生成Yolov8优化模型层;利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型;
本发明实施例中,通过使用DySample(Dynamic Sampling)模块,对损坏特征图进行重建。DySample模块可以动态地调整特征图的采样率,从而实现对损坏特征图的重建,提高损坏特征的表征能力。利用模型训练集和验证集,对预设的YOLOv8模型进行多层改进和优化。根据模型训练集和验证集的训练效果,对YOLOv8模型的各个层进行调整和优化,以提高模型的性能和泛化能力。利用步骤S4中生成的核空间四维度输出数据,作为重构过程的一部分。利用DySample模块生成的损坏特征重构图,作为重构过程的输入。使用模型测试集对Yolov8模型层进行模型重构,以验证模型在真实数据上的性能表现。
步骤S6:将标准堤防损坏图像集输入至改进后的Yolov8模型中进行堤防损坏识别优化,从而生成地方损坏识别优化数据。
本发明实施例中,通过将经过预处理和标准化的标准堤防损坏图像集作为输入数据。利用改进后的YOLOv8模型进行堤防损坏识别优化。将模型对标准堤防损坏图像集的识别结果与标注进行比较,评估模型的准确性和性能。根据模型的识别结果,生成地方损坏识别优化数据,包括识别结果的修正、地方损坏特征的提取等。
优选的,步骤S1包括以下步骤:
步骤S11:获取堤防物理属性数据、堤防环境数据和堤防历史损坏数据;
步骤S12:通过虚拟仿真技术对堤防物理属性数据、堤防环境数据和堤防历史损坏数据进行数字孪生堤防模型构建,生成数字孪生堤防模型;
步骤S13:对数字孪生堤防模型进行不同环境条件下的堤防损坏情况模拟,生成模拟堤防损坏情况数据集,其中不同环境条件包括气象环境条件、水文环境条件和低质环境条件;
步骤S14:通过模拟堤防损坏情况数据集进行堤防易损范围分析,生成堤防易损范围数据;基于堤防易损范围数据利用摄像头对堤防进行堤防损坏图像采集,生成堤防损坏图像集。
本发明通过获取堤防的物理属性数据,如结构参数、材料特性等。收集堤防周围环境的数据,包括气象、水文等环境条件。获取堤防历史损坏数据,了解过往损坏情况及原因。利用虚拟仿真技术,将获取的物理属性数据、环境数据和历史损坏数据融合,建立数字孪生堤防模型。数字孪生堤防模型能够模拟堤防在不同环境条件下的行为和响应。在数字孪生堤防模型的基础上,进行不同环境条件下的堤防损坏情况模拟。生成模拟堤防损坏情况数据集,包括在不同气象、水文和地质环境条件下的损坏情况。基于模拟堤防损坏情况数据集,进行堤防易损范围分析,确定发生损坏的区域。根据确定的易损范围,利用摄像头对堤防进行损坏图像采集,生成堤防损坏图像集,提供了全面的堤防数据基础,包括物理属性、环境条件和历史损坏情况。建立了数字孪生堤防模型,可以模拟不同环境条件下的堤防损坏情况。生成了模拟堤防损坏情况数据集,为后续的堤防损坏识别和预防提供了有效的数据支持。进行了堤防易损范围分析,有助于确定重点监测区域,提高了堤防损坏的预警和应对能力。
作为本发明的一个实例,参考图2所示,在本实例中所述步骤S1包括:
步骤S11:获取堤防物理属性数据、堤防环境数据和堤防历史损坏数据;
本发明实施例中,通过使用全站仪、激光扫描仪等测量设备,对堤防进行地面测量,获取其形状、高程、长度等物理属性数据。测量堤防的结构参数,包括坡度、宽度、高度等。对堤防所用材料进行测试,获取其物理特性数据,如强度、密度、渗透性等。从气象站、气象卫星等获取堤防所在地区的气象数据,包括温度、降雨量、风速等。从水文站、水文传感器等获取附近水域的水文数据,包括水位、流量、波浪高度等。收集堤防周围地质信息,如地层结构、土质类型、地震活动等。对堤防进行现场调查,收集历史损坏情况的实际观测数据。查阅相关档案资料、报告和文献,了解堤防历史上的损坏情况和修复记录。利用遥感技术,如卫星遥感图像、航拍图像等,分析堤防的历史变化情况。
步骤S12:通过虚拟仿真技术对堤防物理属性数据、堤防环境数据和堤防历史损坏数据进行数字孪生堤防模型构建,生成数字孪生堤防模型;
本发明实施例中,通过整理并准备好步骤S11中获取的堤防物理属性数据、堤防环境数据和堤防历史损坏数据,确保数据的完整性和准确性。选择合适的虚拟仿真软件或平台,如COMSOL Multiphysics、ANSYS、OpenFOAM等,用于建立数字孪生堤防模型。根据堤防的物理属性数据,利用仿真软件建立堤防的几何模型,包括堤防的形状、尺寸、材质等信息。根据堤防环境数据,设置仿真环境参数,包括气象条件、水文条件、地质条件等,以模拟实际环境。根据堤防历史损坏数据,设置相应的边界条件或加载条件,模拟堤防的损坏情况,如洪水冲击、地震作用等。根据实际观测数据或实验结果,对模型参数进行校准和调整,以提高模拟结果的准确性和可靠性。对建立的数字孪生堤防模型进行验证,与实际观测数据进行比对,评估模型的准确性和可信度。进行模拟试验,比较模拟结果与实测结果的吻合程度,对模型进行修正和改进,在模型验证通过后,生成数字孪生堤防模型。
步骤S13:对数字孪生堤防模型进行不同环境条件下的堤防损坏情况模拟,生成模拟堤防损坏情况数据集,其中不同环境条件包括气象环境条件、水文环境条件和低质环境条件;
本发明实施例中,通过根据需要模拟的不同环境条件,包括气象环境条件、水文环境条件和地质环境条件,设置相应的模拟参数。气象环境条件包括温度、风速、降雨量等;水文环境条件包括水位、流量等;地质环境条件包括地层结构、地震活动等。根据模拟目的和环境条件,选择合适的损坏模拟方法。例如,对于水文环境条件下的堤防损坏,可以模拟洪水冲击或泥石流冲击等。可以采用数值模拟方法,如有限元法(Finite Element Method,FEM)、有限体积法(Finite Volume Method,FVM)等,进行堤防损坏情况的数值模拟。根据选择的损坏模拟方法和环境条件,对数字孪生堤防模型进行损坏情况模拟。在模拟过程中,根据不同的环境条件,逐步调整模拟参数,模拟堤防在不同环境下的损坏情况。将模拟得到的堤防损坏情况数据记录下来,包括损坏位置、损坏程度、损坏形态等信息。根据不同的环境条件和模拟结果,生成模拟堤防损坏情况的数据集。
步骤S14:通过模拟堤防损坏情况数据集进行堤防易损范围分析,生成堤防易损范围数据;基于堤防易损范围数据利用摄像头对堤防进行堤防损坏图像采集,生成堤防损坏图像集。
本发明实施例中,通过根据模拟得到的堤防损坏情况数据集,确定不同环境条件下的堤防易损范围。采用适当的分析方法,如GIS空间分析、统计分析等,确定堤防损坏可能性较高的区域,划定易损范围。根据确定的堤防易损范围,在关键位置安装摄像头,用于监测堤防的实时情况。制定图像采集策略,包括采集频率、采集时段、采集角度等,以保证对堤防损坏情况的全面监测和记录。确保采集到的图像质量良好,清晰度高,能够准确反映堤防的损坏情况。对采集到的堤防损坏图像进行处理和管理,包括图像去噪、图像增强等,以提高图像质量。根据采集到的图像,构建堤防损坏图像集,包括不同环境条件下的堤防损坏图像样本。对生成的堤防易损范围数据和堤防损坏图像集进行验证,确保数据的准确性和完整性。
优选的,步骤S2包括以下步骤:
步骤S21:对堤防损坏图像集进行图像去噪,生成堤防损坏去噪图像集;对堤防损坏去噪图像集进行图像对比度增强,生成标准堤防损坏图像集;
步骤S22:对标准堤防损坏图像集进行堤防损坏轮廓分割,生成堤防损坏轮廓分割图像;对堤防损坏轮廓分割图像进行堤防损坏视觉特征提取,生成堤防损坏轮廓视觉特征数据;
步骤S23:基于堤防损坏轮廓视觉特征数据对标准堤防损坏图像集进行损坏类型分类,生成堤防损坏类型分类图像;对堤防损坏类型分类图像进行损坏严重程度标注,生成堤防损坏初始标注图像集;
步骤S24:对堤防损坏初始标注图像集进行损坏目标中心点识别,生成堤防损坏目标中心点;根据堤防损坏目标中心点对堤防损坏初始标注图像集进行边界框和属性精准标注,从而生成堤防损坏识别数据集。
本发明通过对堤防损坏图像集进行图像去噪,使用常见的去噪算法,如中值滤波、高斯滤波等,去除图像中的噪声。对去噪后的图像进行对比度增强,可以使用直方图均衡化、对比度拉伸等技术,增强图像的视觉效果,使图像更清晰、更易于分析。对去噪和增强后的图像进行堤防损坏轮廓分割,使用图像分割算法,如边缘检测算法(Sobel、Canny等)或语义分割算法,提取图像中的堤防损坏轮廓。对分割后的轮廓图像进行堤防损坏视觉特征提取,提取轮廓的形状、纹理、颜色等特征,以描述损坏的形态和特性。基于提取的堤防损坏轮廓视觉特征数据,利用分类算法(如卷积神经网络、支持向量机等)对标准堤防损坏图像集进行损坏类型分类,将图像分为不同的损坏类型。对分类后的图像进行损坏严重程度标注,根据损坏的程度对图像进行标注,如轻微、中等、严重等级别。对标注后的图像集进行损坏目标中心点识别,使用目标检测算法,如YOLO、Faster R-CNN等,识别图像中损坏目标的中心点位置。根据识别的中心点位置,对图像集进行边界框和属性精准标注,标注损坏目标的位置、大小、形状等属性信息,以生成堤防损坏识别数据集,有助于提高对堤防损坏情况的识别和分析能力,为后续的堤防维护和管理提供支持。
作为本发明的一个实例,参考图3所示,在本实例中,所述步骤S2包括:
步骤S21:对堤防损坏图像集进行图像去噪,生成堤防损坏去噪图像集;对堤防损坏去噪图像集进行图像对比度增强,生成标准堤防损坏图像集;
本发明实施例中,通过选择合适的图像去噪算法,常见的算法包括中值滤波、高斯滤波、双边滤波等。根据堤防损坏图像的特点和噪声情况,选择最适合的算法。根据实际情况调整去噪算法的参数,如滤波器的大小、滤波器的类型等,以获得最佳的去噪效果。将所选的去噪算法应用到堤防损坏图像集中的每一张图像上,生成堤防损坏去噪图像集。选择合适的图像对比度增强方法,常见的方法包括直方图均衡化、自适应直方图均衡化、对比度拉伸等。根据图像的特点和需要增强的区域选择最合适的方法。根据实际情况调整对比度增强方法的参数,如对比度增益、亮度调整等,以获得最佳的增强效果。将所选的对比度增强方法应用到堤防损坏去噪图像集中的每一张图像上,生成标准堤防损坏图像集。对生成的堤防损坏去噪图像集和标准堤防损坏图像集进行视觉评估,确保去噪和增强效果符合预期,图像清晰度和对比度得到提升。根据评估结果,对参数进行调整和优化,以进一步提高图像质量和视觉效果。
步骤S22:对标准堤防损坏图像集进行堤防损坏轮廓分割,生成堤防损坏轮廓分割图像;对堤防损坏轮廓分割图像进行堤防损坏视觉特征提取,生成堤防损坏轮廓视觉特征数据;
本发明实施例中,通过选择适合的图像分割算法,常见的算法包括边缘检测算法(如Sobel、Canny)、语义分割算法(如Mask R-CNN、U-Net)等。根据实际情况调整图像分割算法的参数,如阈值、核大小等,以获得清晰准确的堤防损坏轮廓。将所选的图像分割算法应用到标准堤防损坏图像集中的每张图像上,生成堤防损坏轮廓分割图像集。选择合适的特征提取方法,常见的方法包括形状特征提取、纹理特征提取、颜色特征提取等。根据堤防损坏的特性和分析需求,选择最合适的方法。对分割后的堤防损坏轮廓图像进行特征提取,描述堤防损坏的形状、纹理、颜色等视觉特征。将提取的视觉特征量化为数字或向量形式,以便后续的分析和处理。
步骤S23:基于堤防损坏轮廓视觉特征数据对标准堤防损坏图像集进行损坏类型分类,生成堤防损坏类型分类图像;对堤防损坏类型分类图像进行损坏严重程度标注,生成堤防损坏初始标注图像集;
本发明实施例中,通过选择合适的分类算法,常见的算法包括支持向量机(SVM)、K最近邻(KNN)、决策树、深度学习模型(如卷积神经网络)等。根据数据的特点和分类任务的复杂度选择最适合的算法。将标准堤防损坏图像集按照一定比例划分为训练集和测试集,确保分类模型具有良好的泛化能力。使用训练集对分类模型进行训练,调整模型参数以最大程度地提高分类准确度和泛化能力。使用测试集对训练好的模型进行评估,分析分类准确度、召回率等指标,根据评估结果对模型进行调整和优化。根据实际情况设定损坏程度的分类标准,可以是轻微、中等、严重等级别。借助专业人员或者标注工具,对分类后的图像进行损坏严重程度的标注,确保标注准确、一致。
步骤S24:对堤防损坏初始标注图像集进行损坏目标中心点识别,生成堤防损坏目标中心点;根据堤防损坏目标中心点对堤防损坏初始标注图像集进行边界框和属性精准标注,从而生成堤防损坏识别数据集。
本发明实施例中,通过步骤S24:对堤防损坏初始标注图像集进行损坏目标中心点识别,生成堤防损坏目标中心点;根据堤防损坏目标中心点对堤防损坏初始标注图像集进行边界框和属性精准标注,从而生成堤防损坏识别数据集。利用前面的堤防损坏初始标注图像集,训练目标检测模型。可以使用已经标注的损坏区域作为训练数据,确保模型能够准确识别损坏目标的中心点。将训练好的模型应用于堤防损坏初始标注图像集,识别每个损坏目标的中心点,并生成堤防损坏目标中心点数据。根据识别出的损坏目标中心点,在图像中绘制出每个损坏目标的边界框。可以使用自动标注工具或人工辅助标注工具,确保边界框的准确性。对每个损坏目标的边界框进行属性标注,包括损坏类型(如裂缝、塌陷等)、损坏程度(轻微、中等、严重)等,这些属性信息可以通过分析前面的损坏视觉特征数据和分类结果获得。将所有标注结果整合成完整的堤防损坏识别数据集,包含每张图像的损坏目标中心点、边界框及属性信息。
优选的,对堤防损坏类型分类图像进行损坏严重程度标注包括:
对堤防损坏类型分类图像进行裂缝区域分割,生成裂缝区域图像;
对裂缝区域图像进行裂缝属性分析,生成裂缝区域属性数据,其中裂缝区域属性数据包括裂缝长度数据、裂缝宽度数据和裂缝位置数据;
基于熵权法对裂缝长度数据、裂缝宽度数据和裂缝位置数据进行属性赋权,得到裂缝损坏第一权重、裂缝损坏第二权重以及裂缝损坏第三权重;将裂缝损坏第一权重、裂缝损坏第二权重以及裂缝损坏第三权重进行权重均值化,生成裂缝损坏均值权重;
根据裂缝损坏均值权重和预设的标准裂缝损坏阈值进行损坏严重程度评估,生成堤防损坏严重程度数据;基于堤防损坏严重程度数据对堤防损坏类型分类图像进行图像标记,生成堤防损坏初始标注图像集。
本发明通过裂缝区域分割和属性分析,能够精确识别和量化裂缝的长度、宽度和位置,确保损坏严重程度评估的精确性。属性赋权和均值化处理使得评估过程更科学和客观,减少了人为主观因素的影响。使用图像处理和分析技术,自动化裂缝区域的分割和属性提取,大大提高了数据处理效率。基于熵权法的属性赋权和评估方法,能够快速计算裂缝损坏程度,提升了整体流程的效率。综合考虑裂缝长度、宽度和位置等多维属性,通过科学的权重计算方法,使得损坏评估结果更为全面和科学。使用熵权法分配权重,确保每个属性在损坏评估中的影响力合理分配,避免了单一属性导致的评估偏差。对损坏严重程度数据进行图像标记,生成的堤防损坏初始标注图像集使得损坏信息可视化,便于直观理解和后续分析。图像标记的方式,使得堤防管理人员能够快速识别和定位严重损坏区域,便于及时采取维护措施。
本发明实施例中,通过使用图像分割技术,如基于边缘检测、区域生长或深度学习的语义分割等方法,对堤防损坏类型分类图像进行裂缝区域的分割,生成裂缝区域图像。对裂缝区域图像进行裂缝属性分析,使用图像处理技术和计算机视觉算法,提取裂缝区域的长度、宽度和位置等属性数据。基于熵权法对裂缝长度、宽度和位置等属性数据进行赋权,得到裂缝损坏的权重值。熵权法是一种多属性决策分析方法,能够有效地将不同属性的重要性进行量化。将裂缝损坏的权重值进行均值化处理,得到裂缝损坏的均值权重,以综合反映裂缝的损坏程度。根据预设的标准裂缝损坏阈值,对裂缝损坏的均值权重进行评估,确定裂缝的损坏严重程度。可以根据具体情况设定不同的阈值,划分不同程度的损坏等级。根据堤防损坏严重程度数据,对堤防损坏类型分类图像进行标记,可以使用颜色、标签或边框等方式,将不同程度的损坏区域标注出来,生成堤防损坏初始标注图像集。
优选的,步骤S3包括以下步骤:
步骤S31:对堤防损坏识别数据集进行图像数据增强,生成堤防损坏识别增强数据集,其中图像数据增强包括随机改变图像亮度、转换眼色空间、改变饱和度、改变色调、零填充、随机水平翻转、随机裁剪方法;
步骤S32:以7:2:1的比例将堤防损坏识别增强数据集划分为模型训练集、模型测试集和模型验证集。
本发明通过调整图像的亮度,使得模型对于不同亮度条件下的图像具有鲁棒性。将图像转换到不同的色彩空间,如RGB、HSV等,增加模型对于不同色彩空间的适应能力。调整图像的饱和度和色调,增加图像的多样性,提升模型的泛化能力。在图像边界或空白区域进行填充,使得输入图像尺寸保持一致,避免信息丢失。对图像进行随机水平翻转,增加数据集的多样性,减少过拟合风险。随机对图像进行裁剪,改变图像的区域和内容,增加数据集的多样性。将堤防损坏识别增强数据集按照7:2:1的比例划分为模型训练集、模型测试集和模型验证集,可以有效地增加数据集的多样性和数量,提升模型的泛化能力和鲁棒性。
本发明实施例中,通过随机调整图像的亮度,使其在一定范围内增加或减少。将图像从RGB色彩空间转换到HSV、LAB等其他色彩空间。随机调整图像的饱和度和色调,使其在一定范围内变化。在图像边界或空白区域添加零值像素,使其尺寸保持不变。随机选择图像进行水平翻转,增加数据集的多样性。随机选择图像的区域进行裁剪,改变图像的内容和结构,生成堤防损坏识别增强数据集。将堤防损坏识别增强数据集按照7:2:1的比例划分为模型训练集、模型测试集和模型验证集。根据数据集的总量,按照7:2:1的比例分别划分为训练集、测试集和验证集。通过随机抽样的方式,保证数据集的随机性和代表性,避免数据集划分的偏差。
优选的,利用ODConv多维注意力机制进行核空间四维度处理包括:
获取输入特征;
利用全局平均池化对输入特征进行特征转换压缩,得到压缩后的输入特征向量;
通过全连接层将压缩后的输入特征向量进行低维空间映射,生成输入特征空间映射向量,并利用ReLU函数对输入特征空间映射向量进行非正值剔除,生成特征注意力标量,其中特征注意力标量包括第一特征注意力标量、第二特征注意力标量、第三特征注意力标量和第四特征注意力标量;
根据Sigmoid函数对第一特征注意力标量、第二特征注意力标量、第三特征注意力标量进行特征加权,生成第一特征注意力权重、第二特征注意力权重和第三特征注意力权重;根据Softmax函数对第四特征注意力标量进行特征加权,生成第四特征注意力权重;
对第一特征注意力权重、第二特征注意力权重、第三特征注意力权重和第四特征注意力权重进行权重总和验证,当第一特征注意力权重、第二特征注意力权重、第三特征注意力权重和第四特征注意力权重的总和为1时,则基于全连接层利用ODConv对输入特征和特征注意力标量进行核空间四维度预测,并生成核空间四维度输出数据;
当第一特征注意力权重、第二特征注意力权重、第三特征注意力权重和第四特征注意力权重的总和不为1时,则重新获取输入特征。
本发明通过对输入特征进行全局性的处理,并且通过特征注意力权重的计算,能够有效地对不同特征的重要性进行建模。此外,通过对特征注意力标量进行加权,可以实现对不同特征的不同程度的关注,从而更好地捕捉输入特征的相关信息。最终生成的核空间四维度输出数据能够更全面地反映输入特征的复杂性和多样性,有助于提高模型的性能和泛化能力。
本发明实施例中,通过利用ODConv结合了全局平均池化(GAP)、全连接层(FC)以及Sigmoid激活函数,以生成一个特定的注意力标量,用于加权卷积核。首先通过全局平均池化将输入的特征x转换为压缩的特征向量。随后,这个特征向量通过全连接层被映射到低维空间。在此过程中,利用ReLU函数筛选并保留了正值,为后续创建四种不同的注意力标量奠定基础。这些标量通过各自的全连接层进行预测,并输出对应的特征向量,这些向量分别被设计用于定位堤防损坏区域、深入分析结构特性以及详细描绘局部特征。为了确保权重的规范性,前三个分支的输出通过Sigmoid函数进行处理,而第四个分支则采用Softmax函数,从而保证所有权重的总和恰好为1,具体的从数据集中获取需要处理的输入特征,特征具体是图像、视频、文本等。对输入特征进行全局平均池化操作,将其转换为一个特征向量,该向量代表了整个输入特征的特征表达。将全局平均池化得到的特征向量通过全连接层进行映射,将其映射到一个低维空间,并利用ReLU函数进行非线性处理,得到特征注意力标量。对特征注意力标量进行归一化处理,例如使用Sigmoid函数对前三个特征注意力标量进行归一化得到注意力权重,使用Softmax函数对第四个特征注意力标量进行归一化得到注意力权重。对四个特征的注意力权重进行归一化处理,确保它们的总和为1,以确保注意力权重的有效性和一致性。如果四个注意力权重的总和为1,则利用ODConv模块对输入特征和特征注意力标量进行核空间四维度预测,生成核空间四维度输出数据。如果四个注意力权重的总和不为1,则需要重新获取输入特征,重新进行处理以确保注意力权重的正确性。
优选的,基于全连接层利用ODConv对输入特征和特征注意力标量进行核空间四维度预测包括:
基于全连接层利用全维动态卷积ODConv对输入特征和特征注意力标量进行核空间四维度并行卷积,并生成核空间四维度输出数据,其中核空间四维度并行卷积包括空间维度的位置乘法运算、输入通道维度的通道乘法运算、输出通道维度的滤波乘法运算和、卷积核空间的核乘法运算;
其中ODConv并行卷积的公式如下所示:
式中,表示整个卷积核的注意力标量,表示沿着卷积核的空间维度引入的注意力标量,表示沿着卷积核的输入通道维度引入的注意力标量,表示沿着卷积核的输出通道维度引入的注意力标量,表示沿内核空间不同维度的乘法操作,表示卷积运算,表示输入特征,表示输出特征。
本发明通过准备输入特征和对应的特征注意力标量。输入特征通常是一个特征图(feature map),而特征注意力标量是在前面的步骤中计算得到的。将输入特征与空间维度上的注意力标量相乘,以增强或减弱不同空间位置的特征响应。将输入特征与输入通道维度上的注意力标量相乘,以增强或减弱不同通道的特征响应。将输入特征与输出通道维度上的注意力标量相乘,以增强或减弱不同输出通道的特征响应。将以上三个乘法运算得到的结果与卷积核进行卷积操作,以获取最终的输出特征,能够有效地利用输入特征和特征注意力标量,在核空间四维度上进行并行卷积操作,从而增强了模型对特征的表达能力,提升了模型性能。
本发明实施例中,通过利用全维动态卷积ODConv通过并行方式沿卷积核空间全部的四个维度学习卷积核特征,ODConv沿着卷积核计算的四个维度分别是:空间维度的位置乘法运算、输入通道维度的通道乘法运算、输出通道维度的滤波乘法运算和、卷积核空间的核乘法运算,具体的获取输入特征和对应的特征注意力标量。将输入特征与空间维度的注意力标量进行逐元素相乘,得到乘法结果,将输入特征与输入通道维度的注意力标量进行逐元素相乘,得到乘法结果。将乘法结果与输出通道维度的注意力标量进行逐元素相乘,得到乘法结果。将乘法结果与卷积核进行卷积运算,得到输出特征。得到的输出特征即为核空间四维度输出数据,其中包含了输入特征和特征注意力标量的信息。
优选的,通过CA注意力机制对标准堤防损坏图像集进行关键损坏特征区域提取包括:
对标准堤防损坏图像集进行关键损坏特征提取,得到堤防关键损害特征;
将堤防关键损害特征作为输入,使用全局平均池化沿水平方向与垂直方向对堤防关键损害特征进行特征编码,生成堤防关键损坏宽度特征图和堤防关键损坏高度特征图;
对堤防关键损坏宽度特征图进行维数调换,并将维数调换后的堤防关键损坏宽度特征图和堤防关键损坏高度特征图进行特征图拼接,生成堤防关键损坏拼接中间特征图;
基于预设的1×1的卷积对堤防关键损坏拼接中间特征图进行特征图通道数压缩,得到堤防关键损坏压缩特征图;利用BN批量归一化与非线性操作对堤防关键损坏压缩特征图进行特征映射,生成堤防关键损坏映射特征图;
基于预设的1×1的卷积对堤防关键损坏映射特征图进行空间维度张量分解,从而生成堤防关键损坏宽度维数和堤防关键损坏高度维数;利用Sigmoid 激活函数对堤防关键损坏宽度维数和堤防关键损坏高度维数进行注意力权重计算,得到堤防关键损坏宽度注意力权重和堤防关键损坏高度注意力权重;
根据堤防关键损坏宽度注意力权重和堤防关键损坏高度注意力权重对堤防关键损坏宽度特征图和堤防关键损坏高度特征图进行加权计算,从而得到堤防关键损坏宽度权重特征图和堤防关键损坏高度权重特征图;
将堤防关键损坏宽度权重特征图和堤防关键损坏高度权重特征图进行特征图整合,从而生成损坏特征图。
本发明通过对标准堤防损坏图像集进行特征提取,得到堤防关键损害特征。利用全局平均池化沿水平方向与垂直方向对堤防关键损害特征进行特征编码,生成堤防关键损坏宽度特征图和堤防关键损坏高度特征图。对堤防关键损坏宽度特征图进行维数调换,并将维数调换后的堤防关键损坏宽度特征图和堤防关键损坏高度特征图进行特征图拼接,生成堤防关键损坏拼接中间特征图。基于预设的 1×1 的卷积对堤防关键损坏拼接中间特征图进行特征图通道数压缩,得到堤防关键损坏压缩特征图;利用 BN 批量归一化与非线性操作对堤防关键损坏压缩特征图进行特征映射,生成堤防关键损坏映射特征图。基于预设的 1×1 的卷积对堤防关键损坏映射特征图进行空间维度张量分解,得到堤防关键损坏宽度维数和堤防关键损坏高度维数;利用 Sigmoid 激活函数对堤防关键损坏宽度维数和堤防关键损坏高度维数进行注意力权重计算,得到堤防关键损坏宽度注意力权重和堤防关键损坏高度注意力权重。根据堤防关键损坏宽度注意力权重和堤防关键损坏高度注意力权重对堤防关键损坏宽度特征图和堤防关键损坏高度特征图进行加权计算,从而得到堤防关键损坏宽度权重特征图和堤防关键损坏高度权重特征图;将堤防关键损坏宽度权重特征图和堤防关键损坏高度权重特征图进行特征图整合,从而生成损坏特征图,利用了 CA 注意力机制和特征提取技术,能够有效地从标准堤防损坏图像中提取关键损坏特征区域,为后续的损坏识别和分析提供了有力支持。
本发明实施例中,通过CA注意力机制首先将传进的输入特征使用全局平均池化沿水平方向与垂直方向进行特征编码,获得在宽度和高度2个方向上的特征图;接着将宽度方向特征图的输出维数调换后与高度方向特征图进行拼接,拼接后使用1×1的卷积将得到的中间特征图通道数压缩为C/r(r为缩减因子);随后使用BN(Batch Normalization)批量归一化与非线性操作对特征图进行特征映射,映射后使用1×1卷积沿着空间维度将特征图分解成2个独立的张量,其中,宽度方向特征图的输出维数恢复至输入状态;然后利用Sigmoid 激活函数分别得到2个方向上的注意力权重;最后在原始特征图上通过乘法加权计算,便得到两个方向上都带有注意力权重的特征图。
优选的,采用DySample模块对损坏特征图进行特征图重建包括:
对损坏特征图进行随机特征点采集,以获取特征采样集;
利用DySample模块根据特征采样集对损坏特征图进行重采样,生成损坏重采样特征图;
对损坏重采样特征图进行像素混洗,生成损坏重采样混洗特征图;
基于网格采样函数对损坏重采样混洗特征图进行双线性插值,从而生成损坏特征重构图。
本发明通过对损坏特征图进行随机特征点采集,以获取特征采样集。利用DySample模块根据特征采样集对损坏特征图进行重采样,生成损坏重采样特征图。DySample模块可以根据采样集的位置信息,灵活地对特征图进行采样,从而得到具有更高分辨率或不同分辨率的特征图。对损坏重采样特征图进行像素混洗,生成损坏重采样混洗特征图。像素混洗操作可以增加特征图的多样性和鲁棒性,有助于提高特征图的泛化能力。基于网格采样函数对损坏重采样混洗特征图进行双线性插值,从而生成损坏特征重构图。双线性插值可以有效地填补像素之间的空白,恢复特征图的细节信息,使得重构的特征图更加平滑和连续。
本发明实施例中,通过在损坏特征图上随机选择一定数量的特征点作为特征采样集。这些特征点的选择可以基于随机采样方法,确保采样集覆盖了整个损坏特征图的区域。利用DySample模块,根据特征采样集对损坏特征图进行重采样。DySample模块可以根据采样集的位置信息,灵活地对特征图进行采样,得到具有更高分辨率或不同分辨率的重采样特征图。对损坏重采样特征图进行像素混洗操作。像素混洗可以随机调整特征图中像素的位置或像素值,增加特征图的多样性和鲁棒性,有助于提高特征图的泛化能力。基于网格采样函数,对损坏重采样混洗特征图进行双线性插值。双线性插值可以有效地填补像素之间的空白,恢复特征图的细节信息,使得重构的特征图更加平滑和连续,更具体的例如给定一个大小为的特征图X和一个大小为的采样集S,其中2表示x和y的坐标,网格采样函数使用S中的位置将假设的双线性插值X重新采样为大小为的X’,即;给定上采样比例因子s和大小为的特征图X,其输入和输出通道号为C和2s2的线性层用于生成大小为的偏移量O,然后通过像素混洗将其重塑为。采样集S是偏移O和原始采样网格G的和,即;最后,利用网格样本设置的采样,可以生成尺寸为的上采样特征图X’。
优选的,根据损坏特征重构图和核空间四维度输出数据对预设的Yolov8模型进行模型多层改进以及利用模型训练集、模型测试集和模型验证集对Yolov8模型层进行模型重构包括:
根据损坏特征重构图和核空间四维度输出数据对预设的Yolov8模型中的骨干网络进行ODConv第二卷积层替换,生成ODConv第二卷积层,并基于ODConv第二卷积层对预设的Yolov8模型进行第一次模型优化,从而生成第一次改进的Yolov8模型;
利用模型训练集对第一次改进的Yolov8模型进行损坏训练,从而生成第二次改进的Yolov8模型;
输入模型验证集至第二次改进的Yolov8的损坏模型中进行损坏目标识别,从而生成Yolov8优化模型层;
利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型。
本发明通过损坏特征重构图和核空间四维度输出数据,替换预设的Yolov8模型中的骨干网络的ODConv第二卷积层,生成新的ODConv第二卷积层。利用新的ODConv第二卷积层对Yolov8模型进行第一次优化,生成第一次改进的Yolov8模型。使用模型训练集对第一次改进的Yolov8模型进行训练,以优化模型参数,提高损坏目标识别准确性。输入模型验证集至第一次改进的Yolov8的损坏模型中进行损坏目标识别,生成Yolov8优化模型层。利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型,可以逐步改进Yolov8模型,使其更适用于损坏目标识别任务,并提高模型的性能和准确性。
本发明实施例中,通过根据损坏特征重构图和核空间四维度输出数据对预设的Yolov8模型中的骨干网络的第二卷积层替换为ODConv,构建出第一次改进的Yolov8模型;增强后的训练集对第一次改进的Yolov8的损坏进行训练,将CA模块融合到前两个C2F架构中,构建出第二次改进的Yolov8的损坏模型;输入验证集的损坏至第二次改进的Yolov8的损坏模型中,完成损坏目标识别,构建出第三次改进的Yolov8优化模型层,采用DySample替换传统上采样方法,利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型。
本发明的有益效果在于通过数字孪生技术可以模拟真实的堤防损坏情况,有助于理解不同损坏模式和因素的影响。通过数字孪生模型生成的堤防损坏图像集可以提供大量的训练数据,用于训练和评估后续的机器学习模型。图像预处理可以提高图像质量和减少噪声,有助于后续的特征提取和模型训练。对标准堤防损坏图像集进行目标标注可以生成准确的损坏目标位置信息,为后续的损坏识别提供有监督学习的数据。数据增强可以通过旋转、缩放、翻转等方式增加数据的多样性,提高模型的鲁棒性和泛化能力。数据集划分可以将数据集分为训练集、测试集和验证集,用于模型的训练、评估和调优。利用ODConv多维注意力机制和CA注意力机制可以提取关键的损坏特征信息,帮助模型更好地理解和识别堤防损坏。使用DySample模块对损坏特征图进行重建可以增强特征的表达和辨别能力。对预设的Yolov8模型进行多层改进和模型重构可以提升模型的性能和准确度。利用改进后的Yolov8模型进行堤防损坏识别优化可以提高识别的准确性和效率,为地方损坏的识别提供优化数据。因此,本发明通过数字孪生技术、多维注意力机制、特征重建和模型多层优化等技术,提高了Yolov8模型和堤防损坏识别的精准性。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在申请文件的等同要件的含义和范围内的所有变化涵括在本发明内。
以上所述仅是本发明的具体实施方式,使本领域技术人员能够理解或实现本发明。对这些实施例的多种修改对本领域的技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所发明的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种基于改进Yolov8模型的堤防损坏识别方法,其特征在于,包括以下步骤:
步骤S1:利用数字孪生构建堤防损坏模型,并根据堤防损坏模型进行堤防损坏图像采集,从而得到堤防损坏图像集;步骤S1包括以下步骤:
步骤S11:获取堤防物理属性数据、堤防环境数据和堤防历史损坏数据;
步骤S12:通过虚拟仿真技术对堤防物理属性数据、堤防环境数据和堤防历史损坏数据进行数字孪生堤防模型构建,生成数字孪生堤防模型;
步骤S13:对数字孪生堤防模型进行不同环境条件下的堤防损坏情况模拟,生成模拟堤防损坏情况数据集,其中不同环境条件包括气象环境条件、水文环境条件和低质环境条件;
步骤S14:通过模拟堤防损坏情况数据集进行堤防易损范围分析,生成堤防易损范围数据;基于堤防易损范围数据利用摄像头对堤防进行堤防损坏图像采集,生成堤防损坏图像集;
步骤S2:对堤防损坏图像集进行图像预处理,生成标准堤防损坏图像集;对标准堤防损坏图像集进行损坏目标标注,生成堤防损坏识别数据集;
步骤S3:对堤防损坏识别数据集进行数据增强,生成堤防损坏识别增强数据集;对地方损坏识别增强数据集进行数据集划分,生成模型训练集、模型测试集和模型验证集;
步骤S4:利用ODConv多维注意力机制进行核空间四维度处理,生成核空间四维度输出数据;通过CA注意力机制对标准堤防损坏图像集进行关键损坏特征区域提取,生成损坏特征图;利用ODConv多维注意力机制进行核空间四维度处理包括:
获取输入特征;
利用全局平均池化对输入特征进行特征转换压缩,得到压缩后的输入特征向量;
通过全连接层将压缩后的输入特征向量进行低维空间映射,生成输入特征空间映射向量,并利用ReLU函数对输入特征空间映射向量进行非正值剔除,生成特征注意力标量,其中特征注意力标量包括第一特征注意力标量、第二特征注意力标量、第三特征注意力标量和第四特征注意力标量;
根据Sigmoid函数对第一特征注意力标量、第二特征注意力标量、第三特征注意力标量进行特征加权,生成第一特征注意力权重、第二特征注意力权重和第三特征注意力权重;根据Softmax函数对第四特征注意力标量进行特征加权,生成第四特征注意力权重;
对第一特征注意力权重、第二特征注意力权重、第三特征注意力权重和第四特征注意力权重进行权重总和验证,当第一特征注意力权重、第二特征注意力权重、第三特征注意力权重和第四特征注意力权重的总和为1时,则基于全连接层利用ODConv对输入特征和特征注意力标量进行核空间四维度预测,并生成核空间四维度输出数据;
当第一特征注意力权重、第二特征注意力权重、第三特征注意力权重和第四特征注意力权重的总和不为1时,则重新获取输入特征;
步骤S5:采用DySample模块对损坏特征图进行特征图重建,生成损坏特征重构图;采用DySample模块对损坏特征图进行特征图重建包括:
对损坏特征图进行随机特征点采集,以获取特征采样集;
利用DySample模块根据特征采样集对损坏特征图进行重采样,生成损坏重采样特征图;
对损坏重采样特征图进行像素混洗,生成损坏重采样混洗特征图;
基于网格采样函数对损坏重采样混洗特征图进行双线性插值,从而生成损坏特征重构图;根据模型训练集和模型验证集对预设的Yolov8模型进行模型多层改进,生成Yolov8优化模型层;利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型;根据损坏特征重构图和核空间四维度输出数据对预设的Yolov8模型进行模型多层改进以及利用模型训练集、模型测试集和模型验证集对Yolov8模型层进行模型重构包括:
根据损坏特征重构图和核空间四维度输出数据对预设的Yolov8模型中的骨干网络进行ODConv第二卷积层替换,生成ODConv第二卷积层,并基于ODConv第二卷积层对预设的Yolov8模型进行第一次模型优化,从而生成第一次改进的Yolov8模型;
利用模型训练集对第一次改进的Yolov8模型进行损坏训练,从而生成第二次改进的Yolov8模型;
输入模型验证集至第二次改进的Yolov8的损坏模型中进行损坏目标识别,从而生成Yolov8优化模型层;
利用核空间四维度输出数据、损坏特征重构图和模型测试集对Yolov8模型层进行模型重构,生成改进后的Yolov8模型;
步骤S6:将标准堤防损坏图像集输入至改进后的Yolov8模型中进行堤防损坏识别优化,从而生成地方损坏识别优化数据。
2.根据权利要求1所述的基于改进Yolov8模型的堤防损坏识别方法,其特征在于,步骤S2包括以下步骤:
步骤S21:对堤防损坏图像集进行图像去噪,生成堤防损坏去噪图像集;对堤防损坏去噪图像集进行图像对比度增强,生成标准堤防损坏图像集;
步骤S22:对标准堤防损坏图像集进行堤防损坏轮廓分割,生成堤防损坏轮廓分割图像;对堤防损坏轮廓分割图像进行堤防损坏视觉特征提取,生成堤防损坏轮廓视觉特征数据;
步骤S23:基于堤防损坏轮廓视觉特征数据对标准堤防损坏图像集进行损坏类型分类,生成堤防损坏类型分类图像;对堤防损坏类型分类图像进行损坏严重程度标注,生成堤防损坏初始标注图像集;
步骤S24:对堤防损坏初始标注图像集进行损坏目标中心点识别,生成堤防损坏目标中心点;根据堤防损坏目标中心点对堤防损坏初始标注图像集进行边界框和属性精准标注,从而生成堤防损坏识别数据集。
3.根据权利要求2所述的基于改进Yolov8模型的堤防损坏识别方法,其特征在于,对堤防损坏类型分类图像进行损坏严重程度标注包括:
对堤防损坏类型分类图像进行裂缝区域分割,生成裂缝区域图像;
对裂缝区域图像进行裂缝属性分析,生成裂缝区域属性数据,其中裂缝区域属性数据包括裂缝长度数据、裂缝宽度数据和裂缝位置数据;
基于熵权法对裂缝长度数据、裂缝宽度数据和裂缝位置数据进行属性赋权,得到裂缝损坏第一权重、裂缝损坏第二权重以及裂缝损坏第三权重;将裂缝损坏第一权重、裂缝损坏第二权重以及裂缝损坏第三权重进行权重均值化,生成裂缝损坏均值权重;
根据裂缝损坏均值权重和预设的标准裂缝损坏阈值进行损坏严重程度评估,生成堤防损坏严重程度数据;基于堤防损坏严重程度数据对堤防损坏类型分类图像进行图像标记,生成堤防损坏初始标注图像集。
4.根据权利要求1所述的基于改进Yolov8模型的堤防损坏识别方法,其特征在于,步骤S3包括以下步骤:
步骤S31:对堤防损坏识别数据集进行图像数据增强,生成堤防损坏识别增强数据集,其中图像数据增强包括随机改变图像亮度、转换眼色空间、改变饱和度、改变色调、零填充、随机水平翻转、随机裁剪方法;
步骤S32:以7:2:1的比例将堤防损坏识别增强数据集划分为模型训练集、模型测试集和模型验证集。
5.根据权利要求1所述的基于改进Yolov8模型的堤防损坏识别方法,其特征在于,基于全连接层利用ODConv对输入特征和特征注意力标量进行核空间四维度预测包括:
基于全连接层利用全维动态卷积ODConv对输入特征和特征注意力标量进行核空间四维度并行卷积,并生成核空间四维度输出数据,其中核空间四维度并行卷积包括空间维度的位置乘法运算、输入通道维度的通道乘法运算、输出通道维度的滤波乘法运算和、卷积核空间的核乘法运算;
其中ODConv并行卷积的公式如下所示:
式中,表示整个卷积核的注意力标量,表示沿着卷积核的空间维度引入的注意力标量,表示沿着卷积核的输入通道维度引入的注意力标量,表示沿着卷积核的输出通道维度引入的注意力标量,表示沿内核空间不同维度的乘法操作,表示卷积运算,表示输入特征,表示输出特征。
6.根据权利要求1所述的基于改进Yolov8模型的堤防损坏识别方法,其特征在于,通过CA注意力机制对标准堤防损坏图像集进行关键损坏特征区域提取包括:
对标准堤防损坏图像集进行关键损坏特征提取,得到堤防关键损害特征;
将堤防关键损害特征作为输入,使用全局平均池化沿水平方向与垂直方向对堤防关键损害特征进行特征编码,生成堤防关键损坏宽度特征图和堤防关键损坏高度特征图;
对堤防关键损坏宽度特征图进行维数调换,并将维数调换后的堤防关键损坏宽度特征图和堤防关键损坏高度特征图进行特征图拼接,生成堤防关键损坏拼接中间特征图;
基于预设的1×1的卷积对堤防关键损坏拼接中间特征图进行特征图通道数压缩,得到堤防关键损坏压缩特征图;利用BN批量归一化与非线性操作对堤防关键损坏压缩特征图进行特征映射,生成堤防关键损坏映射特征图;
基于预设的1×1的卷积对堤防关键损坏映射特征图进行空间维度张量分解,从而生成堤防关键损坏宽度维数和堤防关键损坏高度维数;利用Sigmoid 激活函数对堤防关键损坏宽度维数和堤防关键损坏高度维数进行注意力权重计算,得到堤防关键损坏宽度注意力权重和堤防关键损坏高度注意力权重;
根据堤防关键损坏宽度注意力权重和堤防关键损坏高度注意力权重对堤防关键损坏宽度特征图和堤防关键损坏高度特征图进行加权计算,从而得到堤防关键损坏宽度权重特征图和堤防关键损坏高度权重特征图;
将堤防关键损坏宽度权重特征图和堤防关键损坏高度权重特征图进行特征图整合,从而生成损坏特征图。
CN202410750870.4A 2024-06-12 2024-06-12 一种基于改进Yolov8模型的堤防损坏识别方法 Active CN118334526B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410750870.4A CN118334526B (zh) 2024-06-12 2024-06-12 一种基于改进Yolov8模型的堤防损坏识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410750870.4A CN118334526B (zh) 2024-06-12 2024-06-12 一种基于改进Yolov8模型的堤防损坏识别方法

Publications (2)

Publication Number Publication Date
CN118334526A CN118334526A (zh) 2024-07-12
CN118334526B true CN118334526B (zh) 2024-09-10

Family

ID=91780491

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410750870.4A Active CN118334526B (zh) 2024-06-12 2024-06-12 一种基于改进Yolov8模型的堤防损坏识别方法

Country Status (1)

Country Link
CN (1) CN118334526B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079061A (zh) * 2023-10-17 2023-11-17 四川迪晟新达类脑智能技术有限公司 基于注意力机制和Yolov5的目标检测方法及装置
CN117911350A (zh) * 2024-01-04 2024-04-19 盐城工学院 一种基于改进YOLOv7-tiny的PCB表面缺陷检测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114998704A (zh) * 2022-05-13 2022-09-02 盐城工学院 一种基于yolov5的瑕疵目标检测方法
CN116563736A (zh) * 2023-05-17 2023-08-08 国网江苏省电力有限公司徐州供电分公司 一种基于改进Yolov算法的无人机航拍绝缘子目标检测方法
CN116704357B (zh) * 2023-08-09 2023-10-27 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) 基于YOLOv7的堤坝边坡滑坡智能识别与预警方法
CN117078853B (zh) * 2023-08-18 2024-03-19 广东工业大学 一种基于数字孪生体的工件缺陷样本扩增方法及存储介质
CN117877026A (zh) * 2023-12-29 2024-04-12 重庆理工大学 基于注意力机制的轻量级YOLOv5微小物体检测

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117079061A (zh) * 2023-10-17 2023-11-17 四川迪晟新达类脑智能技术有限公司 基于注意力机制和Yolov5的目标检测方法及装置
CN117911350A (zh) * 2024-01-04 2024-04-19 盐城工学院 一种基于改进YOLOv7-tiny的PCB表面缺陷检测方法

Also Published As

Publication number Publication date
CN118334526A (zh) 2024-07-12

Similar Documents

Publication Publication Date Title
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN111080629B (zh) 一种图像拼接篡改的检测方法
CN109800736B (zh) 一种基于遥感影像和深度学习的道路提取方法
CN110163213B (zh) 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN113392775A (zh) 一种基于深度神经网络的甘蔗幼苗自动识别与计数方法
CN111639587B (zh) 基于多尺度谱空卷积神经网络的高光谱图像分类方法
CN109840483B (zh) 一种滑坡裂缝检测与识别的方法及装置
CN114972191A (zh) 一种耕地变化检测方法和装置
CN111563408B (zh) 多层次感知特征渐进自学习的高分辨率影像滑坡自动检测方法
CN115830004A (zh) 表面缺陷检测方法、装置、计算机设备和存储介质
CN115861409B (zh) 大豆叶面积测算方法、系统、计算机设备及存储介质
CN117876381B (zh) 用于混凝土结构裂缝识别和分析的ai视觉检测方法和系统
CN117409168B (zh) 实时动态渲染的洪水预报及洪灾模拟方法和系统
CN113887472A (zh) 基于级联颜色及纹理特征注意力的遥感图像云检测方法
CN117422699A (zh) 公路检测方法、装置、计算机设备及存储介质
Guo et al. Blind single-image-based thin cloud removal using a cloud perception integrated fast Fourier convolutional network
Teodoro et al. Identification of beach hydromorphological patterns/forms through image classification techniques applied to remotely sensed data
Yu et al. Mean shift based clustering of neutrosophic domain for unsupervised constructions detection
CN112085725B (zh) 基于启发式迭代算法的残膜残留量检测方法及预警系统
CN115700737A (zh) 一种基于视频监控的溢油检测方法
CN116129280B (zh) 一种遥感影像雪检测的方法
CN118334526B (zh) 一种基于改进Yolov8模型的堤防损坏识别方法
CN115423725B (zh) 一种遥感影像修复方法及装置
CN116309561A (zh) 一种基于防漏电绝缘材料的表面缺陷识别方法
CN107992863B (zh) 多分辨率粮虫种类视觉识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant