CN117274212A - 一种桥梁水下结构裂缝检测方法 - Google Patents

一种桥梁水下结构裂缝检测方法 Download PDF

Info

Publication number
CN117274212A
CN117274212A CN202311280953.3A CN202311280953A CN117274212A CN 117274212 A CN117274212 A CN 117274212A CN 202311280953 A CN202311280953 A CN 202311280953A CN 117274212 A CN117274212 A CN 117274212A
Authority
CN
China
Prior art keywords
model
training
neural network
underwater structure
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311280953.3A
Other languages
English (en)
Inventor
程俭廷
陈炳聪
苏智文
李炎清
王身宁
崔志猛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Chengan Road And Bridge Inspection Co ltd
Guangzhou University
Original Assignee
Guangzhou Chengan Road And Bridge Inspection Co ltd
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Chengan Road And Bridge Inspection Co ltd, Guangzhou University filed Critical Guangzhou Chengan Road And Bridge Inspection Co ltd
Priority to CN202311280953.3A priority Critical patent/CN117274212A/zh
Publication of CN117274212A publication Critical patent/CN117274212A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/05Underwater scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种桥梁水下结构裂缝检测方法,预采样并构建桥梁水下结构裂隙图像数据集,从其中随机抽取数据并以预设比例划分为训练集、验证集和测试集;构建神经网络模型,设置第一学习率,以预设样本抓取量训练衰减至第二学习率;重复设置预设样本抓取量后执行从所有预设样本抓取量的设置中,以第一判断条件选取一个设置,其对应得到的训练权重作为第一模型权重;加载第一模型权重,并载入训练集和验证集至神经网络模型;设置第三学习率,并以预设衰减量对神经网络模型执行再训练,得到第二模型权重;加载第二模型权重,载入测试集;采样图片输入至神经网络模型中,得到识别结果。本发明实现了对水下裂隙的精确检测和判断。

Description

一种桥梁水下结构裂缝检测方法
技术领域
本发明属于神经网络及图像处理技术领域,具体涉及一种桥梁水下结构裂缝检测方法。
背景技术
桥梁水下结构裂缝是由于桥梁水下结构受到内外因素的作用而产生的物理结构变化,是桥梁水下结构最常见的病害之一。桥梁水下结构裂缝会导致钢筋保护层被破坏,引起钢筋锈蚀,降低结构的承载能力、耐久性、防水性和美观性,影响结构的使用性能和使用寿命。桥梁水下结构裂缝检测是对桥梁水下结构裂缝的形成原因、分布特征、宽度大小、危害程度等进行有效的识别和分析,以提出合理的修复、加固、改造等措施,消除隐患,保障结构的安全性和可靠性。因此进行桥梁水下结构裂缝检测十分有必要。
视觉检测是当下建筑裂缝检测的主流方法,主要分为数字图像处理方法与人工检测方法。人工检测方法的缺点是操作耗时、费力、测量结果主观性强、无法检测深层裂缝等。数字图像处理方法的缺点是需要对图像进行降噪、分割、提取等复杂的算法处理,受到图像质量、光照条件、背景干扰等因素的影响,难以保证识别的准确性和稳定性。
发明内容
为此,本发明提供一种桥梁水下结构裂缝检测方法,以实现对桥梁水下结构裂缝的检测。
本发明的第一方面,提供一种桥梁水下结构裂缝检测方法,包括如下步骤:S100、预采样并构建桥梁水下结构裂隙图像数据集,从其中随机抽取数据并以预设比例划分为训练集;
S200、构建神经网络模型,设置第一学习率,以预设样本抓取量训练衰减至第二学习率;
S201、重复设置所述预设样本抓取量后执行S200;
S202、从所有所述预设样本抓取量的设置中,以第一判断条件选取一个设置,其对应得到的训练权重作为第一模型权重;
S300、加载所述第一模型权重,并载入所述训练集和所述验证集至所述神经网络模型;
S301、设置第三学习率,并以预设衰减量对所述神经网络模型执行再训练,得到第二模型权重;
S400、加载所述第二模型权重,载入所述测试集;
S500、采样图片输入至所述神经网络模型中,得到识别结果。
进一步的,所述神经网络模型为YOLOv5。
进一步的,所述裂隙图像数据集被采样并构建时,还包括如下步骤:
采样第一数量级的桥梁水下结构表面的裂缝图像,裁切为第一尺寸图像;
灰度化处理所述第一尺寸图像,标注其中的裂缝位置及大小;
将裂缝图像划分以预设比例划分为训练集、验证集和测试集;
生成数据集索引,以YOLOv5格式组织文件。
进一步的,在S500中,
将输入图像分割为多个网格,
每个网格负责预测一定数量的锚框,每个所述锚框包含目标的位置、类别和置信度。
进一步的,所述YOLOv5包括如下设置:
使用CSPDarknet53作为主干网络,提取图像的特征,使用跨阶段部分连接和注意力机制增强特征的表达能力;
使用FPN作为特征金字塔网络,将不同层次的特征进行融合,提高对不同尺度目标的检测能力;
使用PANet作为特征聚合网络,将低层次的特征传递到高层次,提高对小目标的检测精度;
使用三个不同的输出层,分别负责检测大中小尺度的目标;
使用自适应锚框计算和自适应图片缩放方法优化锚框的生成和匹配。
进一步的,在步骤S200-S202以及步骤S300-S301中:
均通过交叉熵函数计算真实标签值与模型预测值之间的损失值;
并在损失值的最优条件下,得到对应的模型权重。
进一步的,在步骤S200-S202中,通过Adam优化器设置初始学习率为1e-3,并设置为每20批次学习率衰减到原来的0.8,利用该优化器根据训练的损失值通过逐轮训练调整神经网络层中超参数。
进一步的,在步骤S300-S301中,利用初始学习率为4e-5,衰减率为0.5的SGD优化器对神经网络模型执行再训练。
本发明的第二方面,提供一种计算机可读存储介质。
本发明的第三方面,提供一种电子设备。
本发明的上述技术方案,相比现有技术具有以下优点:
1)提高效率:相比传统的人工检测方法,该软件能够自动检测裂缝,大大提高检测的速度和效率。
2)提高准确度:该软件采用YOLOv5网络,通过训练大量的裂缝数据集,可以更准确地检测裂缝,避免了人工检测的主观性和误差。
3)适应性强:该检测方法可以应用于不同类型的桥梁水下结构,能够自动识别检测裂缝,具有很强的适应性。
4)保存标注结果:该方法可以自动保存标注后的图片和视频,方便用户进行进一步的分析和处理。
5)大型检测任务:该方法可以胜任大型检测任务,通过自动化和高效性,能够有效地提高工作效率和检测准确度。
附图说明
图1是本发明实施例提供的方法的结构示意图。
图2是本发明实施例提供的神经网络模型的结构示意图。
图3是本发明实施例提供的识别结果示意图。
图4是本发明实施例提供的电子设备的结构示意图。
具体实施方式
为了能够更加详尽地了解本公开实施例的特点与技术内容,下面结合附图对本公开实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本公开实施例。在以下的技术描述中,为方便解释起见,通过多个细节以提供对所披露实施例的充分理解。然而,在没有这些细节的情况下,一个或多个实施例仍然可以实施。在其它情况下,为简化附图,熟知的结构和装置可以简化展示。
实施例一
本公开实施例提供一种桥梁水下结构裂缝检测方法,如图1-图3所示。
本公开实施例的方法,首先包括如下步骤:
S100、预采样并构建桥梁水下结构裂隙图像数据集,从其中随机抽取数据并以预设比例划分为训练集。
本公开实施例的采样过程为,使用水下机器人采集桥梁水下结构的裂缝图像数据集,包括正常的和含有裂缝的图像。
执行对原始采集图像进行预处理,如调整大小、增强对比度、去噪等。标注采集预处理后的数据,并整理为桥梁水下结构裂隙图像数据集,并按照70%:10%:20%划分为训练集、验证集和测试集。
S200、构建神经网络模型,设置第一学习率,以预设样本抓取量训练衰减至第二学习率;
S201、重复设置所述预设样本抓取量后执行S200;
S202、从所有所述预设样本抓取量的设置中,以第一判断条件选取一个设置,其对应得到的训练权重作为第一模型权重。
其中,预训练神经网络模型时,首先利用公开的建筑裂缝病害数据集Crack500中的1500张训练模型,调整网络的参数和超参数。
在执行步骤S200时,使用交叉熵函数计算真实标签值与模型预测值间的损失值,使用Adam优化器设置初始学习率为1e-3,并设置为每20批次学习率衰减到原来的0.8,利用该优化器根据训练的损失值通过逐轮训练调整神经网络层中超参数,以此来优化神经网络模型的性能,待训练完毕后,存储模型权重,通过对参数设置batch_size为16,32,64,128的预训练权重的加载,并在测试集中对比准确率,召回率,F1分数三个指标,batch_size为32的模型权重被作为最佳预训练权重,即第一模型权重。
当评估分类问题时,常用的评估指标包括召回率(Recall)、精度(Precision)、F1分数(F1 Score)和准确率(Accuracy)。这些指标可以帮助我们评估模型在不同方面的性能。以下是这些指标的定义和计算方式:
召回率(Recall):召回率衡量了模型正确预测为正例的样本在实际正例中的比例。它是一个表示模型识别正例的能力的指标。
Recall=TP/(TP+FN)
其中,TP表示真实正例被正确预测为正例的数量,FN表示真实正例被错误预测为负例的数量。
精度(Precision):精度衡量了模型预测为正例的样本中真实正例的比例。它是一个表示模型预测准确性的指标。
Precision=TP/(TP+FP)
其中,TP表示真实正例被正确预测为正例的数量,FP表示真实负例被错误预测为正例的数量。
F1分数(F1 Score):F1分数综合考虑了精度和召回率,是一个综合评估模型性能的指标。它是精度和召回率的调和平均。
F1 Score=2*(Precision*Recall)/(Precision+Recall)
准确率(Accuracy):准确率衡量了模型在全部样本中正确预测的比例。它是一个表示模型总体预测准确性的指标。
Accuracy=(TP+TN)/(TP+TN+FP+FN)
其中,TP表示真实正例被正确预测为正例的数量,TN表示真实负例被正确预测为负例的数量,FP表示真实负例被错误预测为正例的数量,FN表示真实正例被错误预测为负例的数量。
S300、加载所述第一模型权重,并载入所述训练集和所述验证集至所述神经网络模型;
S301、设置第三学习率,并以预设衰减量对所述神经网络模型执行再训练,得到第二模型权重。
具体地,在本公开实施例中,载入训练集和验证集后,利用交叉熵损失函数得到真实标签值与模型预测值间的损失,利用初始学习率为4e-5,衰减率为0.5的SGD优化器对模型执行微调,即优化的批次设置为50的以最佳预训练权重为优化基础的再训练,通过逐批次的优化超参数,以损失值为评估指标,最终得到第二模型权重。
S400、加载所述第二模型权重,载入所述测试集;
S500、采样图片输入至所述神经网络模型中,得到识别结果。
本公开实施例中获取数据源时,拍摄约1500张桥梁水下结构表面的裂缝图像,并统一裁剪为224*224大小;
对裂缝图像数据进行灰度化处理;
使用labelme软件标注裂缝图像数据中的裂缝位置和大小;
划分训练集,测试集和验证集;
生成数据集索引,并按YOLOv5格式组织文件。
YOLOv5网络的训练流程如下:
准备裂缝的数据集Crack500,包括图像和标签文件,按照YOLOv5的要求组织文件路径和格式;
根据数据集分割训练集,测试集,验证集;
选择预训练模型YOLOv5s;
设置训练参数,如图片大小、批次大小、学习率、迭代次数等,训练模型并保存权重;
训练完成后,评估模型的性能。
在本公开实施例中,在步骤S500中,YOLOv5的检测流程如下:
步骤一、将输入图像分割成多个小网格,每个网格负责预测一定数量的锚框,每个锚框包含目标的位置、类别和置信度。
置信度阈值是在0到1之间的一个值。下面是设置置信度阈值的一些常见方法:
在一种方式下,选择默认值:YOLOv5的默认置信度阈值为0.25。这个值是根据模型的训练和验证过程进行调优得出的,可以作为一个起点来评估模型的性能。
在另一方式下,根据需求调整:根据具体的应用和任务需求,可以适当调整置信度阈值。如果希望更保守,只选择高置信度的边界框,则可以将阈值设置得较高,例如0.5或更高。如果希望包含更多边界框,可以降低阈值,但需要注意可能会引入更多的误检测。
经实际实验验证,通过设置0.25到0.60间每个值的间隔为0.05的共8个置信度值,面对置信度设置为0.45时,检测效果最佳。
步骤二、使用CSPDarknet53作为主干网络,提取图像的特征,使用跨阶段部分连接(CSP)和注意力机制(SPP)增强特征的表达能力。
使用FPN作为特征金字塔网络,将不同层次的特征进行融合,提高对不同尺度目标的检测能力。
使用PANet作为特征聚合网络,将低层次的特征传递到高层次,提高对小目标的检测精度。
步骤三、将低层次的特征传递到高层次,即自下而上(Bottom-Up)路径:这一路径是通过自底向上的注意力机制将低层次特征传递到高层次特征。具体步骤如下:
输入高层次特征图(例如,来自更早的卷积层)和低层次特征图(例如,来自更深的卷积层)。
对低层次特征进行卷积操作,以产生具有适当通道数的注意力向量(通常是1x1卷积)。
将注意力向量应用在高层次特征图上,以加权融合低层次特征的信息。
步骤四、使用三个不同的输出层,分别负责检测大中小尺度的目标,使用自适应锚框计算和自适应图片缩放方法优化锚框的生成和匹配。
在YOLOv5中,自适应图片缩放方法主要用于处理不同尺度的目标。具体而言,YOLOv5使用了多尺度训练策略,通过在训练过程中随机的对输入图片进行缩放和裁剪,使得网络可以学习到具有不同尺度的目标的表示。
下面是YOLOv5中自适应图片缩放方法优化锚框生成和匹配的一般流程:
数据预处理:首先,将输入图片等比例地调整到固定尺寸(如416x416),然后进行归一化处理,将像素值转换到[0,1]的范围。
锚框生成:在YOLOv5中,锚框的生成是通过对训练数据进行聚类得到的。首先,选择一部分训练样本作为聚类样本,然后使用k-means聚类算法对这些样本进行聚类,得到一些代表性的锚框。聚类算法将样本分为k个簇,每个簇的中心表示一个锚框。根据任务需求,可以选择不同的簇数和聚类算法。
锚框匹配:在训练过程中,将每个真实目标框匹配到与其重叠最好的锚框。具体地,对于每个真实目标框,计算其与所有锚框的重叠度(如IoU),选择重叠度最高的锚框作为匹配锚框。如果某个锚框与真实目标框的重叠度小于一定阈值(如0.4),则被认为是背景。
目标检测:在训练过程中,网络通过预测每个锚框的类别概率和位置信息来进行目标检测。对于每个锚框,预测结果包括类别概率和边界框的坐标。根据匹配锚框的类别概率和位置信息,通过回归算法来预测目标的位置和类别。
在本公开实施例中,如图2所示,公开了一种本公开实施例中的YOLOv5网络结构。
YOLOv5网络结构的每一模块与对应功能包括如下网络:
骨干网络(Backbone):YOLOv5使用CSPDarknet53作为其骨干网络,其具有较强的特征提取能力和计算效率。
颈部网络(Neck):YOLOv5使用SPPF和CSP-PAN作为其颈部网络,其可以融合不同尺度的特征,并增加感受野和通道数。
头部网络(Head):YOLOv5使用YOLOv3 Head作为其头部网络,其包括三个不同的输出层,分别负责检测大中小尺度的目标。
在本公开实施例公开的YOLOv5网络结构的基础上检测桥梁水下结构裂缝的过程:
获取桥梁水下结构待检测的图片或者视频;
加载训练完成的YOLOv5权重文件,并运行YOLOv5神经网络;
将待检测的视频与图片输入至YOLOv5神经网络中;
YOLOv5神经网络标注出裂缝的大小和位置;
YOLOv5神经网络输出带标注的结果。
检测工程师根据带标注的结果评估桥梁水下结构的健康状况。
实施例二
结合图4所示,本公开实施例提供一种桥梁水下结构裂缝检测方法的电子设备,包括处理器(processor)30和存储器(memory)31。可选地,该电子设备还可以包括通信接口(CommunicationInterface)32和总线33。其中,处理器30、通信接口32、存储器31可以通过总线33完成相互间的通信。通信接口32可以用于信息传输。处理器30可以调用存储器31中的逻辑指令,以执行上述实施例的基于价值共创的企业基于高速加密技术的云计算系统数据处理方法。
本公开实施例还提供了一种存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为执行上述基于价值共创的企业基于高速加密技术的云计算系统数据处理方法。
上述的存储介质可以是暂态计算机可读存储介质,也可以是非暂态计算机可读存储介质。非暂态存储介质,包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
以上描述和附图充分地示出了本公开的实施例,以使本领域的技术人员能够实践它们。其他实施例可以包括结构的、逻辑的、电气的、过程的以及其他的改变。实施例仅代表可能的变化。除非明确要求,否则单独的部件和作用是可选的,并且操作的顺序可以变化。一些实施例的部分和特征可以被包括在或替换其他实施例的部分和特征。而且,本申请中使用的用词仅用于描述实施例并且不用于限制权利要求。如在实施例以及权利要求的描述中使用的,除非上下文清楚地表明,否则单数形式的“一个”(a)、“一个”(an)和“所述”(the)旨在同样包括复数形式。类似地,如在本申请中所使用的术语“和/或”是指包含一个或一个以上相关联的列出的任何以及所有可能的组合。另外,当用于本申请中时,术语“包括”(comprise)及其变型“包括”(comprises)和/或包括(comprising)等指陈述的特征、整体、步骤、操作、元素,和/或组件的存在,但不排除一个或一个以上其它特征、整体、步骤、操作、元素、组件和/或这些的分组的存在或添加。在没有更多限制的情况下,由语句“包括一个…”限定的要素,并不排除在包括所述要素的过程、方法或者设备中还存在另外的相同要素。本文中,每个实施例重点说明的可以是与其他实施例的不同之处,各个实施例之间相同相似部分可以互相参见。对于实施例公开的方法、产品等而言,如果其与实施例公开的方法部分相对应,那么相关之处可以参见方法部分的描述。

Claims (10)

1.一种桥梁水下结构裂缝检测方法,其特征在于,包括如下步骤:
S100、预采样并构建桥梁水下结构裂隙图像数据集,从其中随机抽取数据并以预设比例划分为训练集、验证集和测试集;
S200、构建神经网络模型,设置第一学习率,以预设样本抓取量训练衰减至第二学习率;
S201、重复设置所述预设样本抓取量后执行S200;
S202、从所有所述预设样本抓取量的设置中,以第一判断条件选取一个设置,其对应得到的训练权重作为第一模型权重;
S300、加载所述第一模型权重,并载入所述训练集和所述验证集至所述神经网络模型;
S301、设置第三学习率,并以预设衰减量对所述神经网络模型执行再训练,得到第二模型权重;
S400、加载所述第二模型权重,载入所述测试集;
S500、采样图片输入至所述神经网络模型中,得到识别结果。
2.根据权利要求1所述的方法,其特征在于,所述神经网络模型为YO LOv5。
3.根据权利要求2所述的方法,其特征在于,所述裂隙图像数据集被采样并构建时,还包括如下步骤:
采样第一数量级的桥梁水下结构表面的裂缝图像,裁切为第一尺寸图像;
灰度化处理所述第一尺寸图像,标注其中的裂缝位置及大小;
将裂缝图像划分以预设比例划分为训练集、验证集和测试集;
生成数据集索引,以YOLOv5格式组织文件。
4.根据权利要求2所述的方法,其特征在于,在S500中,
将输入图像分割为多个网格,
每个网格负责预测一定数量的锚框,每个所述锚框包含目标的位置、类别和置信度。
5.根据权利要求2所述的方法,其特征在于,所述YOLOv5包括如下设置:
使用CSPDarknet53作为主干网络,提取图像的特征,使用跨阶段部分连接和注意力机制增强特征的表达能力;
使用FPN作为特征金字塔网络,将不同层次的特征进行融合,提高对不同尺度目标的检测能力;
使用PANet作为特征聚合网络,将低层次的特征传递到高层次,提高对小目标的检测精度;
使用三个不同的输出层,分别负责检测大中小尺度的目标;
使用自适应锚框计算和自适应图片缩放方法优化锚框的生成和匹配。
6.根据权利要求2所述的方法,其特征在于,在步骤S200-S202以及步骤S300-S301中:
均通过交叉熵函数计算真实标签值与模型预测值之间的损失值;
并在损失值的最优条件下,得到对应的模型权重。
7.根据权利要求6所述的方法,其特征在于,在步骤S200-S202中,通过Adam优化器设置初始学习率为1e-3,并设置为每20批次学习率衰减到原来的0.8,利用该优化器根据训练的损失值通过逐轮训练调整神经网络层中超参数。
8.根据权利要求6所述的方法,其特征在于,在步骤S300-S301中,利用初始学习率为4e-5,衰减率为0.5的SGD优化器对神经网络模型执行再训练。
9.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被计算机执行时,适于实现如权利要求1-8任一所述的方法。
10.一种电子设备,包括存储器和处理器,所述存储器被处理器执行时,适于实现如权利要求1-8任一所述的方法。
CN202311280953.3A 2023-09-28 2023-09-28 一种桥梁水下结构裂缝检测方法 Pending CN117274212A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311280953.3A CN117274212A (zh) 2023-09-28 2023-09-28 一种桥梁水下结构裂缝检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311280953.3A CN117274212A (zh) 2023-09-28 2023-09-28 一种桥梁水下结构裂缝检测方法

Publications (1)

Publication Number Publication Date
CN117274212A true CN117274212A (zh) 2023-12-22

Family

ID=89217486

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311280953.3A Pending CN117274212A (zh) 2023-09-28 2023-09-28 一种桥梁水下结构裂缝检测方法

Country Status (1)

Country Link
CN (1) CN117274212A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117893872A (zh) * 2024-03-18 2024-04-16 成都理工大学 基于多模型融合检测的平面裂隙光学检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117893872A (zh) * 2024-03-18 2024-04-16 成都理工大学 基于多模型融合检测的平面裂隙光学检测方法
CN117893872B (zh) * 2024-03-18 2024-05-14 成都理工大学 基于多模型融合检测的平面裂隙光学检测方法

Similar Documents

Publication Publication Date Title
CN112669275B (zh) 基于YOLOv3算法的PCB表面缺陷检测方法及装置
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN116579616B (zh) 一种基于深度学习的风险识别方法
CN111582358B (zh) 户型识别模型的训练方法及装置、户型判重的方法及装置
CN117274212A (zh) 一种桥梁水下结构裂缝检测方法
CN115953666B (zh) 一种基于改进Mask-RCNN的变电站现场进度识别方法
CN116843999A (zh) 一种基于深度学习的动火作业中气瓶检测方法
CN112393880A (zh) 屏幕更换检测方法及装置
CN113947597B (zh) 一种基于屏蔽重建的工业缺陷检测方法、装置及介质
CN116051496A (zh) 一种实时下水道缺陷检测方法
CN114639102A (zh) 基于关键点与尺寸回归的细胞分割方法和装置
CN116152674A (zh) 一种基于改进U-Net模型的大坝无人机影像裂缝智能识别方法
CN109543571B (zh) 一种面向复杂产品异形加工特征的智能识别与检索方法
CN114359300B (zh) 一种图像分割模型的优化方法、装置、系统及存储介质
CN113920311A (zh) 一种基于边缘辅助信息的遥感图像分割方法及系统
CN112861689A (zh) 一种基于nas技术的坐标识别模型的搜索方法及装置
Li et al. Research on Oracle Bone Inscription Segmentation and Recognition Model Based on Deep Learning
CN117333733B (zh) 裂缝检测模型训练方法、装置、电子设备及存储介质
CN113407439B (zh) 一种用于软件自承认型技术债务的检测方法
CN117576098B (zh) 基于分割的细胞分裂均衡度评估方法及设备
CN117474915B (zh) 一种异常检测方法、电子设备及存储介质
CN117372428A (zh) 一种晶圆的缺陷检测方法、装置、电子设备及存储介质
CN114199992A (zh) 一种储油罐罐壁腐蚀检测方法及系统
CN118333988A (zh) 基于差异性增强和自适应元学习的缺陷检测方法及系统
CHATURVEDI et al. A NOVEL MODEL OF TEXTURE PATTERN BASED OBJECT IDENTIFICATION USING CONVOLUTED MULTI-ANGULAR (CMA) PATTERN EXTRACTION METHOD

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination