CN114705689A - 一种基于无人机的建筑物外立面裂缝检测方法及系统 - Google Patents

一种基于无人机的建筑物外立面裂缝检测方法及系统 Download PDF

Info

Publication number
CN114705689A
CN114705689A CN202210390380.9A CN202210390380A CN114705689A CN 114705689 A CN114705689 A CN 114705689A CN 202210390380 A CN202210390380 A CN 202210390380A CN 114705689 A CN114705689 A CN 114705689A
Authority
CN
China
Prior art keywords
crack
feature
building
aerial vehicle
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210390380.9A
Other languages
English (en)
Inventor
刘光辉
王钜文
孟月波
徐胜军
刘一良
陈健
马泽飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Architecture and Technology
Original Assignee
Xian University of Architecture and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Architecture and Technology filed Critical Xian University of Architecture and Technology
Priority to CN202210390380.9A priority Critical patent/CN114705689A/zh
Publication of CN114705689A publication Critical patent/CN114705689A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/9515Objects of complex shape, e.g. examined with use of a surface follower device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于无人机的建筑物外立面裂缝检测方法及系统,构建裂缝图像训练数据集和验证数据集,利用无人机获取待检测建筑物的裂缝图像以及无人机与待检测建筑物的距离信息;构建基于多特征区域注意力的卷积神经网络,具体包括区域级通道注意力网络、特征提取网络和特征恢复网络;进行损失计算,利用训练数据集对基于多特征区域注意力的卷积神经网络进行训练,得到基于多特征区域注意力的语义分割模型;将验证数据集或利用无人机获取的裂缝图像输入基于多特征区域注意力的语义分割模型,得到裂缝二值图;对裂缝二值图进行处理、计算得到裂缝的实际长度,本发明集图像采集、裂缝检测与裂缝测量于一体,具有高效率、自动化检测的优点。

Description

一种基于无人机的建筑物外立面裂缝检测方法及系统
技术领域
本发明属于建筑物健康检测技术领域,具体属于一种基于无人机的建筑物外立面裂缝检测方法及系统。
背景技术
民用基础设施,如桥梁、道路、建筑物的服役时间通常会超过其自身的设计寿命,再加上混凝土结构在施工和使用过程中荷载、环境侵蚀和突发灾害等多种因素的耦合作用下,有些建筑的外墙及已出现了不同程度的裂缝、空鼓、粘结力不足等问题,特别是在极端风雨气候条件下,发生了脱落、坠落问题,出现了多起外墙、瓷砖脱落砸伤行人及损坏财物等现象,这不仅损害了人民财产安全,更重要地是给广大民众心理蒙上了一层阴影,因此需要有高效的测试手段对外墙进行检测,特别是无损检测,为预防和维修提供评估依据。
现有的建筑物健康检测方法主要有:人工检测法、传感器检测法、图像处理检测法以及传统机器学习检测法。人工检测法需要花费大量的人力物力。传感器检测法成本较高且对检测人员有专业要求。图像处理检测法存在检测鲁棒性不足的问题。
发明内容
为了解决现有技术中存在的问题,本发明提供一种基于无人机的建筑物外立面裂缝检测方法及系统,集图像采集、建筑物外立面表面裂缝检测与裂缝几何参数测量于一体,具有高效率、自动化检测的优点。
为实现上述目的,本发明提供如下技术方案:一种基于无人机的建筑物外立面裂缝检测方法,具体步骤如下:
S1构建裂缝图像训练数据集和验证数据集,利用无人机检测待检测建筑物的结构并进行建模,确定裂缝在建筑物中的位置并获取裂缝图像,获取无人机与待检测建筑物的距离信息;
S2构建基于多特征区域注意力的卷积神经网络,具体包括区域级通道注意力网络、特征提取网络和特征恢复网络;
S3建立损失函数,进行损失计算,利用训练数据集对基于多特征区域注意力的卷积神经网络进行训练,得到基于多特征区域注意力的语义分割模型;
S4将验证数据集或利用无人机获取待检测建筑物的裂缝图像输入基于多特征区域注意力的语义分割模型,得到裂缝二值图;
S5对裂缝二值图进行处理得到裂缝骨架图,通过长度计算获得裂缝骨架图的像素点个数,根据无人机与待检测建筑物的距离信息获取标定像素比例关系,得到裂缝的实际长度。
进一步的,步骤S2中,所述特征提取网络用于提取裂缝图像中不同尺度的裂缝特征信息,得到不同尺度的裂缝原始特征图,具体的:
所述特征提取网络共有五层,前四层中每层包含两个3×3的卷积,每个3×3的卷积都连接一个ReLu非线性激活,层与层之间通过一个2×2最大池化连接,特征提取网络中前四层输出两个低层原始特征图L1、L2,两个高层原始特征图H3、H4;最后一层输出裂缝高层特征图H5。
进一步的,步骤S2中,所述特征恢复网络用于逐层恢复特征提取网络每层得到的原始特征图的边缘信息,具体的:
特征恢复网络共有四层,每层包含两个3×3卷积,每个3×3卷积都连接一个ReLu非线性激活和两个2×2上采样层,其中一个2×2上采样层连接一个区域级通道注意力网络;
特征恢复网络第一层中对裂缝高层特征图H5进行上采样得到两个相同尺度裂缝恢复特征图,分别为裂缝恢复特征图RH41、裂缝恢复特征图RH42;
将裂缝恢复特征图RH41输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图;
将加强区域级信息的裂缝特征图与裂缝恢复特征图RH42进行拼接,为特征恢复过程提供更多语义信息,得到裂缝恢复特征图RH43;
重复3次上述操作得到裂缝恢复特征图RH1,将裂缝恢复特征图RH1通过两个3×3卷积、一个1×1卷积和softmax分类器后输出裂缝二值图。
进一步的,步骤S2中,所述区域级通道注意力网络分为挤压操作和激励操作两部分,其中:
挤压操作用于通过聚焦裂缝恢复特征图区域空间维度上的特征映射来生成区域级通道描述符,该描述符代表了裂缝区域级通道特征信息,具体地,裂缝恢复特征图为X经过公式(1)得到区域级通道描述符Y:
Y=Avgpooling(X) (1)
式中,
Figure BDA0003596675780000031
Figure BDA0003596675780000032
为C×W×H尺寸的特征图;Avgpooling表示步长为4,卷积核为4的平均池化操作;
激励操作以区域级通道描述符为输入,通过公式(2)得到裂缝特征图权重为s,具体如下:
s=FU{σ[W2δ(W1Y)]} (2)
式中,
Figure BDA0003596675780000033
W1、W2为通道数变换的一个中间操作,
Figure BDA0003596675780000034
其中
Figure BDA0003596675780000035
Figure BDA0003596675780000036
为变换后的通道数,C为变换前的通道数;
Figure BDA0003596675780000037
中,C为变换后的通道数,
Figure BDA0003596675780000038
为变换前的通道数;γ为降维率,
Figure BDA0003596675780000039
为特征图尺寸,本文中设置γ为2,δ为ReLu非线性激活,σ为sigmoid非线性激活,FU为上采样;
将裂缝特征图权重与输入裂缝恢复特征图进行对应像素相乘,得到加强学习的裂缝特征图,再将输入裂缝恢复特征图和加强学习的裂缝特征图通过对应像素相加,得到加强区域级信息的裂缝特征图为P,具体如下:
Figure BDA0003596675780000041
式中,
Figure BDA0003596675780000042
Figure BDA0003596675780000043
为特征图对应像素相乘,
Figure BDA0003596675780000044
为特征图对应像素相加。
进一步的,步骤S3中,采用Focal loss损失函数计算裂缝检测损失,具体为:
Figure BDA0003596675780000045
式中,W表示图像高度,H表示图像宽度,
Figure BDA0003596675780000046
为图像中处于(w,h)处对应的标签预测概率,y(w,h)为图像中处于(w,h)处对应的标签,a和λ为超参数。
进一步的,步骤S5中,通过阈值分割对裂缝二值图做降噪处理,然后通过K3M骨架提取算法对裂缝二值图进行处理得到一像素宽度的裂缝骨架图,通过长度计算获得裂缝骨架图的像素点个数,像素点个数总和即为裂缝骨架长度。
进一步的,步骤S5中,将无人机与待检测建筑物的距离信息输入到标定像素比例关系,得到裂缝的尺度因子,再将尺度因子与裂缝骨架长度相乘得出裂缝的实际长度。
进一步的,将像素点对应的实际长度与无人机与待检测建筑物的距离进行拟合,得到裂缝的尺度因子,具体公式为:
y=p1x+p2 (5)
式中,y为尺度因子,即图片单个像素点对应实际长度,x为无人机与待检测建筑物的距离,x∈{3000,7000}。
本发明还提供一种基于无人机的建筑物外立面裂缝检测系统,具体包括:
图像采集模块,用于构建裂缝图像训练数据集和验证数据集,并利用无人机获取待检测建筑物的图像和无人机与待检测建筑物之间的距离信息;
网络构建模块,用于构建基于多特征区域注意力的卷积神经网络;
模型训练模块,用于建立损失函数,进行损失计算,利用裂缝图像训练数据集对基于多特征区域注意力的卷积神经网络进行训练,得到基于多特征区域注意力的语义分割模型;
检索模块,用于将验证数据集或利用无人机获取待检测建筑物的图像输入基于多特征区域注意力的语义分割模型中,得到裂缝二值图;
图像处理模块,用于对裂缝二值图进行降噪处理,骨架提取,得到裂缝骨架图,并通过长度计算获得裂缝骨架图的像素点个数,结合标定像素比例关系得出裂缝的实际长度。
进一步的,所述无人机为利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,所述无人机上设置有雷达扫描仪、激光测距仪以及GPS定位仪,所述雷达扫描仪用于检测待测建筑物的结构,并对建筑物建模,显示裂缝在建筑物中的位置;所述激光测距仪用于检测无人机与待测建筑物的距离;所述GPS定位仪用于记录无人机拍摄裂缝图片时的位置信息。
与现有技术相比,本发明至少具有以下有益效果:
本发明提供一种基于无人机的建筑物外立面裂缝检测方法,针对现有建筑物健康检测技术中存在的检测费时、费力、成本高且具有一定危险性的问题,本发明实现了待测图像采集、获取记录图像时的位置信息和建筑物外立面裂缝检测、裂缝尺寸测量,提高了检测效率,减少了检测成本,为建筑物健康检测技术领域提供了一种集待测图像采集,表面裂缝检测和裂缝尺寸测量于一体的非接触式解决方案。
本发明的实施,能够减少检测人员工作量,降低检测人员操作门槛,实现检测工作减员增效;相对于传统的人工检测方式,本发明结合无人机技术和计算机视觉技术,将待测图像信息以及记录图像的位置信息反馈给工作人员,降低了高空建筑物健康检测的安全风险,增加了检测效率;相对于传统的无人机检测方式,本发明通过建筑物健康检测以评估建筑物损伤程度,为后续是否采取修复措施提供建议。
本发明的一种基于无人机的建筑物外立面裂缝检测系统,通过无人机监控的方式对于检测的建筑物进行检测,在检测的过程中能够实现建筑外立面进行无损检测,对建筑物外立面裂缝进行缺陷检测,检测方法可靠,准确性高,检测过程中由多种技术类型机器进行检测,以计算机视觉技术为科学依据,检测速度快,可以有效的减少检测时间,同时无人机的灵活性高,能适应多种墙体的检测,在使用的过程中操作难度低,方便工作人员操作。
附图说明
图1为本发明中一种基于无人机的建筑物外立面裂缝检测方法的流程图;
图2为本发明中基于多特征区域注意力的语义分割模型的结构图;
图3为本发明中特征提取网络的结构图;
图4为本发明中特征恢复网络的结构图;
图5为本发明中区域级通道注意力网络的结构图;
图6为本发明在Bridge_Crack_Image_Data数据集部分实验结果。
具体实施方式
为使本发明的技术方案更加清楚,下面将结合本发明实施例中的附图,对本发明做进一步阐述。在此需要说明的是,以下所述实施例仅为本发明的一部分实施例,而非全部的实施例。
本发明提供一种基于无人机的建筑物外立面裂缝检测方法,具体步骤如下:
1)下载Bridge_Crack_Image_Data数据集,对图像进行预处理,得到数据集,将数据集按照9:1的比例,分为裂缝图像训练数据集和验证数据集。
优选的,预处理通过弱化图像的颜色、亮度以减少外界因素干扰对最终分析结果的影响;通过裁剪、水平翻转、垂直翻转、旋转等操作扩充数据集以增强语义分割模型的泛化能力。
(2)构建基于多特征区域注意力的卷积神经网络,具体包括区域级通道注意力网络、特征提取网络、特征恢复网络,特征提取网络用于对输入裂缝图像的多尺度特征提取,不同尺度的裂缝特征图,经过特征提取网络的两个3×3卷积后得到原始特征图,然后将原始特征图输出到特征恢复网络用于特征融合;特征恢复网络用于利用区域级通道注意力网络加强处于上采样阶段的原始特征图的裂缝特征,抑制非裂缝特征,得到加强区域级信息的裂缝特征图,将加强区域级信息的裂缝特征图与特征提取网络提取的原始特征图进行特征融合实现原始特征图的多尺度特征恢复,输出裂缝二值图。
1)构造特征提取网络
特征提取网络用于提取裂缝图像中不同尺度的裂缝特征信息,得到不同尺度的裂缝原始特征图。
特征提取网络共有五层,其中,前四层中每层包含两个3×3的卷积,其中每个3×3卷积都连接一个ReLu非线性激活,层与层之间通过一个2×2最大池化连接,特征提取网络中前四层输出两个低层原始特征图L1、L2,两个高层原始特征图H3、H4,低层原始特征图更关注裂缝的语义信息,高层原始特征图更关注裂缝的边缘信息,将低层原始特征图L1、L2和高层原始特征图H3、H4通过跳跃连接传输至特征恢复网络的区域级通道注意力网络中;特征提取网络最后一层输出裂缝高层特征图H5;
2)构造特征恢复网络
特征恢复网络用于逐层恢复特征提取网络每层得到的原始特征图的边缘信息,具体的,特征恢复网络共有四层,每层包含两个3×3卷积,每个3×3卷积都连接一个ReLu非线性激活和两个2×2上采样层,其中一个2×2上采样层连接一个区域级通道注意力网络。
特征恢复网络对裂缝高层特征图H5进行上采样得到两个相同尺度裂缝恢复特征图,分别为裂缝恢复特征图RH41、裂缝恢复特征图RH42,其中裂缝恢复特征图RH41输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图,与然后将加强区域级信息的裂缝特征图与裂缝恢复特征图RH42进行拼接,为特征恢复过程提供更多语义信息,得到裂缝恢复特征图RH43。重复3次上述操作得到恢复特征图RH1,最后将恢复特征图RH1经过两个3×3卷积、一个1×1卷积和softmax分类器后,输出以白色为目标,黑色为背景的裂缝二值图(白色区域代表裂缝部位,黑色区域代表完整部位)。
3)区域级通道注意力网络分为挤压操作和激励操作两部分
挤压操作通过聚焦裂缝恢复特征图区域空间维度上的特征映射来生成区域级通道描述符,该描述符代表了裂缝区域级通道特征信息,具体为对输入的裂缝恢复特征图做步长为4,卷积核为4的平均池化,具体为对裂缝特征图中4×4的像素区域求和再取平均值,最终输出区域级通道描述符,假设输入的裂缝恢复特征图为X经过公式(1)得到区域级通道描述符Y,具体的:
Y=Avgpooling(X) (1)
式中,
Figure BDA0003596675780000081
Figure BDA0003596675780000082
为C×W×H尺寸的特征图;Avgpooling表示步长为4,卷积核为4的平均池化操作。
激励操作具体为:
首先以区域级通道描述符为输入,通过两次1×1卷积增加不同特征通道间的交互,提升裂缝语义信息和空间信息的连接性,增强裂缝特征对区域信息的敏感度,得到激励的裂缝特征图;
然后对激励的裂缝恢复特征图进行上采样恢复特征图的尺寸,得到裂缝特征图权重s,裂缝特征图权重反应了裂缝特征和背景特征的关系,具体如公式(2)所示:
s=FU{σ[W2δ(W1Y)]} (2)
式中,
Figure BDA0003596675780000083
W1、W2为通道数变换的一个中间操作,
Figure BDA0003596675780000084
其中
Figure BDA0003596675780000085
Figure BDA0003596675780000086
为变换后的通数,C为变换前的通道数;
Figure BDA0003596675780000087
中,C为变换后的通道数,
Figure BDA0003596675780000088
为变换前的通道数;γ为降维率,
Figure BDA0003596675780000089
为特征图尺寸,本文中设置γ为2,δ为ReLu非线性激活,σ为sigmoid非线性激活,FU为上采样。
将裂缝特征图权重与输入的裂缝恢复特征图进行对应像素相乘,得到加强学习的裂缝特征图,再将输入的裂缝恢复特征图和加强学习的裂缝特征图通过对应像素相加,得到加强区域级信息的裂缝特征图为
Figure BDA0003596675780000091
具体如下:
Figure BDA0003596675780000092
式中,
Figure BDA0003596675780000093
为特征图对应像素相乘,
Figure BDA0003596675780000094
为特征图对应像素相加。
(4)损失计算,根据裂缝二值图与对应真值图,计算裂缝检测损失,由于裂缝图片中裂缝和背景分布极其不平衡,即裂缝所占比例远远小于背景所占比例,为解决这种问题采用Focal loss损失函数计算损失,公式如下:
Figure BDA0003596675780000095
式中,W表示图像高度,H表示图像宽度,
Figure BDA0003596675780000096
为图像中处于(w,h)处对应的标签预测概率,
Figure BDA0003596675780000097
越接近于1表示预测准确率越高,损失就越小,y(w,h)为图像中处于(w,h)处对应的标签,a和λ为超参数,实验中发现当λ=2,a=0.25取得最优效果。
(5)利用训练数据集对基于多特征区域注意力的卷积神经进行训练,设置epoch为60,使用带重启的随机梯度下降方法训练,初始学习率为0.001258,最小学习率设置为10-7,当执行完15个epoch后,学习率迅速衰减到0,然后在下一个epoch时迅速反弹至初始值。反复调参得到基于多特征区域注意力的语义分割模型。
(6)利用无人机检测待检测建筑物的结构,并对建筑物建模,确定裂缝在建筑物中的位置并获取裂缝图像,获取无人机与待检测建筑物的距离信息;
将裂缝图像输入基于多特征区域注意力的语义分割模型中,得到裂缝二值图。
(7)通过阈值分割对裂缝二值图做降噪处理,去除杂色,增强裂缝特征表达,输出降噪后的裂缝二值图。
(8)将降噪后的裂缝二值图进行骨架提取得到裂缝骨架图,具体地:
利用K3M骨架提取算法,对裂缝二值图不断细化,提取伪骨架,但伪骨架的部分区域存在多个像素宽度,进一步将伪骨架进行优化,细化成一像素宽度的真实骨架,得到裂缝骨架图。
具体步骤如下:
1)提取目标轮廓点,并标记;
2)依次检查目标轮廓点的8像素邻域,如果只含有3个邻接前景像素点,则把此点从轮廓点删除;
3)依次检查2)中剩余轮廓点的8像素邻域,如果只含有3或4个邻接前景像素点,如果有,则把此点从轮廓点删除;
4)依次检查3)中剩余轮廓点的8像素邻域,如果只含有3、4或5个邻接前景像素点,则把此点从轮廓点删除;
5)依次检查4)中剩余轮廓点的8像素邻域,如果只含有3、4、5或6个邻接前景像素点,则把此点从轮廓点删除;
6)依次检查5)中剩余轮廓点的8像素邻域,如果只含有3、4、5、6或7个邻接前景像素点,则把此点从轮廓点删除;
7)取消剩余的标记轮廓点,如果步骤6)中没有像素点被删除,则停止迭代,否则将返回1);
8)迭代细化后的骨架仍有部分区域是多个像素宽度,而目标骨架是单个像素宽度,于是依次检查伪骨架的8像素邻域,如果只含有2、3、4、5、6或7个邻接前景像素点,则把此点从伪骨架中删除,最终得到一像素宽度的真实骨架。
(9)通过长度计算获得裂缝骨架图的像素点个数,根据像素点个数得到裂缝骨架长度。
进一步的,遍历裂缝骨架图,得到像素点个数的总和即为裂缝骨架长度。
(10)将无人机与待检测建筑物的距离信息输入到标定像素比例关系,得到裂缝的尺度因子,再将尺度因子与裂缝骨架长度相乘得出裂缝的实际长度。同时,GPS定位将拍摄时的位置关系回传至控制系统。
本发明还提供一种基于无人机的建筑物外立面裂缝检测系统,具体包括:
图像采集模块,用于构建裂缝图像训练数据集和验证数据集,并利用无人机获取待检测建筑物的图像和无人机与待检测建筑物之间的距离信息;
网络构建模块,用于构建基于多特征区域注意力的卷积神经网络;
模型训练模块,用于建立损失函数,进行损失计算,利用裂缝图像训练数据集对基于多特征区域注意力的卷积神经网络进行训练,得到基于多特征区域注意力的语义分割模型;
检索模块,用于将验证数据集或利用无人机获取待检测建筑物的图像输入基于多特征区域注意力的语义分割模型中,得到裂缝二值图;
图像处理模块,用于对裂缝二值图进行降噪处理,骨架提取,得到裂缝骨架图,并通过长度计算获得裂缝骨架图的像素点个数,结合标定像素比例关系得出裂缝的实际长度。
优选的,无人机是利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,它依靠装在机上的设备,完成各种巡检和监测任务,按预定的程序或地面指令进行工作,最后将所获得的信息和图像实时传送回地面,也可以将获得的所有信息记录下来,待无人机回收时一次取用,
优选的,无人机上设置有雷达扫描仪、激光测距仪以及GPS定位仪,雷达扫描仪用于检测待测建筑物的结构,并对建筑物建模,显示裂缝在建筑物中的位置;激光测距仪用于检测无人机与待测建筑物的距离,得到尺度因子;GPS定位仪用于记录无人机拍摄裂缝图片时的位置信息。
进一步的,信号处理可以通过测距仪测得的距离输入到标定比例关系,得到尺度因子,尺度因子作为图片中单个像素的实际长度,为后续裂缝长度测量提供依据。
进一步的,将每一个像素点对应的实际长度(mm)与无人机与待检测建筑物的距离(mm)进行拟合,得到裂缝的尺度因子,具体如下:
确定待检测建筑物,控制无人机对待检测建筑物拍照,待检测建筑物始终处于无人机上摄像机图像的中心,无人机从距离待检测建筑物3000mm的初始位置开始以每次500mm步长移动到无人机距离待检测建筑物7000mm的最大位置,,然后无人机再返回至初始位置,完成一个循环,同时移动过程中记录激光测距仪与待检测建筑物之间的距离并记录,重复实验三次取平均值;最后将实验结果进行线性拟合,得到尺度因子,表达式为:
y=p1x+p2 (6)
式中,y为尺度因子,即图片单个像素点对应实际长度(mm)x为无人机与待检测建筑物的距离(mm),x∈{3000,7000},p2=0.000428,p2=-0.8567。
实施例1
如图1所示,本发明一种基于无人机的建筑物外立面裂缝检测方法,首先,通过构建基于多特征区域注意力的语义分割模型并训练,然后将裂缝图像输入到训练好的基于多特征区域注意力的语义分割模型中输出裂缝检测结果,接着,将裂缝检测结果通过阈值分割、骨架提取、长度计算得出裂缝像素点长度,最后,结合尺度因子得到裂缝真实尺寸,具体步骤如下:
1.首先,下载Bridge_Crack_Image_Data数据集,并对其图像进行数据筛查,确保数据图像的完整性。然后,对数据集进行预处理,将2000张裂缝图片弱化图像的颜色、亮度以减少外界因素干扰对最终分析结果的影响,接着,使用裁剪、水平翻转、垂直翻转、旋转等操作,扩充为28818张256×256分辨率的数据集,增强CNN模型的鲁棒性,最后,将数据集按照9:1的比例,分为训练数据集和验证数据集。
2.如图2所示,构建基于多特征区域注意力的卷积神经网络并利用训练数据集进行训练得到基于多特征区域注意力的语义分割模型,包括:区域级通道注意力网络、特征提取网络和特征恢复网络。具体步骤如下:
(1)如图3所示,构建特征提取网络,特征提取网络逐层提取图像特征,其结构分为五层,特征提取网络共有五层,其中,前四层中每层包含两个3×3的卷积,其中每个卷积都连接一个ReLu非线性激活,层与层之间通过一个2×2最大池化连接,特征提取网络中前四层输出两个低层原始特征图L1、L2,两个高层原始特征图H3、H4,低层原始特征图更关注裂缝的语义信息,高层原始特征图更关注裂缝的边缘信息,将低层原始特征图L1、L2和高层原始特征图H3、H4,通过跳跃连接传输至特征恢复网络的区域级通道注意力网络中;特征提取网络最后一层输出裂缝高层特征图H5。
(2)如图4所示,构建特征恢复网络,特征恢复网络用于逐层恢复特征提取网络每层得到的原始特征图的边缘信息,具体的,特征恢复网络共有四层,其中每层包含两个3×3卷积,其中每个卷积都连接一个ReLu非线性激活、一个区域级通道注意力网络、两个2×2上采样层。
首先,特征恢复网络对裂缝高层特征图H5进行上采样得到两个相同尺度裂缝恢复特征图,分别为裂缝恢复特征图RH41、裂缝恢复特征图RH42,其中裂缝恢复特征图RH41输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图,与然后将加强区域级信息的裂缝特征图与裂缝恢复特征图RH42进行拼接,为特征恢复过程提供更多语义信息,得到裂缝恢复特征图RH43。
其次,对裂缝恢复特征图RH43进行上采样得到裂缝恢复特征图RH31、裂缝恢复特征图RH32,其中裂缝恢复特征图RH31输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图,然后将加强区域级信息的裂缝特征图与裂缝恢复特征图RH32进行拼接,得到裂缝恢复特征图RH33。
然后,对裂缝恢复特征图RH33进行上采样得到裂缝恢复特征图RH21、裂缝恢复特征图RH22,其中裂缝恢复特征图RH21输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图,与然后将加强区域级信息的裂缝特征图与裂缝恢复特征图RH22进行拼接,得到裂缝恢复特征图RH23。
接着,对裂缝恢复特征图RH23进行上采样得到裂缝恢复特征图RH11、裂缝恢复特征图RH12,其中裂缝恢复特征图RH11输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图,与然后将加强区域级信息的裂缝特征图与裂缝恢复特征图RH12进行拼接,得到裂缝恢复特征图RH1。
最后,将输入裂缝恢复特征图RH1输入softmax分类器,输出以白色为目标,黑色为背景的裂缝二值图。
(3)如图5所示,构建区域级通道注意力网络,本发明提供的区域级通道注意力网络,用以增强裂缝特征的权重,降低背景特征的权重,其结构分为池化、卷积、激活函数、上采样、残差连接,如图5为区域级通道注意力网络的结构图。区域级通道注意力网络分为挤压操作和激励操作两部分:
挤压操作通过聚焦裂缝恢复特征图区域空间维度上的特征映射来生成区域级通道描述符,该描述符代表了裂缝区域级通道特征信息,具体为对输入的裂缝恢复特征图做步长为4,卷积核为4的平均池化,具体为对裂缝特征图中4×4的像素区域求和再取平均值,最终输出区域级通道描述符,假设输入的裂缝恢复特征图为
Figure BDA0003596675780000141
经过公式(1)得到区域级通道描述符为
Figure BDA0003596675780000142
Y=Avgpooling(X) (1)
式中,Avgpooling表示步长为4,卷积核为4的平均池化操作。激励操作提取裂缝特征图区域级通道对裂缝特征的学习程度,得到加强区域级信息的裂缝特征图:
激励操作以区域级通道描述符为输入,通过公式(2)得到裂缝特征图权重为
Figure BDA0003596675780000151
具体如下:
s=FU{σ[W2δ(W1Y)]} (2)
式中,
Figure BDA0003596675780000152
C为输入通道数,γ为降维率,本文中设置γ为2,δ为ReLu非线性激活,σ为sigmoid非线性激活,FU为上采样。先对特征图降维后升维的操作有助于提升裂缝语义信息和空间信息的连续性,增强裂缝特征对区域信息的敏感度。
将裂缝特征图权重与输入裂缝恢复特征图进行对应像素相乘,得到加强学习的裂缝特征图,再将输入裂缝恢复特征图和加强学习的裂缝特征图通过对应像素相加,得到加强区域级信息的裂缝特征图为
Figure BDA0003596675780000153
具体如下:
Figure BDA0003596675780000154
式中,
Figure BDA0003596675780000155
为特征图对应像素相乘,
Figure BDA0003596675780000156
为特征图对应像素相加。
(4)损失计算,根据裂缝预测结果与对应真值图,计算裂缝检测损失,由于裂缝图片中裂缝和背景分布极其不平衡,即裂缝所占比例远远小于背景所占比例,为解决这种问题采用focal loss损失函数计算损失,公式如下:
Figure BDA0003596675780000157
式中,W表示图像高度,H表示图像宽度,
Figure BDA0003596675780000158
为图像中处于(w,h)处对应的标签预测概率,
Figure BDA0003596675780000159
越接近于1表示预测准确率越高,损失就越小,y(w,h)为图像中处于(w,h)处对应的标签,a和λ为超参数,实验中发现当λ=2,a=0.25取得最优效果。
(5)利用训练数据集对基于多特征区域注意力的卷积神经网络进行训练,设置epoch为60,使用带重启的随机梯度下降方法训练,初始学习率为0.001258,最小学习率设置为10-7,当执行完15个epoch后,学习率迅速衰减到0,然后在下一个epoch时迅速反弹至初始值。反复调参将网络精度调到最优,得到基于多特征区域注意力的语义分割模型。
(6)利用无人机检测待检测建筑物的结构,并对建筑物建模,确定裂缝在建筑物中的位置并获取裂缝图像,获取无人机与待检测建筑物的距离信息;
将裂缝图像输入基于多特征区域注意力的语义分割模型中,得到裂缝二值图。
(7)通过阈值分割对裂缝二值图做降噪处理,去除杂色,增强裂缝特征表达,得到降噪后的裂缝二值图。
(8)将降噪后的裂缝二值图进行骨架提取得到裂缝骨架图。
(9)通过长度计算获得裂缝骨架长度。
(10)将激光测距仪测量的距离结合标定像素比例关系得出尺度因子。
(11)裂缝骨架长度与尺度因子相乘,作为裂缝的实际长度。
裂缝的长度作为评估建筑物受损程度的关键指标,本发明提出的一种基于无人机的外立面裂缝检测方法以无接触方式检测和测量建筑物表面裂缝,降低了人工检测时对检测人员和检测设备的依赖,实现了建筑物健康检测的自动化和智能化,保证了检测结果的稳定性和准确度,为建筑物健康检测领域提供了一种具有前景的解决方案。
图6为本发明在Bridge_Crack_Image_Data数据集部分实验结果展示,图6中第一列为裂缝图片,第二列为真值图,第三列到第七列依次为FCN、Deeplabv3、SegNet、PSPNet、Unet及多特征区域注意力的语义分割模型。通过对比结果和标签图像可知,对于一些规则、特征清晰的裂缝图像所有网络均能准确识别,而对于一些复杂裂缝,FCN、DeeplabV3与SegNet的分割结果较差,测试图中对裂缝像素预测结果不连续,不能准确识别出裂缝特征,存在遗漏。PSPNet和Unet的分割性能较好,但在细小裂缝图中检测的效果不佳,存在误检和遗漏。与对比实验中其他模型相比,本发明基于多特征区域注意力的语义分割模型有效解决了裂缝的背景复杂、背景前景差别小、裂缝线性细长易断裂等问题对于裂缝检测结果的干扰,能准确分割出混凝土裂缝区域。
表1 Bridge_Crack_Image_Data数据集定量分析比较
Figure BDA0003596675780000171
表1为本发明在Bridge_Crack_Image_Data数据集检测结果的定量分析,本发明提出的基于多特征区域注意力的语义分割模型在准确率上比,FCN、DeeplabV3、SegNet、PSPNet、Unet分别提高了12%、6.72%、6.4%、2.92%、3.51%,在召回率上比FCN、DeeplabV3、SegNet、PSPNet、Unet分别提高了10.77%、4.21%、3.99%、2.72%、1.51%,在F1分数指标上比FCN、DeeplabV3、SegNet、PSPNet、Unet分别提高了11.38%、5.45%、5.48%、2.82%、2.5%,具有更优的识别能力。
本发明针对基于深度学习的语义分割模型在检测裂缝图像时,细小裂缝提取不完整及背景纹理复杂带来的误分割问题,以提取裂缝的区域级特征为研究解决检测细小裂缝不连续的问题,提出了基于多特征区域注意力的语义分割模型,该模型通过融合区域级通道注意力,提升网络对裂缝区域级语义信息的表达能力;采用focal loss损失函数抑制裂缝与背景分布不均衡的影响。
上述实施例仅是用来说明本发明,而并非用作对本发明的限定。只要是依据本发明的技术实质,对上述实施例进行变化、变型等都将落在本发明的权利要求的范围内。

Claims (10)

1.一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,具体步骤如下:
S1构建裂缝图像训练数据集和验证数据集,利用无人机检测待检测建筑物的结构并进行建模,确定裂缝在建筑物中的位置并获取裂缝图像,获取无人机与待检测建筑物的距离信息;
S2构建基于多特征区域注意力的卷积神经网络,具体包括区域级通道注意力网络、特征提取网络和特征恢复网络;
S3建立损失函数,进行损失计算,利用训练数据集对基于多特征区域注意力的卷积神经网络进行训练,得到基于多特征区域注意力的语义分割模型;
S4将验证数据集或利用无人机获取待检测建筑物的裂缝图像输入基于多特征区域注意力的语义分割模型,得到裂缝二值图;
S5对裂缝二值图进行处理得到裂缝骨架图,通过长度计算获得裂缝骨架图的像素点个数,根据无人机与待检测建筑物的距离信息获取标定像素比例关系,得到裂缝的实际长度。
2.根据权利要求1所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,步骤S2中,所述特征提取网络用于提取裂缝图像中不同尺度的裂缝特征信息,得到不同尺度的裂缝原始特征图,具体的:
所述特征提取网络共有五层,前四层中每层包含两个3×3的卷积,每个3×3的卷积都连接一个ReLu非线性激活,层与层之间通过一个2×2最大池化连接,特征提取网络中前四层输出两个低层原始特征图L1、L2,两个高层原始特征图H3、H4;最后一层输出裂缝高层特征图H5。
3.根据权利要求2所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,步骤S2中,所述特征恢复网络用于逐层恢复特征提取网络每层得到的原始特征图的边缘信息,具体的:
特征恢复网络共有四层,每层包含两个3×3卷积,每个3×3卷积都连接一个ReLu非线性激活和两个2×2上采样层,其中一个2×2上采样层连接一个区域级通道注意力网络;
特征恢复网络第一层中对裂缝高层特征图H5进行上采样得到两个相同尺度裂缝恢复特征图,分别为裂缝恢复特征图RH41、裂缝恢复特征图RH42;
将裂缝恢复特征图RH41输入区域级通道注意力网络,得到加强区域级信息的裂缝特征图;
将加强区域级信息的裂缝特征图与裂缝恢复特征图RH42进行拼接,为特征恢复过程提供更多语义信息,得到裂缝恢复特征图RH43;
重复3次上述操作得到裂缝恢复特征图RH1,将裂缝恢复特征图RH1通过两个3×3卷积、一个1×1卷积和softmax分类器后输出裂缝二值图。
4.根据权利要求3所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,步骤S2中,所述区域级通道注意力网络分为挤压操作和激励操作两部分,其中:
挤压操作用于通过聚焦裂缝恢复特征图区域空间维度上的特征映射来生成区域级通道描述符,该描述符代表了裂缝区域级通道特征信息,具体地,裂缝恢复特征图为X经过公式(1)得到区域级通道描述符Y:
Y=Avgpooling(X) (1)
式中,X、
Figure FDA0003596675770000021
为C×W×H尺寸的特征图;Avgpooling表示步长为4,卷积核为4的平均池化操作;
激励操作以区域级通道描述符为输入,通过公式(2)得到裂缝特征图权重为s,具体如下:
s=FU{σ[W2δ(W1Y)]} (2)
式中,
Figure FDA0003596675770000022
W1、W2为通道数变换的一个中间操作,
Figure FDA0003596675770000023
其中
Figure FDA0003596675770000024
Figure FDA0003596675770000025
为变换后的通道数,C为变换前的通道数;
Figure FDA0003596675770000026
中,C为变换后的通道数,
Figure FDA0003596675770000027
为变换前的通道数;γ为降维率,
Figure FDA0003596675770000037
为特征图尺寸,本文中设置γ为2,δ为ReLu非线性激活,σ为sigmoid非线性激活,FU为上采样;
将裂缝特征图权重与输入裂缝恢复特征图进行对应像素相乘,得到加强学习的裂缝特征图,再将输入裂缝恢复特征图和加强学习的裂缝特征图通过对应像素相加,得到加强区域级信息的裂缝特征图为P,具体如下:
Figure FDA0003596675770000031
式中,
Figure FDA0003596675770000032
Figure FDA0003596675770000033
为特征图对应像素相乘,
Figure FDA0003596675770000034
为特征图对应像素相加。
5.根据权利要求1所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,步骤S3中,采用Focal loss损失函数计算裂缝检测损失,具体为:
Figure FDA0003596675770000035
式中,W表示图像高度,H表示图像宽度,
Figure FDA0003596675770000036
为图像中处于(w,h)处对应的标签预测概率,y(w,h)为图像中处于(w,h)处对应的标签,a和λ为超参数。
6.根据权利要求1所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,步骤S5中,通过阈值分割对裂缝二值图做降噪处理,然后通过K3M骨架提取算法对裂缝二值图进行处理得到一像素宽度的裂缝骨架图,通过长度计算获得裂缝骨架图的像素点个数,像素点个数总和即为裂缝骨架长度。
7.根据权利要求1所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,步骤S5中,将无人机与待检测建筑物的距离信息输入到标定像素比例关系,得到裂缝的尺度因子,再将尺度因子与裂缝骨架长度相乘得出裂缝的实际长度。
8.根据权利要求7所述的一种基于无人机的建筑物外立面裂缝检测方法,其特征在于,将像素点对应的实际长度与无人机与待检测建筑物的距离进行拟合,得到裂缝的尺度因子,具体公式为:
y=p1x+p2 (5)
式中,y为尺度因子,即图片单个像素点对应实际长度,x为无人机与待检测建筑物的距离,x∈{3000,7000}。
9.一种基于无人机的建筑物外立面裂缝检测系统,其特征在于,具体包括:
图像采集模块,用于构建裂缝图像训练数据集和验证数据集,并利用无人机获取待检测建筑物的图像和无人机与待检测建筑物之间的距离信息;
网络构建模块,用于构建基于多特征区域注意力的卷积神经网络;
模型训练模块,用于建立损失函数,进行损失计算,利用裂缝图像训练数据集对基于多特征区域注意力的卷积神经网络进行训练,得到基于多特征区域注意力的语义分割模型;
检索模块,用于将验证数据集或利用无人机获取待检测建筑物的图像输入基于多特征区域注意力的语义分割模型中,得到裂缝二值图;
图像处理模块,用于对裂缝二值图进行降噪处理,骨架提取,得到裂缝骨架图,并通过长度计算获得裂缝骨架图的像素点个数,结合标定像素比例关系得出裂缝的实际长度。
10.根据权利要求9所述的一种基于无人机的建筑物外立面裂缝检测系统,其特征在于,所述无人机为利用无线电遥控设备和自备的程序控制装置操纵的不载人飞机,所述无人机上设置有雷达扫描仪、激光测距仪以及GPS定位仪,所述雷达扫描仪用于检测待测建筑物的结构,并对建筑物建模,显示裂缝在建筑物中的位置;所述激光测距仪用于检测无人机与待测建筑物的距离;所述GPS定位仪用于记录无人机拍摄裂缝图片时的位置信息。
CN202210390380.9A 2022-04-14 2022-04-14 一种基于无人机的建筑物外立面裂缝检测方法及系统 Pending CN114705689A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210390380.9A CN114705689A (zh) 2022-04-14 2022-04-14 一种基于无人机的建筑物外立面裂缝检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210390380.9A CN114705689A (zh) 2022-04-14 2022-04-14 一种基于无人机的建筑物外立面裂缝检测方法及系统

Publications (1)

Publication Number Publication Date
CN114705689A true CN114705689A (zh) 2022-07-05

Family

ID=82173879

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210390380.9A Pending CN114705689A (zh) 2022-04-14 2022-04-14 一种基于无人机的建筑物外立面裂缝检测方法及系统

Country Status (1)

Country Link
CN (1) CN114705689A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147381A (zh) * 2022-07-08 2022-10-04 烟台大学 基于图像分割的路面裂缝检测方法
CN115331128A (zh) * 2022-10-11 2022-11-11 松立控股集团股份有限公司 一种高架桥裂痕检测方法
CN115660647A (zh) * 2022-11-05 2023-01-31 一鸣建设集团有限公司 一种建筑外墙的维护方法
CN116777898A (zh) * 2023-07-21 2023-09-19 重庆大学溧阳智慧城市研究院 基于AFFormer实现3D打印挡墙施工过程裂缝测量的方法
CN116993730A (zh) * 2023-09-26 2023-11-03 四川新视创伟超高清科技有限公司 一种基于8k图像的裂缝检测方法
CN117291913A (zh) * 2023-11-24 2023-12-26 长江勘测规划设计研究有限责任公司 一种水工混凝土结构表观裂缝测量方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115147381A (zh) * 2022-07-08 2022-10-04 烟台大学 基于图像分割的路面裂缝检测方法
CN115331128A (zh) * 2022-10-11 2022-11-11 松立控股集团股份有限公司 一种高架桥裂痕检测方法
CN115660647A (zh) * 2022-11-05 2023-01-31 一鸣建设集团有限公司 一种建筑外墙的维护方法
CN116777898A (zh) * 2023-07-21 2023-09-19 重庆大学溧阳智慧城市研究院 基于AFFormer实现3D打印挡墙施工过程裂缝测量的方法
CN116777898B (zh) * 2023-07-21 2024-01-23 重庆大学溧阳智慧城市研究院 基于AFFormer实现3D打印挡墙施工过程裂缝测量的方法
CN116993730A (zh) * 2023-09-26 2023-11-03 四川新视创伟超高清科技有限公司 一种基于8k图像的裂缝检测方法
CN116993730B (zh) * 2023-09-26 2023-12-15 四川新视创伟超高清科技有限公司 一种基于8k图像的裂缝检测方法
CN117291913A (zh) * 2023-11-24 2023-12-26 长江勘测规划设计研究有限责任公司 一种水工混凝土结构表观裂缝测量方法
CN117291913B (zh) * 2023-11-24 2024-04-16 长江勘测规划设计研究有限责任公司 一种水工混凝土结构表观裂缝测量方法

Similar Documents

Publication Publication Date Title
Spencer Jr et al. Advances in computer vision-based civil infrastructure inspection and monitoring
CN114705689A (zh) 一种基于无人机的建筑物外立面裂缝检测方法及系统
Dais et al. Automatic crack classification and segmentation on masonry surfaces using convolutional neural networks and transfer learning
Alipour et al. Robust pixel-level crack detection using deep fully convolutional neural networks
Wei et al. Instance-level recognition and quantification for concrete surface bughole based on deep learning
Wang et al. Autonomous damage segmentation and measurement of glazed tiles in historic buildings via deep learning
Flah et al. Classification and quantification of cracks in concrete structures using deep learning image-based techniques
Ni et al. Zernike‐moment measurement of thin‐crack width in images enabled by dual‐scale deep learning
Kim et al. Automated bridge component recognition from point clouds using deep learning
CN109190481B (zh) 一种遥感影像道路材质提取方法和系统
Potenza et al. A robotics and computer-aided procedure for defect evaluation in bridge inspection
CN113252700B (zh) 一种结构裂缝检测方法、设备及系统
Laxman et al. Automated crack detection and crack depth prediction for reinforced concrete structures using deep learning
Li et al. Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing
Zhong et al. Multi-scale feature fusion network for pixel-level pavement distress detection
CN114049356B (zh) 一种结构表观裂缝检测方法、装置及系统
CN111178206A (zh) 一种基于改进yolo的建筑预埋件检测方法及系统
CN112966665A (zh) 路面病害检测模型训练方法、装置和计算机设备
CN114596266B (zh) 一种基于ConcreteCrackSegNet模型的混凝土裂缝检测方法
Pathak et al. An object detection approach for detecting damages in heritage sites using 3-D point clouds and 2-D visual data
Wu et al. Applying deep convolutional neural network with 3D reality mesh model for water tank crack detection and evaluation
McLaughlin et al. Combining deep learning and robotics for automated concrete delamination assessment
Santos et al. Detection of exposed steel rebars based on deep-learning techniques and unmanned aerial vehicles
Wang et al. Automatic detection of defects in concrete structures based on deep learning
Mishra et al. Artificial intelligence-based visual inspection system for structural health monitoring of cultural heritage

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination