CN114419421A - 一种基于影像的地铁隧道裂缝识别系统及方法 - Google Patents
一种基于影像的地铁隧道裂缝识别系统及方法 Download PDFInfo
- Publication number
- CN114419421A CN114419421A CN202210073070.4A CN202210073070A CN114419421A CN 114419421 A CN114419421 A CN 114419421A CN 202210073070 A CN202210073070 A CN 202210073070A CN 114419421 A CN114419421 A CN 114419421A
- Authority
- CN
- China
- Prior art keywords
- image
- images
- crack
- data
- tunnel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 41
- 238000007781 pre-processing Methods 0.000 claims description 34
- 230000008569 process Effects 0.000 claims description 33
- 238000003062 neural network model Methods 0.000 claims description 26
- 230000009466 transformation Effects 0.000 claims description 25
- 230000004927 fusion Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 18
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000005516 engineering process Methods 0.000 claims description 12
- 230000007704 transition Effects 0.000 claims description 12
- 230000001360 synchronised effect Effects 0.000 claims description 11
- 238000011156 evaluation Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000012360 testing method Methods 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000002474 experimental method Methods 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 5
- 238000005375 photometry Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000000844 transformation Methods 0.000 claims description 4
- 238000010200 validation analysis Methods 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000012805 post-processing Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 201000010099 disease Diseases 0.000 abstract description 20
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 20
- 238000013135 deep learning Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 241000695274 Processa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于影像的地铁隧道裂缝识别系统及方法,通过自拱型组合阵列CCD相机获取的数据,获得隧道影像,并且利用深度学习算法改进的U‑Net算法对隧道面进行智能提取和检测,可以提取出地隧道裂缝病害,并在分类的基础上,对裂缝病害进行相对定位,方便检修人员直接前往故障路段进行修理,减少工作人员搜寻病害时的二次时间成本。本发明能够满足地铁盾构隧道高速、高精度的裂缝病害检测及定位要求,处理速度快,实用价值高。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于影像的地铁隧道裂缝识别系统及方法。
背景技术
随着地铁的高速发展,如何安全、有效、便捷地保障隧道安全,逐渐地受到更多学者的关注。隧道裂缝作为一种常见的隧道病害,其分类及形式多种多样。按照其形成原因可以分为三大类:温度裂纹、施工缝裂纹和沉降缝收缩裂纹。按照裂缝方向与隧道纵轴线关系,可以分为横向裂缝、纵向裂缝和网状裂缝。隧道裂缝的形成原因主要有:地铁列车运行所造成的长期震动;渗透水所造成的衬砌和围岩的冻融开裂;地壳运动所带来的缓慢变化;上层施工所带来的影响等。隧道裂缝虽然较为微小,但如果不对裂缝加以识别和修补,一旦因为裂缝导致列车运行事故,将对人民的生命财产安全造成难以估计的损失,所以,地铁隧道的健康状况对人民出行安全有着重要影响,隧道的裂缝监测也成为地铁项目周期性巡检的重要任务之一。
利用传统方式进行隧道裂缝检测,需要极大依赖于人工,工人在隧道内缓慢移动,依靠人眼对隧道裂痕进行辨认及识别,记录下其位置和危害程度,这种方式不仅效率低下,而且对作业者的经验和水平要求较高,具有很大的主观性。除此之外,人工检测的方法往往需要在深夜作业,有限的时间内,只使用于小范围内的检测,检测人员的安全性也很难保障,传统人工方法已经无法满足现代城市交通轨道检测的需求。
从2000年开始,得益于计算机行业的快速发展,图像处理技术得到了前所未有的发展,与此同时,利用工业相机拍摄隧道内图像进行智能识别的方法开始出现。基于图像处理的识别方法一般流程为:对隧道图像进行影像去噪、光照平衡、图像增强等预处理,接下来为实现大幅角度的检测,需要对预处理后的一些图像拼接,以达到满足使用的要求。最后,可以通过图像阈值分割等处理技术对裂缝进行检测和提取。
但是由于隧道的属于360度均需要监测,因此通常采用普通相机对不同位置进行拍摄后拼接而成,图像获取慢,且图像可能出现漏拍和重复拍摄。
发明内容
本发明的目的在于提供一种基于影像的地铁隧道裂缝识别系统及方法,从而解决现有技术中存在的前述问题。
为了实现上述目的,本发明采用的技术方案如下:
一种基于影像的地铁隧道裂缝识别系统,包括图像采集模块、数据预处理模块和目标检测模块,所述图像采集模块采集地铁隧道中的影像,将采集到的影像数据传输给所述数据预处理模块,所述数据预处理模块对采集到的影像数据进行预处理,并将处理后的影像数据传输给所述目标检测模块,所述目标检测模块制作数据集并将数据集分为训练集和测试集,采用训练集训练改进的U-Net神经网络模型,确定神经网络模型参数,并采用测试集对训练后的神经网络模型参数进行检测验证,得到训练后的神经网络模型,采用训练好的神经网络模型进行地铁隧道裂缝识别过程。
优选的,所述目标采集模块为高速相机系统、同步控制系统和上位机采集操控软件,所述上位机采集操控软件通过所述同步控制系统控制所述高速相机系统进行图像采集任务,所述高速相机系统包括工业线阵相机、光学镜头、图像采集卡和光源,所述工业线阵相机采用8个呈拱形的工业相机,通过电脉冲信号与所述同步控制系统相连,使得各个工业相机可以同时工作,所得到的不同角度的数字化影像可在后处理过程中进行拼接从而得到每一时刻的隧道影像全景图像;所述光学镜头安装在所述工业相机上,可根据光线情况,调整摄影参数获取清晰图像;所述光源为工业相机提供良好的照明环境;所述图像采集卡对所述工业线阵相机采集到的图像信号转换,并传输至数据预处理模块。
优选的,所述数据预处理模块包括图像拼接子模块、图像预处理子模块,所述图像拼接子模块基于SURF算法进行隧道影像拼接过程,包括对输入的所有图像依次进行预处理、图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合和全景投影输出,最终得到拼接后的图像;所述图像预处理子模块采用同态滤波算法将拼接后的图像亮度范围进行压缩并将图像对比度增强,使得拼接后的图像可以增强暗区的图像细节又不会损失亮区的图像细节;再采用USM锐化算法,经过高通滤波、边缘增强合图像去噪步骤降低拼接后的图像数据噪声,提高图像清晰度和图像质量。
优选的,所述基于SURF算法进行隧道影像拼接过程,其中图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合具体包括以下步骤:
A1,图像配准:提取每幅输入图像的特征点;对于每个提取出来的特征点,在其他图像上寻找与其对应的特征点,即:寻找同一个物体在多幅图像上的成像点,称这些成像点为匹配特征点对;根据一定的规则去除错误的匹配特征点对,即特征点对提纯;根据一定的几何变换模型计算出每两幅重叠图像之间的变换矩阵,从而完成图像配准;
A2,图像定位:首先判定拼接方向,是只在水平方向拼接还是需要水平和垂直方向同时拼接,若只是水平方向,则只考虑每幅图像的水平相邻关系,然后根据水平相邻关系定位其位置;若是水平和垂直方向同时拼接,则需要考虑每幅图像的水平和垂直方向的相邻关系,然后再定位其位置;
A3,捆绑调整:将单个相机不同时间,不同位置摄取的图像以及多个相机在同一时间,不同位置摄取的不同视角的图像,经过逆变换过程重建空间场景来统一视角;然后通过非线性最优化算法最小化相邻图像的匹配特征点对变换到全景参考平面后的距离,减小多次变换导致的全局累积误差;
A4,因单幅图像间存在的明暗、色彩差异,导致由图像定位和捆绑调整后得到的初拼全景图像普遍存在整幅图像亮度和颜色不匀的问题,利用测光优化技术对组成全景图像的各幅图像的测光参数进行调整,可使全景图的整体亮度和颜色更加均匀和自然,达到更佳的视觉效果;
A5,过渡区融合:对拼接形成的图像重叠区域存在边界痕迹的情况进行处理,包括:1)针对测光优化后残留的图像间亮度差异,即:“拼接缝”暗影,利用融合技术消除由亮度差异造成的“拼接缝”暗影;2)针对图像配准和捆绑调整误差引起的图像重叠区域“重影”,利用多分辨率图像融合技术来消除它,最后得到一个高质量的全景图。
优选的,所述同态滤波算法具体为:
所述同态滤波算法是基于照射反射模型的,将拼接后的图像f(x,y)用该图像的入射分量i(x,y)和反射分量r(x,y)的乘积来表示,入射分量和反射分量分离开,入射分量表现为背景信息,而反射分量体现为物体信息,增加反射分量,降低入射分量;
所述USM锐化算法具体包括:
采用高通滤波方法提取拼接后的图像的高频分量,然后将该部分高频分量与相关参数进行运算后叠加到原始图像上,最后去除掉因为提前和叠加步骤再图像边缘处留下的噪声。
优选的,所述图像检测模块中的数据集制作过程具体包括:
B1,将预处理之后得到的影像数据作为样本图像,对样本图像进行数据增强操作,获得大量样本图像;
数据增强操作包括对样本图像分别进行位置变化、空间变化和色彩的变换,其中所述位置变化包括对样本图像进行不同角度的变化;所述样本图像空间变化指的是将图片进行拉伸、移位或按比例缩放;所述样本图像色彩的变换包括提高图片的亮度、对比度,或者在图像通道上添加随机扰动;
B2,使用开源软件Labelme对大量样本图像进行标记,按照裂缝的种类将图像分为无裂缝图像、横向裂缝图像、纵向裂缝图像、块状裂缝图像四大类,并采用不同类型的掩膜符号标记;
B3,将标记好的样本图像按照80:20的比例分别作为训练集和验证集。
优选的,所述改进的U-Net神经网络模型在整个网络中的特征提取部分和上采样部分之间加入了全局上下文模块,全局上下文模块是结合SENet模块以及简化后的Non-local模块的非局部操作网络;
改进的U-Net神经网络模型所使用的损失函数是Focal loss函数,所述Focalloss函数加入了αt和调制系数1-pt,使网络模型更加注重困难样本的分析,减少简单样本的权重;
在训练过程中,通过试验选择适合的参数和优化器,确定训练中的迭代次数、变化率大小、每一次训练数据量等参数,以达到最优的训练效果;在训练的损失函数值趋于稳定且满足需求时,通过实测的其他隧道裂缝影像,利用标准化参数对模型进行精度评价。
本发明的另一个目的在于提供一种基于影像的地铁隧道裂缝识别系统进行地铁隧道裂缝识别方法,包括如下步骤:
S1,采用图像采集模块对隧道内的图像进行采集,采用高速相机系统以每秒3-5米的速度对隧道进行扫描;采用同步控制系统控制八个相机同时进行拍摄,并将获得的影像数据传输给数据预处理模块;
S2,图像拼接子模块将获取到的影像数据经过预处理、图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合和全景投影输出得到拼接后的图像,然后图像预处理子模块采用同态滤波算法和USM锐化算法对拼接后的图像进行锐化、增强,提升图像清晰度;
S3,将预处理后的图像数据进行数据增强,获得数量更多的样本图像,使用开源软件Labelme对大量样本图像进行标记,按照裂缝的种类将图像分为无裂缝图像、横向裂缝图像、纵向裂缝图像、块状裂缝图像四大类,并采用不同类型的掩膜符号标记;将标记好的样本图像按照80:20的比例分别作为训练集和验证集;
S4,将训练集中的样本数据输入改进的U-Net神经网络模型,通过试验选择适合的参数和优化器,确定训练中的迭代次数、变化率大小、每一次训练数据量等参数,以达到最优的训练效果;
S5,采用Focal loss函数作为损失函数,在训练的损失函数值趋于稳定且满足需求时,通过实测的其他隧道裂缝影像,利用标准化参数对模型进行精度评价,得到训练后的U-Net神经网络模型;
S6,采用训练后的U-Net神经网络模型对数据采集模块采集到的隧道图像进行识别,确定是否有裂缝。
优选的,所述步骤S5和S6之间还包括人工修正:在训练过程中,对于计算机未能识别出存在裂缝的影像以及识别裂缝区域不准确的影像,需要通过人工修正过程,提高准确度;
S6之后还包括:当确定识别出裂缝的图像参数信息确有威胁,对该裂缝进行维修;若暂无威胁,则将其裂缝信息进行存储,作为预警信息。
优选的,所述识别出裂缝的图像参数信息包括裂缝的位置、大小、宽度,其中裂缝的位置可以通过以下方式获得:通过数据采集过程中在高速相机系统沿线前进的方向上,等距离架设路面靶标,利用最小二乘模型改正惯导系统所获取的位置信息,与里程计获取的行驶距离和相机获取图像所处位置进行匹配。
本发明的有益效果是:
本发明提供了一种基于影像的地铁隧道裂缝识别系统及方法,通过自拱型组合阵列CCD相机获取的数据,获得隧道影像,并且利用深度学习算法改进的U-Net算法对隧道面进行智能提取和检测,可以提取出地隧道裂缝病害,并在分类的基础上,对裂缝病害进行相对定位,方便检修人员直接前往故障路段进行修理,减少工作人员搜寻病害时的二次时间成本。本发明能够满足地铁盾构隧道高速、高精度的裂缝病害检测及定位要求,处理速度快,实用价值高。
附图说明
图1是实施例1中提供的基于影像的地铁隧道裂缝识别系统原理框图;
图2是实施例1中提供的图像采集模块原理示意图;
图3是实施例1中提供的影像拼接子模块原理示意图;
图4是实施例1中提供的目标检测模块原理示意图;
图5是实施例1中提供的高速相机系统结构示意图;
图6是实施例2中提供的数据采集工作示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。
实施例1
本实施例提供了一种基于影像的地铁隧道裂缝识别系统,如图1所示,包括图像采集模块、数据预处理模块、目标检测模块和后台管理模块,所述图像采集模块采集地铁隧道中的影像,将采集到的影像数据传输给所述数据预处理模块,所述数据预处理模块对采集到的影像数据进行预处理,并将处理后的影像数据传输给所述目标检测模块,所述目标检测模块制作数据集并将数据集分为训练集和测试集,采用训练集训练改进的U-Net神经网络模型,确定神经网络模型参数,并采用测试集对训练后的神经网络模型参数进行检测验证,得到训练后的神经网络模型,采用训练好的神经网络模型进行地铁隧道裂缝识别过程,所述后台管理模块用于后台管理获取到的所有数据。
本实施例中的所述目标采集模块原理如图2所示,包括高速相机系统、同步控制系统和上位机采集操控软件,所述上位机采集操控软件通过所述同步控制系统控制所述高速相机系统进行图像采集任务,所述高速相机系统包括工业线阵相机、光学镜头、图像采集卡和光源,所述工业线阵相机采用8个呈拱形的工业相机,通过电脉冲信号与所述同步控制系统相连,使得各个工业相机可以同时工作,所得到的不同角度的数字化影像可在后处理过程中进行拼接从而得到每一时刻的隧道影像全景图像;所述光学镜头安装在所述工业相机上,可根据光线情况,调整摄影参数获取清晰图像;所述光源为工业相机提供良好的照明环境;所述图像采集卡对所述工业线阵相机采集到的图像信号转换,并传输至数据预处理模块。
本实施例中的所述数据预处理模块包括图像拼接子模块、图像预处理子模块,所述图像拼接子模块基于SURF算法进行隧道影像拼接过程,包括对输入的所有图像依次进行预处理、图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合和全景投影输出,最终得到拼接后的图像,原理如图3所示;
具体的,图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合和全景投影输出包括以下步骤:
A1,图像配准:提取每幅输入图像的特征点;对于每个提取出来的特征点,在其他图像上寻找与其对应的特征点,即:寻找同一个物体在多幅图像上的成像点,称这些成像点为匹配特征点对;根据一定的规则去除错误的匹配特征点对,即特征点对提纯;根据一定的几何变换模型计算出每两幅重叠图像之间的变换矩阵,从而完成图像配准;
A2,图像定位:首先判定拼接方向,是只在水平方向拼接还是需要水平和垂直方向同时拼接,若只是水平方向,则只考虑每幅图像的水平相邻关系,然后根据水平相邻关系定位其位置;若是水平和垂直方向同时拼接,则需要考虑每幅图像的水平和垂直方向的相邻关系,然后再定位其位置;
A3,捆绑调整:将单个相机不同时间,不同位置摄取的图像以及多个相机在同一时间,不同位置摄取的不同视角的图像,经过逆变换过程重建空间场景来统一视角;然后通过非线性最优化算法最小化相邻图像的匹配特征点对变换到全景参考平面后的距离,减小多次变换导致的全局累积误差;
A4,因单幅图像间存在的明暗、色彩差异,导致由图像定位和捆绑调整后得到的初拼全景图像普遍存在整幅图像亮度和颜色不匀的问题,利用测光优化技术对组成全景图像的各幅图像的测光参数进行调整,可使全景图的整体亮度和颜色更加均匀和自然,达到更佳的视觉效果;
A5,过渡区融合:对拼接形成的图像重叠区域存在边界痕迹的情况进行处理,包括:1)针对测光优化后残留的图像间亮度差异,即:“拼接缝”暗影,利用融合技术消除由亮度差异造成的“拼接缝”暗影;2)针对图像配准和捆绑调整误差引起的图像重叠区域“重影”,利用多分辨率图像融合技术来消除它,最后得到一个高质量的全景图。
所述图像预处理子模块采用同态滤波算法将拼接后的图像亮度范围进行压缩并将图像对比度增强,使得拼接后的图像可以增强暗区的图像细节又不会损失亮区的图像细节;再采用USM锐化算法,经过高通滤波、边缘增强合图像去噪步骤降低拼接后的图像数据噪声,提高图像清晰度和图像质量。
具体的,同态滤波算法是基于照射反射模型的,即一幅图像f(x,y)可以用它的照明分量i(x,y)和反射分量r(x,y)的乘积来表示。在图像中,入射分量表现为背景信息,而反射分量体现为物体信息。决定入射分量的主要因素是光源,其分量主要是以低频分量为主,因为入射分量包含的有用信息较少,应该适当降低入射分量;相反,反射量主要由物体自身的物理属性决定,包含了大量的细节特征信息,变化较快,为了增强图像质量,应该增加反射分量。在处理过程中,两种入射分量需要分离,以便分别进行处理。
USM锐化算法实现的主要操作是首先提取图像的高频部分,然后将该部分高频部分与相关参数进行运算后叠加到原始图像上。其中最主要的两个运算参数分别是γ和σ,其中γ控制USM锐化算法的锐化强度,σ控制锐化区域的广度,这两个参数控制了整个锐化过程的强度。USM锐化算法的具体实现步骤经过高通滤波、边缘增强和图像去噪三个步骤,分别对应的是:高通滤波选择出图像的高频分量;边缘增强是将高频分量与缩放因子相乘并叠加到原始图像上;最后的图像去噪是去除整个操作在图像边缘留下的噪声。经过UnsharpMask锐化算法的处理,路面图像数据的噪声大大减小,图像清晰度和图像质量都得到了大幅提高,为下一步深度学习网络的识别和分类打下了坚实的基础。
本实施例中的所述图像检测模块中的数据集制作过程具体包括:
B1,将预处理之后得到的影像数据作为样本图像,对样本图像进行数据增强操作,获得大量样本图像;
数据增强操作包括对样本图像分别进行位置变化、空间变化和色彩的变换,其中所述位置变化包括对样本图像进行不同角度的变化;所述样本图像空间变化指的是将图片进行拉伸、移位或按比例缩放;所述样本图像色彩的变换包括提高图片的亮度、对比度,或者在图像通道上添加随机扰动;
B2,使用开源软件Labelme对大量样本图像进行标记,按照裂缝的种类将图像分为无裂缝图像、横向裂缝图像、纵向裂缝图像、块状裂缝图像四大类,并采用不同类型的掩膜符号标记;
B3,将标记好的样本图像按照80:20的比例分别作为训练集和验证集。
本实施例中的所述改进的U-Net神经网络模型改进的U-Net模型在整个网络中的特征提取部分和上采样部分之间加入了全局模块,降低参数量,以达到降低网络运算量的目的。在实现网络轻量化的基础上提升了网络性能,同时保持有效的对全局上下文建模。改进的U-Net模型引入了一个共享的全局上下文模块。全局上下文模块是结合了SENet模块以及Non-local模块的非局部操作网络,主要是为了降低计算量并融合全局信息。Non-local模块通过加入自注意力机制实现远程依赖。但是通过实验证明,该模块的查询位置的上下文建模其实都是一样的,每个点的位置特征都是通过其他点位置信息进行加权求和获取来的,因此采用了简化之后Non-local模块SE模块,该模块的压缩部分采用全局平局池化算法实现将特征图维度从降低至C×1×1,即将长×宽变为一维,使一维参数获得了全局感受野。在SE模块的激励单元中,通过参数W来生成通道的权重,预测每个通道的重要性。SE模块具有结构简单的特点,因此可以引入到现阶段大多数网络模型中。将SE模块和简化后的Non-local模块进行组合得到全局上下文模块,既具备简化后Non-local模块的优点,同时为了降低了参数量,在模C×H×W块中用1×1卷积替换瓶颈转换模块,参数量从原先的C×C优化到了2×C×C/r。
改进的U-Net模型所使用的损失函数是Focal loss函数,使网络模型更加注重难样本的分析,减少简单样本的权重。在实验过程中,经常利用损失函数的特性来对所使用的模型来进行相关性能的判断。为了解决网络模型对正负样本的权重的控制,因此在简化后的交叉熵函数中加入了αt和调制系数1-pt,使函数可以对难分类样本和易分类样本的权重进行控制,使网络在学习和训练的过程中,可以更加注重于较为复杂的样本。其中,αt的设置是为了减小正样本和负样本由于数量差距大所带来的影响,1-pt使函数可以对难分类样本和易分类样本的权重进行控制,r的设置是为了降低复杂样本和简单样本由于数量差距大所带来的影响。
在训练过程中,通过试验选择适合的参数和优化器,确定训练中的迭代次数、变化率大小、每一次训练数据量等参数,以达到最优的训练效果。在训练的损失函数值趋于稳定且满足需求时,通过实测的其他隧道裂缝影像,利用标准化参数对模型进行精度评价。
为了将本发明的实验结果指标化,便于对照和分析,采用的语义分割的评估指标有全局准确率(Accuracy)、精准率(Precision)、召回率(Recall)、综合评价指标(F-Measure)和MIOU。全局准确率是指所有样本中被预测正确的样本的比率;精准率是指预测为正类的准确率;召回率是指真实为正类的准确率;F-Measure是综合精确率和召回率的评估指标,用于反映总体情况,F1是α=1时的F-Measure;MIOU是计算真实值和预测值两个集合的交集和并集之比。
实施例2
本实施例提供了一种基于影像的地铁隧道裂缝识别系统进行地铁隧道裂缝识别方法,包括如下步骤:
第一步,图像采集设备的研发工作。将8个工业相机进行组合安装,并且设计多传感器参数标定方案,确定安装结构中存在的主要安装误差,对采集图像进行纠正,使得采集结果更加准确,为后续图像拼接、裂缝识别等步骤提供更精确的初始数据。此外,还需要对图像采集设备的供电装置、动力装置等进行研发。
第二步,隧道影像数据的获取。外业数据采集是初始数据获取的重要环节,主要是对运营线路(已铺轨)的隧道图像进行采集。运营线路(已铺轨)外业数据采集主要以人工推扫轨道小车的方式进行,人工推扫速度建议控制在5千米/每小时以内。将研制的图像采集设备装置于隧道小车上,以每秒3-5米的速度对隧道进行扫描。需要注意的是,在沿线前进的方向上,可以等距离架设路面靶标,便于在GNSS信号条件较差POS定位误差较大情况下,利用最小二乘模型改正惯导系统所获取的位置信息,便于与里程计获取的行驶距离和小车获取图像所处位置进行匹配,为后期反馈结果和人工检修提供必要条件。
第三步,隧道图像的拼接。首先是对图像进行预处理。;接着,要从输入图像中找出具有重叠区域的待拼接图像,即配对,并由对应点求解重叠图像间的变换矩阵。图像配准的任务由四个部分组成:1.提取每幅图像的特征点;2.每个提取出来的特征点,在其他图像上寻找与其对应的特征点,即:寻找同一个物体在多幅图像上的成像点,称这些成像点为匹配特征点对;3.根据一定的规则去除错误的匹配特征点对,即特征点对提纯;4.根据提纯后的特征点对来匹配图像,即根据一定的几何变换模型计算出每两幅重叠图像之间的变换矩阵。其次,图像定位主要承担确定配准后图像在全景图上安放位置的任务,针对只在水平方向拼接的单行图像定位,只需要寻找每幅图像相邻关系即可,而水平和垂直方向同时拼接的多行图像定位,需首先判定每幅图像的相邻关系,然后根据相邻关系定位其位置;之后,捆绑调整要承担优化向全景平面投影的变换矩阵的任务,具体工作由两部分组成:将单个相机不同时间,不同位置摄取的以及多个相机在同一时间,不同位置摄取的不同视角的图像,经过逆变换过程重建空间场景来统一视角;通过非线性最优化算法最小化相邻图像的匹配特征点对变换到全景参考平面后的距离,减小多次变换(矩阵级联运算)导致的全局累积误差。接着,图像测光调整主要承担全景图像视觉效果优化的任务。因单幅图像间存在的明暗、色彩差异,导致由图像定位和捆绑调整后得到的初拼全景图像普遍存在整幅图像亮度和颜色不匀的问题。利用测光优化技术对组成全景图像的各幅图像的亮度和颜色等测光参数进行调整,可使全景图的整体亮度和颜色更加均匀和自然,达到更佳的视觉效果。过渡区融合主要承担处理拼接形成的图像重叠区域(过渡区)边界痕迹的任务,具体工作由两部分组成:1.针对测光优化后残留的图像间亮度差异,即:“拼接缝”暗影,利用融合技术消除由亮度差异造成的“拼接缝”暗影;2.针对图像配准和捆绑调整误差引起的图像重叠区域“重影”,利用多分辨率图像融合技术来消除它,最后得到一个高质量的全景图。最后,投影输出承担把球形空间大视角范围的全景图投影为平面可视图像的任务。
第四步,隧道影像数据的预处理。路面图像在采集过程中会受到各种外界因素的干扰,导致采集到的路面图像存在,阴影、对比度低和图像质量低等问题,严重影响后续裂缝识别工作的精度。同时,由于载体震动等因素导致的图像边缘模糊现象会影响到图片的质量,图像锐化操作可以改善这一点。相较于增强图像的对比度,图像锐化更多的时候是补偿图像轮廓,增强其边缘灰度值跳变部分的对比度,增加图像清晰度。本方法首先引入同态滤波算法,在频率域中同时将图像亮度范围进行压缩并将图像对比度增强,,达到既可以增强暗区的图像细节又不会损失亮区的图像细节的效果;随后采用Unsharp Mask(USM)锐化算法,提升图像清晰度,进一步优化图像质量。
第五步,神经网络数据集构建。首先,对影像数据进行数据增强操作。数据增强的目的是增加训练集的样本数量达到降低网络模型发生过拟合的概率。所谓的泛化能力其实是判定所用模型对没有经过训练的数据的识别能力。数据增强以其标签保持不变为前提,对数据进行相关操作。常见的数据增强的方式可以分为三种。第一种为样本图像位置的变化,将图像进行不同角度的变化;第二种为样本图像空间变化,将图片进行拉伸、移位或按比例缩放等等。第三种方法是样本图像色彩的变换,如提高图片的亮度和对比度是图片更加的清晰,或者在图像通道上添加随机扰动。本实施例中所采用的是线上增强,线上增强是将数据集输入到模型中进行小批量的处理。而线下增强则是提前对所有的数据集进行处理,导致数据集以倍数的形式进行增长,系统无法承受爆炸性的增加会导致整个系统的崩塌。
其次,本发明是使用开源软件Labelme对实验所需要的病害数据集进行标记,按照裂缝的种类将图像分为无裂缝图像、横向裂缝图像、纵向裂缝图像、块状裂缝图像四大类。主要方法是打开原始图像的文件夹,对每张道路病害图像进行标注并生成对应格式的文件,处理后的标记图像直接存在名为output的文件夹中。一幅影像中存在多条裂缝时,分别框出。贯穿整幅图像的裂缝用3-5个标签框框出,标签框需要相连但不重叠。在标记过程中,按照病害的不同类型,设置不同类型的掩膜符号。数据标记的要求是:对于存在裂缝的影像区域,经过专业判读员研判,确定其病害范围,标记框为长方形,需要在无病害区域面积最小的情况下,将病害区域完全框住;对于不存在裂缝病害的影像区域,认为是无裂缝病害影像。数据集对标记影像的数量要求为1000张以上,并将这些样本按照80:20的比例分为训练集和验证集。在完成数据集的标记后,便可以进行模型的训练。
第六步,使用改进的U-Net模型进行目标检测。基于训练好的网络权重,对输入的影像进行判别,直接输出影像是否存在裂缝病害,若存在该病害则在影像上进行标记。改进的U-Net模型的模型结构沿着中心对称轴把整个网络模型划分为两个部分分别为收集特征的编码器部分和还原细节的解码器部分。编码器是由尺寸为3×3的卷积层、激活层和2×2最大池化层组合而成。其主要是通过卷积神经网络获取目标图像的数据特征信息。在编码器部分每采用一次下采样操作,模型的通道数都是上个通道数的一倍,比如最初通道数是64经过一次下采样操作对图像特征信息进行提取,那么下一个通道数就是128。解码器部分是由尺寸为2×2的反卷积和尺寸为3×3的卷积以及激活层组合而成。解码器进行的操作与编码器相反,它所使用的上采样操作。它使用反卷积的方法结合编码器下采样获取的信息对图像细节进行复原操作,每进行一次上采样操作,通道数会变成上个通道数的一半并且特征图被扩大,逐步恢复图片精度,最终输出只包含背景和目标图像信息的图像。其中,在整个过程中,由于使用的是valid卷积,每采取一次valid卷积操作会造成一些周边小部分的信息丢失,也就是使图片的长度和宽度都会减小2,比如输入图片是572×572,经过一次卷积运算后就变成了570×570。最终,使用了一个尺寸为1×1的卷积,其目的是把64维的向量能够全部反映到网络的输出层。
第七步,进行人工修正。主要是对计算机识别不准确的隧道影像进行人工修正,以提高识别的准确度。由于计算机识别智能识别的准确度很难达到百分之百,所以人工修正的对象主要是两部分,其一是计算机未能识别的影像,其二是计算机识别区域不准确的影像。通过人工的修正,在提高检测效率的同时,也尽可能地提高检测的准确度。
第八步,进行反馈维修。主要是收集计算机反馈的有关裂缝的位置、大小、宽度等信息,如果确有威胁,将维修单发至维修人员处进行维修,如果暂无威胁,则将裂缝信息储存,作为预警信息进行使用。
通过采用本发明公开的上述技术方案,得到了如下有益的效果:
本发明提供了一种基于影像的地铁隧道裂缝识别系统及方法,通过自拱型组合阵列CCD相机获取的数据,获得隧道影像,并且利用深度学习算法改进的U-Net算法对隧道面进行智能提取和检测,可以提取出地隧道裂缝病害,并在分类的基础上,对裂缝病害进行相对定位,方便检修人员直接前往故障路段进行修理,减少工作人员搜寻病害时的二次时间成本。本发明能够满足地铁盾构隧道高速、高精度的裂缝病害检测及定位要求,处理速度快,实用价值高。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。
Claims (10)
1.一种基于影像的地铁隧道裂缝识别系统,其特征在于,包括图像采集模块、数据预处理模块和目标检测模块,所述图像采集模块采集地铁隧道中的影像,将采集到的影像数据传输给所述数据预处理模块,所述数据预处理模块对采集到的影像数据进行预处理,并将处理后的影像数据传输给所述目标检测模块,所述目标检测模块制作数据集并将数据集分为训练集和测试集,采用训练集训练改进的U-Net神经网络模型,确定神经网络模型参数,并采用测试集对训练后的神经网络模型参数进行检测验证,得到训练后的神经网络模型,采用训练好的神经网络模型进行地铁隧道裂缝识别过程。
2.根据权利要求1所述的基于影像的地铁隧道裂缝识别系统,其特征在于,所述目标采集模块为高速相机系统、同步控制系统和上位机采集操控软件,所述上位机采集操控软件通过所述同步控制系统控制所述高速相机系统进行图像采集任务,所述高速相机系统包括工业线阵相机、光学镜头、图像采集卡和光源,所述工业线阵相机采用8个呈拱形的工业相机,通过电脉冲信号与所述同步控制系统相连,使得各个工业相机可以同时工作,所得到的不同角度的数字化影像可在后处理过程中进行拼接从而得到每一时刻的隧道影像全景图像;所述光学镜头安装在所述工业相机上,可根据光线情况,调整摄影参数获取清晰图像;所述光源为工业相机提供良好的照明环境;所述图像采集卡对所述工业线阵相机采集到的图像信号转换,并传输至数据预处理模块。
3.根据权利要求2所述的基于影像的地铁隧道裂缝识别系统,其特征在于,所述数据预处理模块包括图像拼接子模块、图像预处理子模块,所述图像拼接子模块基于SURF算法进行隧道影像拼接过程,包括对输入的所有图像依次进行预处理、图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合和全景投影输出,最终得到拼接后的图像;所述图像预处理子模块采用同态滤波算法将拼接后的图像亮度范围进行压缩并将图像对比度增强,使得拼接后的图像可以增强暗区的图像细节又不会损失亮区的图像细节;再采用USM锐化算法,经过高通滤波、边缘增强合图像去噪步骤降低拼接后的图像数据噪声,提高图像清晰度和图像质量。
4.根据权利要求3所述的基于影像的地铁隧道裂缝识别系统,其特征在于,所述基于SURF算法进行隧道影像拼接过程,其中图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合具体包括以下步骤:
A1,图像配准:提取每幅输入图像的特征点;对于每个提取出来的特征点,在其他图像上寻找与其对应的特征点,即:寻找同一个物体在多幅图像上的成像点,称这些成像点为匹配特征点对;根据一定的规则去除错误的匹配特征点对,即特征点对提纯;根据一定的几何变换模型计算出每两幅重叠图像之间的变换矩阵,从而完成图像配准;
A2,图像定位:首先判定拼接方向,是只在水平方向拼接还是需要水平和垂直方向同时拼接,若只是水平方向,则只考虑每幅图像的水平相邻关系,然后根据水平相邻关系定位其位置;若是水平和垂直方向同时拼接,则需要考虑每幅图像的水平和垂直方向的相邻关系,然后再定位其位置;
A3,捆绑调整:将单个相机不同时间,不同位置摄取的图像以及多个相机在同一时间,不同位置摄取的不同视角的图像,经过逆变换过程重建空间场景来统一视角;然后通过非线性最优化算法最小化相邻图像的匹配特征点对变换到全景参考平面后的距离,减小多次变换导致的全局累积误差;
A4,因单幅图像间存在的明暗、色彩差异,导致由图像定位和捆绑调整后得到的初拼全景图像普遍存在整幅图像亮度和颜色不匀的问题,利用测光优化技术对组成全景图像的各幅图像的测光参数进行调整,可使全景图的整体亮度和颜色更加均匀和自然,达到更佳的视觉效果;
A5,过渡区融合:对拼接形成的图像重叠区域存在边界痕迹的情况进行处理,包括:1)针对测光优化后残留的图像间亮度差异,即:“拼接缝”暗影,利用融合技术消除由亮度差异造成的“拼接缝”暗影;2)针对图像配准和捆绑调整误差引起的图像重叠区域“重影”,利用多分辨率图像融合技术来消除它,最后得到一个高质量的全景图。
5.根据权利要求3所述的基于影像的地铁隧道裂缝识别系统,其特征在于,所述同态滤波算法具体为:
所述同态滤波算法是基于照射反射模型的,将拼接后的图像f(x,y)用该图像的入射分量i(x,y)和反射分量r(x,y)的乘积来表示,入射分量和反射分量分离开,入射分量表现为背景信息,而反射分量体现为物体信息,增加反射分量,降低入射分量;
所述USM锐化算法具体包括:
采用高通滤波方法提取拼接后的图像的高频分量,然后将该部分高频分量与相关参数进行运算后叠加到原始图像上,最后去除掉因为提前和叠加步骤再图像边缘处留下的噪声。
6.根据权利要求1所述的基于影像的地铁隧道裂缝识别系统,其特征在于,所述图像检测模块中的数据集制作过程具体包括:
B1,将预处理之后得到的影像数据作为样本图像,对样本图像进行数据增强操作,获得大量样本图像;
数据增强操作包括对样本图像分别进行位置变化、空间变化和色彩的变换,其中所述位置变化包括对样本图像进行不同角度的变化;所述样本图像空间变化指的是将图片进行拉伸、移位或按比例缩放;所述样本图像色彩的变换包括提高图片的亮度、对比度,或者在图像通道上添加随机扰动;
B2,使用开源软件Labelme对大量样本图像进行标记,按照裂缝的种类将图像分为无裂缝图像、横向裂缝图像、纵向裂缝图像、块状裂缝图像四大类,并采用不同类型的掩膜符号标记;
B3,将标记好的样本图像按照80:20的比例分别作为训练集和验证集。
7.根据权利要求6所述的基于影像的地铁隧道裂缝识别系统,其特征在于,所述改进的U-Net神经网络模型在整个网络中的特征提取部分和上采样部分之间加入了全局上下文模块,全局上下文模块是结合SENet模块以及简化后的Non-local模块的非局部操作网络;
改进的U-Net神经网络模型所使用的损失函数是Focal loss函数,所述Focal loss函数加入了αt和调制系数1-pt,使网络模型更加注重困难样本的分析,减少简单样本的权重;
在训练过程中,通过试验选择适合的参数和优化器,确定训练中的迭代次数、变化率大小、每一次训练数据量等参数,以达到最优的训练效果;在训练的损失函数值趋于稳定且满足需求时,通过实测的其他隧道裂缝影像,利用标准化参数对模型进行精度评价。
8.采用权利要求1-7任一所述的基于影像的地铁隧道裂缝识别系统进行地铁隧道裂缝识别方法,其特征在于,包括如下步骤:
S1,采用图像采集模块对隧道内的图像进行采集,采用高速相机系统以每秒3-5米的速度对隧道进行扫描;采用同步控制系统控制八个相机同时进行拍摄,并将获得的影像数据传输给数据预处理模块;
S2,图像拼接子模块将获取到的影像数据经过预处理、图像配准、图像定位、捆绑调整、图像测光优化、过渡区融合和全景投影输出得到拼接后的图像,然后图像预处理子模块采用同态滤波算法和USM锐化算法对拼接后的图像进行锐化、增强,提升图像清晰度;
S3,将预处理后的图像数据进行数据增强,获得数量更多的样本图像,使用开源软件Labelme对大量样本图像进行标记,按照裂缝的种类将图像分为无裂缝图像、横向裂缝图像、纵向裂缝图像、块状裂缝图像四大类,并采用不同类型的掩膜符号标记;将标记好的样本图像按照80:20的比例分别作为训练集和验证集;
S4,将训练集中的样本数据输入改进的U-Net神经网络模型,通过试验选择适合的参数和优化器,确定训练中的迭代次数、变化率大小、每一次训练数据量等参数,以达到最优的训练效果;
S5,采用Focal loss函数作为损失函数,在训练的损失函数值趋于稳定且满足需求时,通过实测的其他隧道裂缝影像,利用标准化参数对模型进行精度评价,得到训练后的U-Net神经网络模型;
S6,采用训练后的U-Net神经网络模型对数据采集模块采集到的隧道图像进行识别,确定是否有裂缝。
9.根据权利要求8所述的地铁隧道裂缝识别方法,其特征在于,所述步骤S5和S6之间还包括人工修正:在训练过程中,对于计算机未能识别出存在裂缝的影像以及识别裂缝区域不准确的影像,需要通过人工修正过程,提高准确度;
S6之后还包括:当确定识别出裂缝的图像参数信息确有威胁,对该裂缝进行维修;若暂无威胁,则将其裂缝信息进行存储,作为预警信息。
10.根据权利要求9所述的地铁隧道裂缝识别方法,其特征在于,所述识别出裂缝的图像参数信息包括裂缝的位置、大小、宽度,其中裂缝的位置可以通过以下方式获得:通过数据采集过程中在高速相机系统沿线前进的方向上,等距离架设路面靶标,利用最小二乘模型改正惯导系统所获取的位置信息,与里程计获取的行驶距离和相机获取图像所处位置进行匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210073070.4A CN114419421A (zh) | 2022-01-21 | 2022-01-21 | 一种基于影像的地铁隧道裂缝识别系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210073070.4A CN114419421A (zh) | 2022-01-21 | 2022-01-21 | 一种基于影像的地铁隧道裂缝识别系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114419421A true CN114419421A (zh) | 2022-04-29 |
Family
ID=81275369
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210073070.4A Pending CN114419421A (zh) | 2022-01-21 | 2022-01-21 | 一种基于影像的地铁隧道裂缝识别系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114419421A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359447A (zh) * | 2022-08-01 | 2022-11-18 | 浙江有色地球物理技术应用研究院有限公司 | 公路隧道远程监控系统 |
CN116523833A (zh) * | 2023-03-17 | 2023-08-01 | 苏交科集团股份有限公司 | 基于图像识别技术的裂缝监测设备及包括该设备的安全监测应用平台 |
CN117274762A (zh) * | 2023-11-20 | 2023-12-22 | 西南交通大学 | 基于视觉的地铁隧道低照度场景下实时轨道提取方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583425A (zh) * | 2018-12-21 | 2019-04-05 | 西安电子科技大学 | 一种基于深度学习的遥感图像船只集成识别方法 |
CN110087032A (zh) * | 2019-04-24 | 2019-08-02 | 招商局重庆公路工程检测中心有限公司 | 一种全景式隧道视频监视装置及方法 |
CN110363182A (zh) * | 2019-07-24 | 2019-10-22 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN111932548A (zh) * | 2020-04-21 | 2020-11-13 | 南京航空航天大学 | 一种基于深度学习的地铁隧道细微裂缝分割方法 |
CN112329531A (zh) * | 2020-09-30 | 2021-02-05 | 山东大学 | 用于管廊表观病害检测的线阵双目成像系统与工作方法 |
CN113435254A (zh) * | 2021-05-27 | 2021-09-24 | 云南师范大学 | 一种基于哨兵二号影像的耕地深度学习提取方法 |
CN113468951A (zh) * | 2021-05-20 | 2021-10-01 | 华东师范大学 | 一种基于Landsat卫星遥感检测红树林地貌的方法 |
CN113610052A (zh) * | 2021-08-26 | 2021-11-05 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道渗漏水自动识别方法 |
-
2022
- 2022-01-21 CN CN202210073070.4A patent/CN114419421A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109583425A (zh) * | 2018-12-21 | 2019-04-05 | 西安电子科技大学 | 一种基于深度学习的遥感图像船只集成识别方法 |
CN110087032A (zh) * | 2019-04-24 | 2019-08-02 | 招商局重庆公路工程检测中心有限公司 | 一种全景式隧道视频监视装置及方法 |
CN110363182A (zh) * | 2019-07-24 | 2019-10-22 | 北京信息科技大学 | 基于深度学习的车道线检测方法 |
CN111932548A (zh) * | 2020-04-21 | 2020-11-13 | 南京航空航天大学 | 一种基于深度学习的地铁隧道细微裂缝分割方法 |
CN112329531A (zh) * | 2020-09-30 | 2021-02-05 | 山东大学 | 用于管廊表观病害检测的线阵双目成像系统与工作方法 |
CN113468951A (zh) * | 2021-05-20 | 2021-10-01 | 华东师范大学 | 一种基于Landsat卫星遥感检测红树林地貌的方法 |
CN113435254A (zh) * | 2021-05-27 | 2021-09-24 | 云南师范大学 | 一种基于哨兵二号影像的耕地深度学习提取方法 |
CN113610052A (zh) * | 2021-08-26 | 2021-11-05 | 上海同岩土木工程科技股份有限公司 | 一种基于深度学习的隧道渗漏水自动识别方法 |
Non-Patent Citations (4)
Title |
---|
HONG-WEI HUANG等: ""Deep learning based image recognition for crack and leakage defects of metro shield tunnel"", 《TUNNELLING AND UNDERGROUND SPACE TECHNOLOGY》 * |
JIE CHEN等: ""Road Crack Image Segmentation Using Global Context U-net"", 《CSAI2019: PROCEEDINGS OF THE 2019 3RD INTERNATIONAL CONFERENCE ON COMPUTER SCIENCE AND ARTIFICIAL INTELLIGENCE》 * |
宋宝森: ""全景图像拼接方法研究与实现"", 《中国优秀博硕士学位论文全文数据库(博士)·信息科技辑》 * |
王玉杰 等著, 北京:国防工业出版社 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359447A (zh) * | 2022-08-01 | 2022-11-18 | 浙江有色地球物理技术应用研究院有限公司 | 公路隧道远程监控系统 |
CN115359447B (zh) * | 2022-08-01 | 2023-06-20 | 浙江有色地球物理技术应用研究院有限公司 | 公路隧道远程监控系统 |
CN116523833A (zh) * | 2023-03-17 | 2023-08-01 | 苏交科集团股份有限公司 | 基于图像识别技术的裂缝监测设备及包括该设备的安全监测应用平台 |
CN116523833B (zh) * | 2023-03-17 | 2024-05-24 | 苏交科集团股份有限公司 | 基于图像识别技术的裂缝监测设备及包括该设备的安全监测应用平台 |
CN117274762A (zh) * | 2023-11-20 | 2023-12-22 | 西南交通大学 | 基于视觉的地铁隧道低照度场景下实时轨道提取方法 |
CN117274762B (zh) * | 2023-11-20 | 2024-02-06 | 西南交通大学 | 基于视觉的地铁隧道低照度场景下实时轨道提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114419421A (zh) | 一种基于影像的地铁隧道裂缝识别系统及方法 | |
CN112800913B (zh) | 一种基于多源特征融合的路面损伤数据时空分析方法 | |
CN114693615A (zh) | 一种基于域适应的深度学习混凝土桥梁裂缝实时检测方法 | |
CN110991466A (zh) | 一种基于新型视觉传感设备的高速公路路面状况检测系统 | |
CN107154040A (zh) | 一种隧道衬砌表面图像裂缝检测方法 | |
Li et al. | Automatic bridge crack identification from concrete surface using ResNeXt with postprocessing | |
CN111899288A (zh) | 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法 | |
CN114898352A (zh) | 一种同时实现图像去雾与车牌检测的方法 | |
CN114359130A (zh) | 一种基于无人机影像的道路裂缝检测方法 | |
CN114495068B (zh) | 基于人机交互和深度学习的路面健康检测方法 | |
CN114049538A (zh) | 基于udwgan++网络的机场裂缝图像对抗生成方法 | |
CN116823800A (zh) | 一种基于深度学习的复杂背景下桥梁混凝土裂缝检测方法 | |
CN110728269B (zh) | 一种基于c2检测数据的高铁接触网支柱杆号牌识别方法 | |
CN114037834B (zh) | 一种基于振动信号和rgb图像融合的语义分割方法及装置 | |
Silva et al. | Automated road damage detection using UAV images and deep learning techniques | |
CN115439643A (zh) | 一种基于单目测量的道路病害尺寸分析与管理方法 | |
CN113312987B (zh) | 一种基于无人机航拍路面裂缝图像的识别方法 | |
CN110363706A (zh) | 一种大面积桥面图像拼接方法 | |
CN116681657B (zh) | 基于改进YOLOv7模型的沥青路面病害检测方法 | |
CN117422699A (zh) | 公路检测方法、装置、计算机设备及存储介质 | |
CN116052110B (zh) | 一种路面标线缺损智能定位方法及系统 | |
CN111726535A (zh) | 基于车辆感知的智慧城市cim视频大数据画质控制方法 | |
CN115170783A (zh) | 一种使用街景图像的快速公路路面裂缝检测方法 | |
Ramachandraiah et al. | Evaluation of Pavement Surface Distress Using Image Processing and Artificial Neural Network | |
CN116363530B (zh) | 高速公路路面病害的定位方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220429 |
|
RJ01 | Rejection of invention patent application after publication |