CN111899288B - 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法 - Google Patents

基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法 Download PDF

Info

Publication number
CN111899288B
CN111899288B CN202010483449.3A CN202010483449A CN111899288B CN 111899288 B CN111899288 B CN 111899288B CN 202010483449 A CN202010483449 A CN 202010483449A CN 111899288 B CN111899288 B CN 111899288B
Authority
CN
China
Prior art keywords
infrared
visible light
image
tunnel
trolley
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010483449.3A
Other languages
English (en)
Other versions
CN111899288A (zh
Inventor
高新闻
沈卓
胡珉
喻刚
周丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202010483449.3A priority Critical patent/CN111899288B/zh
Publication of CN111899288A publication Critical patent/CN111899288A/zh
Application granted granted Critical
Publication of CN111899288B publication Critical patent/CN111899288B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/20Hydro energy

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,步骤如下:首先利用工业相机采集待测区域隧道内部的红外和可见光数据;再对采集的数据进行预处理,得到初始红外和可见光图像数据,同时对红外和可见光图像进行配准;然后对配准后得到的红外和可见光数据,利用深度学习技术进行融合;再对得到的融合图像进行渗漏水的目标检测和对氧树脂异常的剔除,实现对隧道内部的渗漏水检测和识别;最后利用惯性导航系统,在无法使用外部定位系统的隧道内部实现渗漏水区域定位标记的功能。本发明方法有效解决隧道内光照条件差和环氧树脂异常对渗漏水检测的干扰问题,具有高精度、高适应性优势,为隧道内部病害回溯复检提供了基础。

Description

基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法
技术领域
本发明属于图像处理技术领域,具体涉及一种基于红外可见光图像融合的隧道渗漏水区域检测与识别方法,常用于公路隧道、地下管廊等。
背景技术
随着我国公路隧道、地铁隧道、综合地下管廊等地下工程的发展,隧道渗漏水作为一种隧道中较为常见的病害引起了越来越多的关注。若不及时对渗漏水病害区域加以修补,将会严重的锈蚀隧道内部的钢筋、螺栓等金属结构,造成混凝土等相关土木结构的开裂和剥落,最终会对隧道运营造成严重的损害。
目前隧道渗漏水病害的检测主要可以分为传统人工检测方法和基于计算机视觉等技术的智能检测方法。人工检测方法主要为派遣人员定期下到隧道中,进行人工目测或者利用相机等进行数据的采集。这种检测方法需要耗费大量的人力、物力,检测结果容易受主观因素的影响,效率低下。同时地下隧道检测存在着检测区域狭小、检测环境恶劣等不定因素,容易导致危险情况的发生。随着近些年计算机视觉相关技术的发展,产生了利用相关技术进行隧道病害智能检测的方法。该方法虽然在一定程度上具有能够替代人工、节省开支并且提高检测的准确率的优势,但是隧道内部光照条件恶劣、存在大量干扰、遮挡等影响因素,对智能检测技术的应用也造成了很大的挑战。当前现存的技术主要为通过搭载可见光或者红外相机的检测小车进行隧道内部数据的采集,后台利用相关目标检测算法进行病害的识别。但是单光谱的数据采集和识别存在高误检率的问题。可见光图像虽然可以采集到目标大量的细节、纹理信息,但是由于隧道内部恶劣的光照条件,使得采集的数据存在大量的干扰。而红外图像虽然可以利用目标的热辐射信息,明确的标记出目标的位置,但是由于丢失了目标大量的细节信息,对目标的识别造成较大的影响。在这样的情况下,研究出一种能够利用两者的优势的隧道渗漏水智能检测算法是很有必要的。
发明内容
针对现有技术存在的缺陷,本发明的目的在于提供一种基于红外和可见光图像融合的隧道渗漏水区域检测和识别的方法。通过红外可见光图像的融合,将两种图像的优势结合,从而在恶劣光照条件和大量干扰因素的情况下,实现对隧道内部渗漏水区域的检测和识别。同时引入惯性导航定位系统,在无法使用外部定位系统的隧道内部,实现对渗漏水区域的标记定位。
为了达到以上目的,本发明采用以下技术方案:
一种基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,具体包括如下步骤:
步骤1)利用工业相机采集待测区域内部的红外和可见光图像;
步骤2)对步骤1)采集的图像进行预处理,得到初始红外和可见光图像;同时对红外和可见光图像进行配准;
步骤3)对步骤2)配准后得到的红外和可见光图像,利用深度学习技术进行融合形成融合图像;
步骤4)对步骤3)得到的融合图像进行渗漏水的目标检测和对环氧树脂等异常情况的剔除,实现对隧道内部的渗漏水检测和识别;
步骤5)利用惯性导航系统,在无法使用外部定位系统的隧道内部,实现渗漏水区域离线定位标记。
优选地,所述的步骤2)中对采集的红外和可见光图像进行预处理,得到初始红外和可见光图像,同时对该初始红外和可见光图像进行配准;具体实现步骤如下:
步骤2.1)对从步骤1)采集的红外和可见光视频数据进行分割,得到所需红外和可见光图像;
步骤2.2)对原始红外和可见光图像进行降噪、均衡化、反色等预处理;
步骤2.3)对预处理后的红外和可见光图像进行边缘过滤;
步骤2.4)检测出红外和可见光图像中具有尺度不变性特征的特征点;
步骤2.5)进行红外和可见光图像的特征点匹配,得到仿射变换矩阵;匹配算法采用基于斜率一致性的特征点匹配算法;
步骤2.6)利用步骤2.5)得到变换矩阵对红外图像进行仿射变换,最终完成红外和可见光图像配准。
优选地,所述步骤2.5)中的基于斜率一致性的特征点匹配算法,具体步骤如下:
步骤2.5.1)将检测出的红外图像特征点集合;
P1{(x’1,y’1),(x’2,y’2)…,(x’i,y’i)…,(x’m,y’m)}(i≤m)和可见光图像特征点集合;
P2{(x1,y1),(x2,y2)…,(xj,yj)…,(xn,yn)}(j≤n)放入同一坐标系;定义k=(yi+N-y’i)/(xi-x’i),为图像中任意特征点之间的斜率(N为图像的列数);
步骤2.5.2)对于P1中的每个点计算其与P2中所有点的欧氏距离,选取欧氏距离最小的点作为P1当前点的粗匹配点;
步骤2.5.3)将粗匹配点按照递增的次序排序,删除其中多对一的点对,得到新的特征点集合P1’和P2’;
步骤2.5.4)选取集合P1’和P2’中前K1个匹配点形成点对集合;
Q1{{(x’1,y’1),(x1,y1)},{(x’2,y’2),(x2,y2)}…{(x’K1,y’K1),(xK1,yK1)}},选取前K2个匹配点形成集合Q2{{(x’1,y’1),(x1,y1)},{(x’2,y’2),(x2,y2)}…{(x’K2,y’K2),(xK2,yK2)}},Ki<K2;
步骤2.5.5)计算集合Q2中的所有点对的斜率,得到集合Z1;选取集合Z1中出现频数大于2的元素形成集合Z2;
步骤2.5.6)对于集合P1’和P2’,计算每个点之间的斜率;选取出斜率值在区间[ki-0.5,ki+0.5](ki∈Z2)中的点对,形成点对集合Q3;
步骤2.5.7)按照排列组合的规则遍历选取Q1集合中任意三个点对的组合,代入仿射变换模型中计算测试变换矩阵M,共有CK1 3种情况;对于每种情况,代入集合Q3中的点对,计算阈值D;若当前阈值小于设定阈值D0,则记当前点对为内点对;阈值计算公式为:
D=|M*(x’1,y’1)-(x1,y1)|<D0
步骤2.5.8)选取内点对数量最多的情况作为目标情况,此时将内点对代入求得的最佳变换矩阵;若出现最大内点对数小于3的情况,则直接将当前测试变换矩阵作为最佳变换矩阵。
优选地,所述步骤3)对步骤2)配准后得到的红外和可见光图像进行融合主要利用了深度学习中的生成对抗网络模型;其实现主要步骤为:
步骤3.1)分别建立生成模型和判别模型;生成模型有六层结构,前五层结构为残差结构,最后一层为卷积核大小1*1,卷积核个数64,步长为1的卷积层;生成模型的lossfunction定义为:
δG=V(G)+λZcontent
Figure BDA0002517981010000031
Figure BDA0002517981010000032
前半部分代表了生成模型和判别模型之间的对抗损失,用于增加融合图像更多的可见光纹理信息;后半部分分别代表了像素强度的损失和梯度信息损失,用于同时保持红外热辐射和可见光信息;
判别模型总共包含7层,前6层均为卷积层,最后一层为线性激活函数,输出输入图像属于某一类图像的概率,用作分类;判别模型loss function定义为:
Figure BDA0002517981010000041
D(Iv)和D(If)分别表示可见光图像和融合后图像的分类结果,损失函数的设计是为了提高判别模型的辨别能力;
步骤3.2)利用步骤2)得到的配准后的图像训练模型;训练过程:
For迭代次数do:
For k steps do:
从生成模型中选取m幅初步融合图像
Figure BDA0002517981010000042
选取m幅可见光图像
Figure BDA0002517981010000043
通过优化loss function ZD来更新判别模型;
End
选取m幅红外图像
Figure BDA0002517981010000044
选取m幅可见光图像
Figure BDA0002517981010000045
通过优化loss functionδG来更新生成模型;
End;
步骤3.3)将待测试的一组图像送入训练完成的生成模型即可得到目标融合图像。
优选地,所述步骤4)对步骤3)得到的融合图像进行渗漏水的目标检测和对氧树脂异常情况的剔除,实现对隧道内部的渗漏水检测和识别;具体是:
步骤4.1)事先利用步骤3)中得到的大量融合后的隧道渗漏水图像制作带标签的训练样本;
步骤4.2)渗漏水的检测采用Faster RCNN目标检测算法;对标准图像进行标签制作,将标准图像和对应的标签,放入Faster RCNN网络模型中进行特征学习和训练,然后得到最终的模型参数;
步骤4.3)用训练好的网络模型对待测区域进行初步检测;
步骤4.4)对初步检测结果进行环氧树脂异常情况的剔除,得到最终检测结果。
优选地,所述的步骤4.4)对初步检测结果进行环氧树脂异常剔除的主要步骤为:
步骤4.4.1)对初步检测出的目标区域进行截取,再分别将可见光和红外图像的对应的目标区域进行单独的截取;
步骤4.4.2)观察两幅图像目标区域的灰度直方图,分别计算两幅图像目标区域像素的最大差值;
步骤4.4.3)对于红外图像目标区域像素差值小于设定阈值,且可见光图像目标区域大于设定阈值的情况标记为环氧树脂检测异常,从初步检测结果中剔除该异常情况。
优选地,所述的步骤5)利用惯性导航系统,在无法使用外部定位系统的公路隧道和地下管廊内部实现渗漏水区域定位标记;所述使用的惯性导航系统通过搭载在隧道检测小车上实现其功能,其主要实现步骤为:
步骤5.1)在小车行进的路线上事先安装两种校准标签,分别为二维码和RFID标签;前者用于粗校准,后者用于精校准;RFID标签每10m距离设置一个,二维码每隔1.2m粘贴一张;
步骤5.2)从小车开始行进时,利用惯导系统采集小车运行的姿态和加速度,然后通过摄像头读取二维码位置以及RFID读写器读取RFID位置,通过卡尔曼滤波算法将这几个数据进行结合,计算出小车精确的行驶位置;
步骤5.3)对于步骤4)中渗漏水检测成功的情况记录当前时间点,并结合步骤5.2)获得的小车精确位置,从而实现渗漏水病害的精确标记定位。
优选地,所述步骤5.2)计算出小车精确的行驶位置的方法步骤如下:
步骤5.2.1)定义小车的实时状态为
Figure BDA0002517981010000051
和不确定性Pk,实时状态包含实时距离和速度两部分,不确定性用数据协方差表示;实时状态
Figure BDA0002517981010000052
具体定义如下公式:
Figure BDA0002517981010000053
步骤5.2.2)获取小车行进的实时加速度数据α,通过如下公式实现小车在两个二维码之间行进距离的预测:
Figure BDA0002517981010000054
vk=vk-1k-1Δt
通过上述两式,小车实时状态
Figure BDA0002517981010000057
和不确定性Pk可以总结为:
Figure BDA0002517981010000055
Pk=APk-1ATk-1
其中ωk-1和ξk-1分别为行进过程中产生的噪声,假设其为相互独立的高斯白噪声;
步骤5.2.3)当小车行至下一个二维码处,获得观测值
Figure BDA0002517981010000058
通过卡尔曼滤波对其进行误差修正,具体实现如下公式:
Figure BDA0002517981010000056
P’k=Pk-KHPk
K=PkHT(HPkHT+Rk)-1
其中预测的状态分布
Figure BDA0002517981010000061
测量的状态分布
Figure BDA0002517981010000062
最终的状态分布
Figure BDA0002517981010000063
H为预测值到测量值的尺度变换矩阵;
步骤5.2.4)当小车行进至RFID标签处,其误差修正过程同步骤5.2.3);计算出小车精确的行驶位置。
与现有技术相比较,具有如下显而易见的突出实质性特点和显著优点:
1.本发明能够结合红外和可见光图像的优势,在光照条件恶劣、干扰因素大量存在的公路隧道、地下管廊实现高精度的渗漏水检测,具有高精度、抗干扰能力强的优势;
2.本发明方法利用惯性导航系统实现渗漏水区域的标记和定位,利于病害的复检和修补。
附图说明
图1为本发明方法的总流程图。
图2为本发明方法的图像配准的效果图。
图3为本发明方法的图像融合模型中的生成模型结构图。
图4为本发明方法的图像融合模型中的判别模型结构图。
具体实施方式
下面结合附图和优选实施例对本发明的技术方案作进一步具体说明:
实施例一:
在本实施例中,一种基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,具体包括如下步骤:
步骤1)利用工业相机采集待测区域内部的红外和可见光图像;
步骤2)对步骤1)采集的图像进行预处理,得到初始红外和可见光图像;同时对红外和可见光图像进行配准;
步骤3)对步骤2)配准后得到的红外和可见光图像,利用深度学习技术进行融合形成融合图像;
步骤4)对步骤3)得到的融合图像进行渗漏水的目标检测和对环氧树脂异常情况的剔除,实现对隧道内部的渗漏水检测和识别;
步骤5)利用惯性导航系统,在无法使用外部定位系统的隧道内部,实现渗漏水区域离线定位标记。
实施例二:
本实施例与实施例一基本相同,特别之处如下:
在本实施例中,参见图1-图4,一种基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,具体包括如下步骤:
步骤1)利用工业相机采集待测区域内部的红外和可见光图像;
步骤2)对步骤1)采集的图像进行预处理,得到初始红外和可见光图像;同时对红外和可见光图像进行配准;具体实现步骤如下:
步骤2.1)对从步骤1)采集的红外和可见光视频数据进行分割,得到所需红外和可见光图像;
步骤2.2)对原始红外和可见光图像进行降噪、均衡化、反色等预处理;
步骤2.3)对预处理后的红外和可见光图像进行边缘过滤;
步骤2.4)检测出红外和可见光图像中具有尺度不变性特征的特征点;
步骤2.5)进行红外和可见光图像的特征点匹配,得到仿射变换矩阵;匹配算法采用基于斜率一致性的特征点匹配算法;所述基于斜率一致性的特征点匹配算法,具体步骤如下:
步骤2.5.1)将检测出的红外图像特征点集合;
P1{(x’1,y’1),(x’2,y’2)…,(x’i,y’i)…,(x’m,y’m)}(i≤m)和可见光图像特征点集合;
P2{(x1,y1),(x2,y2)…,(xj,yj)…,(xn,yn)}(j≤n)放入同一坐标系;定义k=(yi+N-y’i)/(xi-x’i),为图像中任意特征点之间的斜率(N为图像的列数);
步骤2.5.2)对于P1中的每个点计算其与P2中所有点的欧氏距离,选取欧氏距离最小的点作为P1当前点的粗匹配点;
步骤2.5.3)将粗匹配点按照递增的次序排序,删除其中多对一的点对,得到新的特征点集合P1’和P2’;
步骤2.5.4)选取集合P1’和P2’中前K1个匹配点形成点对集合;
Q1{{(x’1,y’1),(x1,y1)},{(x’2,y’2),(x2,y2)}…{(x’K1,y’K1),(xK1,yK1)}},选取前K2个匹配点形成集合Q2{{(x’1,y’1),(x1,y1)},{(x’2,y’2),(x2,y2)}…{(x’K2,y’K2),(xK2,yK2)}},K1<K2;
步骤2.5.5)计算集合Q2中的所有点对的斜率,得到集合Z1;选取集合Z1中出现频数大于2的元素形成集合Z2;
步骤2.5.6)对于集合P1’和P2’,计算每个点之间的斜率;选取出斜率值在区间[ki-0.5,ki+0.5](ki∈Z2)中的点对,形成点对集合Q3;
步骤2.5.7)按照排列组合的规则遍历选取Q1集合中任意三个点对的组合,代入仿射变换模型中计算测试变换矩阵M,共有CK1 3种情况;对于每种情况,代入集合Q3中的点对,计算阈值D;若当前阈值小于设定阈值D0,则记当前点对为内点对;阈值计算公式为:
D=|M*(x’1,y’1)-(x1,y1)|<D0
步骤2.5.8)选取内点对数量最多的情况作为目标情况,此时将内点对代入求得的最佳变换矩阵;若出现最大内点对数小于3的情况,则直接将当前测试变换矩阵作为最佳变换矩阵;
步骤2.6)利用步骤2.5)得到变换矩阵对红外图像进行仿射变换,最终完成红外和可见光图像配准;
步骤3)对步骤2)配准后得到的红外和可见光图像,利用深度学习技术进行融合,形成融合图像;所述步骤3)对步骤2)配准后得到的红外和可见光图像进行融合主要利用了深度学习中的生成对抗网络模型;其实现主要步骤为:
步骤3.1)分别建立生成模型和判别模型;生成模型有六层结构,前五层结构为残差结构,最后一层为卷积核大小1*1,卷积核个数64,步长为1的卷积层;生成模型的lossfunction定义为:
δG=V(G)+λZcontent
Figure BDA0002517981010000081
Figure BDA0002517981010000082
前半部分代表了生成模型和判别模型之间的对抗损失,用于增加融合图像更多的可见光纹理信息;后半部分分别代表了像素强度的损失和梯度信息损失,用于同时保持红外热辐射和可见光信息;
判别模型总共包含7层,前6层均为卷积层,最后一层为线性激活函数,输出输入图像属于某一类图像的概率,用作分类;判别模型loss function定义为:
Figure BDA0002517981010000083
D(IV)和D(If)分别表示可见光图像和融合后图像的分类结果,损失函数的设计是为了提高判别模型的辨别能力;
步骤3.2)利用步骤2)得到的配准后的图像训练模型;训练过程:
For迭代次数do:
For k steps do:
从生成模型中选取m幅初步融合图像
Figure BDA0002517981010000091
选取m幅可见光图像
Figure BDA0002517981010000092
通过优化loss function ZD来更新判别模型;
End
选取m幅红外图像
Figure BDA0002517981010000093
选取m幅可见光图像
Figure BDA0002517981010000094
通过优化loss function δG来更新生成模型;
End;
步骤3.3)将待测试的一组图像送入训练完成的生成模型即可得到目标融合图像;
步骤4)对步骤3)得到的融合图像进行渗漏水的目标检测和对环氧树脂异常情况的剔除,实现对隧道内部的渗漏水检测和识别;具体步骤为:
步骤4.1)事先利用步骤3)中得到的大量融合后的隧道渗漏水图像制作带标签的训练样本;
步骤4.2)渗漏水的检测采用Faster RCNN目标检测算法;对标准图像进行标签制作,将标准图像和对应的标签,放入Faster RCNN网络模型中进行特征学习和训练,然后得到最终的模型参数;
步骤4.3)用训练好的网络模型对待测区域进行初步检测;
步骤4.4)对初步检测结果进行环氧树脂异常情况的剔除,得到最终检测结果;所述对初步检测结果进行环氧树脂异常剔除的步骤为:
步骤4.4.1)对初步检测出的目标区域进行截取,再分别将可见光和红外图像的对应的目标区域进行单独的截取;
步骤4.4.2)观察两幅图像目标区域的灰度直方图,分别计算两幅图像目标区域像素的最大差值;
步骤4.4.3)对于红外图像目标区域像素差值小于设定阈值,且可见光图像目标区域大于设定阈值的情况标记为环氧树脂检测异常,从初步检测结果中剔除该异常情况;
步骤5)利用惯性导航系统,在无法使用外部定位系统的隧道内部,实现渗漏水区域离线定位标记;所使用的惯性导航系统通过搭载在隧道检测小车上实现其功能,其主要实现步骤为:
步骤5.1)在小车行进的路线上事先安装两种校准标签,分别为二维码和RFID标签;前者用于粗校准,后者用于精校准;RFID标签每10m距离设置一个,二维码每隔1.2m粘贴一张;
步骤5.2)从小车开始行进时,利用惯导系统采集小车运行的姿态和加速度,然后通过摄像头读取二维码位置以及RFID读写器读取RFID位置,通过卡尔曼滤波算法将这几个数据进行结合,计算出小车精确的行驶位置;计算出小车精确的行驶位置的方法步骤如下:
步骤5.2.1)定义小车的实时状态为
Figure BDA0002517981010000101
和不确定性Pk,实时状态包含实时距离和速度两部分,不确定性用数据协方差表示;实时状态
Figure BDA0002517981010000102
具体定义如下公式:
Figure BDA0002517981010000103
步骤5.2.2)获取小车行进的实时加速度数据α,通过如下公式实现小车在两个二维码之间行进距离的预测:
Figure BDA0002517981010000104
vk=vk-1k-1Δt
通过上述两式,小车实时状态
Figure BDA00025179810100001010
和不确定性Pk可以总结为:
Figure BDA0002517981010000105
Pk=APk-1ATk-1
其中ωk-1和ξk-1分别为行进过程中产生的噪声,假设其为相互独立的高斯白噪声;
步骤5.2.3)当小车行至下一个二维码处,获得观测值
Figure BDA00025179810100001011
通过卡尔曼滤波对其进行误差修正,具体实现如下公式:
Figure BDA0002517981010000106
P’k=Pk-KHPk
K=PkHT(HPkHT+Rk)-1
其中预测的状态分布
Figure BDA0002517981010000107
测量的状态分布
Figure BDA0002517981010000108
最终的状态分布
Figure BDA0002517981010000109
H为预测值到测量值的尺度变换矩阵;
步骤5.2.4)当小车行进至RFID标签处,其误差修正过程同步骤5.2.3);计算出小车精确的行驶位置;
步骤5.3)对于步骤4)中渗漏水检测成功的情况记录当前时间点,并结合步骤5.2)获得的小车精确位置,从而实现渗漏水病害的精确标记定位。
实施例三:
在本实施例中,如图1所示,一种基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,具体包括如下步骤:
a.利用搭载着红外可见光工业相机和惯导系统的智能检测小车进行隧道数据的采集;数据采集的隧道选用公路隧道中消防通道和电缆通道,这两类地下通道具有光照条件恶劣、人员不易进入的特点,故选用为测试区域;
b.对采集视频进行逐帧切分,选取合适的帧图像作为原始图像数据;同时对数据进行预处理;首先对红外和可见光图像进行初步切分和两类图像的大小调整,然后将带下初步调整后的红外可见光图像送入图像配准子系统,进行配准;配准的图像如图2所示;
c.对步骤b中配准后的图片进行图像融合;将配准后的图像送入图像融合子系统,进行图像融合;融合模型中的生成模型与判别模型分别如图3、图4所示;
d.首先将步骤c中的到的大量融合图像分割为训练数据集和测试数据集,并对训练数据集进行标签的制作;然后将训练数据集和对应的标签送入FasterRCNN网络模型,进行训练;最后利用测试数据集进行训练完成的模型进行测试,得到初步检测结果;
e.对步骤d中得到的渗漏水病害初步检测结果进行环氧树脂异常情况的剔除,得到最终检测结果;
f.对步骤e中的到的渗漏水病害进行标记定位;根据与检测系统一起搭载在智能检测小车的惯导系统实时记录检测系统的行进加速度,通过卡尔曼滤波得到检测系统时刻的行进距离。以此实现渗漏水病害的离线定位功能。
所述步骤b中的对预处理图像进行配准,具体如下:
首先对原始图像进行降噪、均衡化、反色等预处理。对预处理后的图像进行边缘过滤。然后检测出图像中具有尺度不变性特征的特征点。最后进行红外图像和可见光图像的特征点匹配,得到仿射变换矩阵。利用变换矩阵对红外图像进行仿射变换,最终完成配准。特征点匹配算法采用基于斜率一致性的特征点匹配算法。
所述步骤c中的图像融合子系统,具体如下:
图像融合主要采用深度学习中的生成对抗网络模型,首先分别建立生成模型和判别模型。生成模型有六层结构,前五层结构为残差结构,最后一层为卷积核大小1*1,卷积核个数64,步长为1的卷积层,具体结构如说明书附图3所示;生成模型的loss function定义为:
δG=V(G)+λZcontent
Figure BDA0002517981010000111
Figure BDA0002517981010000112
判别模型总共包含7层,前6层均为卷积层,最后一层为线性函数输出输入图像输入某一类图像的概率,用作分类,具体结构如说明书附图4所示;判别模型loss function定义为:
Figure BDA0002517981010000121
然后利用配准后的图像训练模型。训练过程:
For迭代次数do:
For k steps do:
从生成模型中选取m幅初步融合图像
Figure BDA0002517981010000122
选取m幅可见光图像
Figure BDA0002517981010000123
通过优化loss function ZD来更新判别模型;
End
选取m幅红外图像
Figure BDA0002517981010000124
选取m幅可见光图像
Figure BDA0002517981010000125
通过优化loss function δG来更新生成模型;
End
最后将待测试的一组图像送入训练完成的生成模型即可得到目标融合图像;
所述步骤e中的对初步检测结果进行环氧树脂异常的剔除,具体如下:
首先对初步检测出的目标区域进行截取,再分别将可见光和红外图像的对应的目标区域进行单独的截取。然后观察两幅图像目标区域的灰度直方图,分别计算两幅图像目标区域像素的最大差值。最后对于红外图像目标区域像素差值小于设定阈值,且可见光图像目标区域大于设定阈值的情况标记为环氧树脂检测异常,从初步检测结果中剔除该异常情况;
所述步骤f中的对最终检测结果中的渗漏水病害进行标记定位,具体如下:
首先在小车行进的路线上事先安装两种校准标签,分别为二维码和RFID标签。前者用于粗校准,后者用于精校准。RFID标签每10m距离设置一个,在两个RFID标签之间每隔1.2m左右粘贴一张二维码;然后从小车开始行进时,每隔固定时间间隔,通过惯导系统采集小车运行的姿态和加速度数据;在两个二维码之间利用卡尔曼滤波算法预测小车实时的行进距离,得到小车时刻的行进距离。当到达下一个二维码处再次利用卡尔曼滤波算法进行小车行进距离的误差修正;再然后在两个RFID标签之间反复上述步骤。当到达下一个RFID标签处,利用卡尔曼滤波算法进行小车行进距离的误差修正;最后对于渗漏水病害检测成功的情况记录当前时间点,并结合得到的小车实时的行进距离数据,从而实现渗漏水病害的标记定位。
综上所述,本发明基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,具体包括如下步骤:步骤1)利用工业相机采集待测区域隧道内部的红外和可见光数据;步骤2)对步骤1)采集的数据进行预处理,得到初始红外和可见光图像数据。同时对红外和可见光图像进行配准;步骤3)对步骤2)配准后得到的红外和可见光数据,利用深度学习技术进行融合;步骤4)对步骤3)得到的融合图像进行渗漏水的目标检测和对氧树脂等异常的剔除,实现对隧道内部的渗漏水检测和识别;步骤5)利用惯性导航系统,在无法使用外部定位系统的隧道内部实现渗漏水区域定位标记的功能。本发明利用红外和可见光图像融合和深度学习技术,设计了一套完整的从图像采集到配准到融合再到检测的新型隧道渗漏水检测方法。能够有效解决隧道内光照条件差和环氧树脂等异常对渗漏水检测的干扰问题,具有高精度、高适应性的优势。同时解决了地铁、公路等隧道管廊中的定位问题,为隧道内部病害回溯复检提供了基础。
上面对本发明实施例结合附图进行了说明,但本发明不限于上述实施例,还可以根据本发明的发明创造的目的做出多种变化,凡依据本发明技术方案的精神实质和原理下做的改变、修饰、替代、组合或简化,均应为等效的置换方式,只要符合本发明的发明目的,只要不背离本发明基于红外和可见光图像融合的隧道渗漏水区域检测和识别的方法的技术原理和发明构思,都属于本发明的保护范围。

Claims (1)

1.一种基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法,其特征在于,具体包括如下步骤:
步骤1)利用工业相机采集待测区域内部的红外和可见光图像;
步骤2)对步骤1)采集的图像进行预处理,得到初始红外和可见光图像;同时对红外和可见光图像进行配准;
步骤3)对步骤2)配准后得到的红外和可见光图像,利用深度学习中的生成对抗网络进行融合形成融合图像;
步骤4)对步骤3)得到的融合图像进行渗漏水的目标检测和对环氧树脂异常情况的剔除,实现对隧道内部的渗漏水检测和识别,具体步骤为:
步骤4.1)事先利用步骤3)中得到的大量融合后的隧道渗漏水图像制作带标签的训练样本;
步骤4.2)融合后的隧道渗漏水图像的检测采用Faster RCNN目标检测算法;对标准图像进行标签制作,将标准图像和对应的标签,放入Faster RCNN网络模型中进行特征学习和训练,然后得到最终的模型参数;
步骤4.3)用训练好的网络模型对待测区域进行初步检测;
步骤4.4)对初步检测结果进行环氧树脂异常情况的剔除,得到最终检测结果,其中对初步检测结果进行环氧树脂异常剔除的进一步包括以下步骤;
步骤4.4.1)对初步检测出的目标区域进行截取,再分别将可见光和红外图像的对应目标区域进行单独截取;
步骤4.4.2)观察两幅图像目标区域的灰度直方图,分别计算两幅图像目标区域像素的最大差值;
步骤4.4.3)对于红外图像目标区域像素差值小于设定阈值,且可见光图像目标区域大于设定阈值的情况标记为环氧树脂检测异常,从初步检测结果中剔除该异常情况;
步骤5)利用惯性导航系统、二维码、RFID标签,在无法使用外部定位系统的隧道内部,实现渗漏水区域离线精确定位标记;所使用的惯性导航系统通过搭载在隧道检测小车上实现其功能,其主要实现步骤为:
步骤5.1)在小车行进的路线上事先安装两种校准标签,分别为二维码和RFID标签;前者用于粗校准,后者用于精校准;RFID标签每10m距离设置一个,二维码每隔1.2m粘贴一张;
步骤5.2)从小车开始行进时,利用惯性导航系统采集小车运行的姿态和加速度,然后通过摄像头读取二维码位置以及RFID读写器读取RFID位置,通过卡尔曼滤波算法将这几个数据进行结合,计算出小车精确的行驶位置;其主要实现的步骤为:
步骤5.2.1)定义小车的实时状态为
Figure FDA0003998883600000021
和不确定性Pk,实时状态包含实时距离和速度两部分,不确定性用数据协方差表示;实时状态
Figure FDA0003998883600000022
具体定义如下公式:
Figure FDA0003998883600000023
步骤5.2.2)获取小车行进的实时加速度数据α,通过如下公式实现小车在两个二维码之间行进距离的预测:
Figure FDA0003998883600000024
vk=vk-1k-1Δt
通过上述两式,小车实时状态
Figure FDA0003998883600000025
和不确定性Pk可以总结为:
Figure FDA0003998883600000026
Pk=AP′k-1ATk-1
其中ωk-1和ξk-1分别为行进过程中产生的噪声,假设其为相互独立的高斯白噪声;
步骤5.2.3)当小车行至下一个二维码处,获得观测值
Figure FDA0003998883600000027
通过卡尔曼滤波对其进行误差修正,具体实现如下公式:
Figure FDA0003998883600000028
P′k=Pk-KHPk
K=PkHT(HPkHT+Rk)-1
其中预测的状态分布
Figure FDA0003998883600000029
测量的状态分布
Figure FDA00039988836000000210
最终的状态分布
Figure FDA00039988836000000211
H为预测值到测量值的尺度变换矩阵;
步骤5.2.4)当小车行进至RFID标签处,其误差修正过程同步骤5.2.3);计算出小车精确的行驶位置。
步骤5.3)对于步骤4)中渗漏水检测成功的情况记录当前时间点,并结合步骤5.2)获得的小车精确位置,从而实现渗漏水病害的精确标记定位。
CN202010483449.3A 2020-06-01 2020-06-01 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法 Active CN111899288B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010483449.3A CN111899288B (zh) 2020-06-01 2020-06-01 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010483449.3A CN111899288B (zh) 2020-06-01 2020-06-01 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法

Publications (2)

Publication Number Publication Date
CN111899288A CN111899288A (zh) 2020-11-06
CN111899288B true CN111899288B (zh) 2023-04-07

Family

ID=73206571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010483449.3A Active CN111899288B (zh) 2020-06-01 2020-06-01 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法

Country Status (1)

Country Link
CN (1) CN111899288B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11402273B2 (en) * 2020-03-27 2022-08-02 Ecb Consulting Llc Systems and approaches for improving accuracy of temperature measurements using thermal imaging
CN112576310B (zh) * 2020-12-11 2023-03-24 国网智能科技股份有限公司 基于机器人的隧道安防检测方法及系统
CN112598049B (zh) * 2020-12-18 2021-12-03 上海大学 一种基于深度学习的掩埋物体红外图像的目标检测方法
CN112733950A (zh) * 2021-01-18 2021-04-30 湖北工业大学 一种基于图像融合与目标检测结合的电力设备故障诊断方法
CN113516179B (zh) * 2021-06-24 2022-02-18 北京航空航天大学 一种地下基础设施渗漏水性态辨识方法及系统
CN114539586B (zh) * 2022-04-27 2022-07-19 河南银金达新材料股份有限公司 一种聚合物膜的表面处理生产和检测工艺
CN114627124B (zh) * 2022-05-16 2022-07-26 江西武大扬帆科技有限公司 一种基于深度学习的泡泉检测方法及交互反馈系统
CN114972757A (zh) * 2022-05-31 2022-08-30 山东大学 一种隧道渗漏水区域识别方法及系统
CN115965843B (zh) * 2023-01-04 2023-09-29 长沙观谱红外科技有限公司 一种可见光和红外图像融合方法
CN116416270B (zh) * 2023-03-24 2024-01-23 北京城市轨道交通咨询有限公司 一种监测地下作业面渗漏水的方法及装置
CN116543378B (zh) * 2023-07-05 2023-09-29 杭州海康威视数字技术股份有限公司 一种图像识别方法、装置、电子设备及存储介质
CN117235672B (zh) * 2023-11-14 2024-03-08 北京市科学技术研究院 一种基于多源数据的综合管廊故障诊断方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106257535A (zh) * 2016-08-11 2016-12-28 河海大学常州校区 基于surf算子的电气设备红外与可见光图像配准方法
CN110529186A (zh) * 2019-09-11 2019-12-03 上海同岩土木工程科技股份有限公司 基于红外热成像的隧道结构渗漏水精确识别装置和方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5886636A (en) * 1997-12-17 1999-03-23 A-Acme, Inc. Moisture detection and source identification method for structures
CN108663121A (zh) * 2017-04-01 2018-10-16 武汉多谱多勒科技有限公司 一种隧道渗水的在线监控与检测系统
CN107578432B (zh) * 2017-08-16 2020-08-14 南京航空航天大学 融合可见光与红外两波段图像目标特征的目标识别方法
CN107677372B (zh) * 2017-09-11 2019-10-08 华中科技大学 一种基于双目视觉的隧道检测方法
CN109614996B (zh) * 2018-11-28 2022-05-17 桂林电子科技大学 基于生成对抗网络的弱可见光与红外图像融合的识别方法
CN110246130B (zh) * 2019-06-21 2023-03-31 中国民航大学 基于红外和可见光图像数据融合的机场道面裂缝检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106257535A (zh) * 2016-08-11 2016-12-28 河海大学常州校区 基于surf算子的电气设备红外与可见光图像配准方法
CN110529186A (zh) * 2019-09-11 2019-12-03 上海同岩土木工程科技股份有限公司 基于红外热成像的隧道结构渗漏水精确识别装置和方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FusionGAN: A generative adversarial network for infrared and visible image fusion;Jiayi Ma,Wei Yu,Pengwei Liang,Chang Li,Junjun Jiang;《Information Fusion》;20180905;第11-26页 *
RFID 环境下基于自适应卡尔曼滤波的高速移动车辆速度预测;冯安琪,钱丽萍,黄玉蘋,吴 远;《计算机科学》;20190430;第100-104页 *

Also Published As

Publication number Publication date
CN111899288A (zh) 2020-11-06

Similar Documents

Publication Publication Date Title
CN111899288B (zh) 基于红外和可见光图像融合的隧道渗漏水区域检测与识别方法
Xu et al. Automatic defect detection and segmentation of tunnel surface using modified Mask R-CNN
Bang et al. Encoder–decoder network for pixel‐level road crack detection in black‐box images
KR102008973B1 (ko) 딥러닝 기반의 하수도관 내부 결함 탐지 장치 및 방법
CN109190481B (zh) 一种遥感影像道路材质提取方法和系统
CN110246130B (zh) 基于红外和可见光图像数据融合的机场道面裂缝检测方法
CN103279765B (zh) 基于图像匹配的钢丝绳表面损伤检测方法
CN113436157B (zh) 一种用于受电弓故障的车载图像识别方法
CN111241994B (zh) 一种深度学习的遥感影像农村公路砂化路段的提取方法
CN111080609B (zh) 一种基于深度学习的闸瓦插销丢失检测方法
US20220315243A1 (en) Method for identification and recognition of aircraft take-off and landing runway based on pspnet network
CN111462140B (zh) 一种基于区块拼接的实时图像实例分割方法
CN111507971A (zh) 一种隧道表面缺陷检测方法
CN112966665A (zh) 路面病害检测模型训练方法、装置和计算机设备
CN111768417A (zh) 基于单目视觉3d重建技术的铁路货车超限检测方法
CN114419421A (zh) 一种基于影像的地铁隧道裂缝识别系统及方法
Tan et al. A lightweight metro tunnel water leakage identification algorithm via machine vision
Guerrieri et al. Flexible and stone pavements distress detection and measurement by deep learning and low-cost detection devices
Zheng et al. Rail detection based on LSD and the least square curve fitting
Yin et al. An automatic visual monitoring system for expansion displacement of switch rail
CN114067296A (zh) 钢轨表面缺陷识别方法及装置
CN110672632A (zh) 一种隧道病害识别方法
CN113092807A (zh) 基于多目标跟踪算法的城市高架道路车辆测速方法
CN116958837A (zh) 基于无人机的市政设施故障检测系统
CN114119355B (zh) 一种盾构隧道掉块风险预警方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant