CN117152083A - 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法 - Google Patents

一种基于类别激活映射的探地雷达道路病害图像预测可视化方法 Download PDF

Info

Publication number
CN117152083A
CN117152083A CN202311120320.6A CN202311120320A CN117152083A CN 117152083 A CN117152083 A CN 117152083A CN 202311120320 A CN202311120320 A CN 202311120320A CN 117152083 A CN117152083 A CN 117152083A
Authority
CN
China
Prior art keywords
image
ground penetrating
penetrating radar
layer
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311120320.6A
Other languages
English (en)
Other versions
CN117152083B (zh
Inventor
吕浩天
倪耀威
王大为
汤伏蛟
张宇辉
叶呈森
樊泽鹏
叶泽文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN202311120320.6A priority Critical patent/CN117152083B/zh
Publication of CN117152083A publication Critical patent/CN117152083A/zh
Application granted granted Critical
Publication of CN117152083B publication Critical patent/CN117152083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/885Radar or analogous systems specially adapted for specific applications for ground probing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Abstract

一种基于类别激活映射的探地雷达道路病害图像预测可视化方法。探地雷达图像属于非自然图像,因其表现特征的多样性使其难以形成统一且规范的全面分析过程,缺乏定量且可视化的可靠方式。本发明中探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集,利用通过训练得到标准权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图,通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据形成进行可视化评估过程。

Description

一种基于类别激活映射的探地雷达道路病害图像预测可视化 方法
技术领域
本发明具体涉及一种基于类别激活映射的探地雷达道路病害图像预测可视化方法。
背景技术
探地雷达是通过发射和接收电磁波,探察地下不同介质的介电常数、电导率、磁导率等电磁性质差异为物理前提的一种射频电磁技术。作为道路工程领域应用电磁波发射和接收装置进行道路无损检测的方法,探地雷达主要有检测和操作速度快、检测数据易于管理存储、检测操作成本较低、检测期间不影响车辆正常通行、采集模式灵活等优点。然而,探地雷达检测技术也存在一定的弊端,电磁波信号源容易受到干扰、数据的处理较为复杂,特别是针对探地雷达图像数据的解释还未实现智能化和自动化,需要依赖人工读图,图像数据的判别和解释效率远远落后于检测效率。
基于深度学习的图像目标检测技术已应用于探地雷达图像识别。卷积神经网络作为一种经典的深度学习模型,在目标识别和分类方面具有工程复杂度低、结构简单、无需降维等明显的优势。端到端的卷积神经网络模型输入端是探地雷达数据和病害标注,无需提取图像内部特征,输出端是图像分类识别定位结果,具有缩减人工预处理工作,降低人为干扰等工作特性优势,但是其造成的缺点是太过关注识别结果,无法确定网络模块性能、缺乏可解释性,目前已有的方法中无法全面分析数据、模型和应用。然而,探地雷达图像属于非自然图像,因其表现特征的多样性使其难以形成统一且规范的全面分析过程,缺乏定量且可视化的可靠方式。
发明内容
为克服现有技术所存在的缺陷,现提供一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,以解决上述问题。
一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集,利用通过训练得到标准权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图,通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据进行可视化评估过程。
作为优选方案:探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集的过程为:
将采集的雷达数据进行提高病害区域对比度的数据预处理后,形成探地雷达图像,对探地雷达图像中的不同类型病害进行标注,制作形成图像数据集。
作为优选方案:利用通过训练得到权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图的过程为:将得到的图像数据集分为训练集、验证集和测试集,利用卷积神经网络一阶段法YOLO系列模型和二阶段法的Faster R-CNN模型进行迭代训练,得到精准率处于80~95%权重模型,作为训练后的标准权重模型,提取标准权重模型中最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取并计算第一个特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,使用Opencv函数将类别激活映射图转换为RGB彩色图。
作为优选方案:通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据进行可视化评估过程为:RGB彩色图中依据RGB值的具体数值以及贡献度不同,形成对应的定量可视化的评估结果。
作为优选方案:图像数据集中的探地雷达图像尺寸相同,标注区域边缘的图像特征振幅对比值取值范围为1~2mm。
作为优选方案:图像数据集中的训练集、验证集和测试集图像占比为7:2:1,精确率Precision表达式为:
其中,TP表示该目标是正例,且在目标检测任务中被预测为正例的个数;FP表示该目标是负例,且在目标检测任务中被预测为负例的个数,精确率表示提取出的正确信息条数和提取出的信息条数之比。
作为优选方案:训练后提取标准权重模型中最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取并计算第一个特征向量的投影的计算过程为:
输入图像I∈Ri,j的大小为(i×j),最后一层特征层中大小为(m,n)的前k层组合权重矩阵WL=n投影到最后一个特征层L=k的图像OL=k,表达式如下:
分解OL=k,使用奇异值分解计算OL=k的主成分,表达式如下:
OL=k=UΣVT
上式中,U是M×M的正交矩阵,U列是左奇异向量,Σ是大小为M×N的对角矩阵,沿对角线具有奇异值,V是N×N正交矩阵,V列是左奇异向量。
作为优选方案:计算标准权重模型中特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,使用Opencv函数将其转换为RGB彩色图,其中一种颜色的颜色深度越深,表明RGB值越大,对应的贡献度越大,一种颜色的颜色深度越深,表明RGB值越小,对应的贡献度越小,将该图像覆盖到原始图片中得到可视化结类别激活映射LCAM由OL=k在第一个特征向量上的投影给出,表达式为:
LCAM=OL=KV1
上式中,V1为V矩阵中的第一个特征向量,OL=k为最后一个特征层L=k的图像。
本发明的有益效果在于:
一、本发明的计算原理为利用类激活映射方法对卷积神经网络智能识别探地雷达图像工作机制相连接的方式实现对图像数据的表现特征的多样性能进行统一且规范的可视定量化显示过程,揭示了深度学习模型对探地雷达图像进行特征提取的原理。用可视化手段反映人工识别和不同深度学习模型对图像病害区所关注区域的差异,有利于进一步更新和改进深度学习网络框架,提高识别精度。该类别激活映射方法对卷积神经网络中全连接层产生的分类错误具有鲁棒性,不依赖梯度的反向传播、类相关性得分、最大激活位置或任何其他形式的加权特征,并且适用于所有卷积神经网络模型,无需修改图层或重新训练模型。
二、本发明能够使病害区的关注区域更加集中,更符合人工病害识别经验,印证了其综合性能较好的预测结果。
三、本发明的最终可视化定量解释结果能够全部显示在热力学图中,能够有效地显示特征的重要性权重,协调人类认知和机器行为之间的矛盾,使卷积神经网络模型结果更具说服力。
附图说明:
图1为一种基于类别激活映射的探地雷达道路病害图像预测可视化方法流程图;
图2为YOLOv3、YOLOv4、Faster R-CNN网络模型基于类别激活映射预测热力对比示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。
具体实施方式一:结合图1和图2说明本实施方式,本实施方式中的探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集,利用通过训练得到标准权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图,通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据进行可视化评估过程。
本实施方式中探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集的过程为:
将采集的雷达数据进行提高病害区域对比度的数据预处理后,形成探地雷达图像,对探地雷达图像中的不同类型病害进行标注,制作形成图像数据集。
本实施方式中利用通过训练得到权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图的过程为:将得到的图像数据集分为训练集、验证集和测试集,利用卷积神经网络一阶段法YOLO系列模型和二阶段法的Faster R-CNN模型进行迭代训练,得到精准率处于80~95%权重模型,作为训练后的标准权重模型,提取标准权重模型中最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取并计算第一个特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,使用Opencv函数将类别激活映射图转换为RGB彩色图。
本实施方式中通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据进行可视化评估过程为:RGB彩色图中依据RGB值的具体数值以及贡献度不同,形成对应的定量可视化的评估结果。
本实施方式中图像数据集中的探地雷达图像尺寸相同,标注区域边缘的图像特征振幅对比值取值范围为1~2mm。
本实施方式中图像数据集中的训练集、验证集和测试集图像占比为7:2:1,精确率Precision表达式为:
其中,TP表示该目标是正例,且在目标检测任务中被预测为正例的个数;FP表示该目标是负例,且在目标检测任务中被预测为负例的个数,精确率表示提取出的正确信息条数和提取出的信息条数之比。
本实施方式中训练后提取标准权重模型中最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取并计算第一个特征向量的投影的计算过程为:
输入图像I∈Ri,j的大小为(i×j),最后一层特征层中大小为(m,n)的前k层组合权重矩阵WL=n投影到最后一个特征层L=k的图像OL=k,表达式如下:
分解OL=k,使用奇异值分解计算OL=k的主成分,表达式如下:
OL=k=UΣVT
上式中,U是M×M的正交矩阵,U列是左奇异向量,Σ是大小为M×N的对角矩阵,沿对角线具有奇异值,V是N×N正交矩阵,V列是左奇异向量。
本实施方式中计算标准权重模型中特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,使用Opencv函数将其转换为RGB彩色图,其中一种颜色的颜色深度越深,表明RGB值越大,对应的贡献度越大,一种颜色的颜色深度越深,表明RGB值越小,对应的贡献度越小,将该图像覆盖到原始图片中得到可视化结类别激活映射LCAM由OL=k在第一个特征向量上的投影给出,表达式为:
LCAM=OL=KV1
上式中,V1为V矩阵中的第一个特征向量,OL=k为最后一个特征层L=k的图像。
具体实施方式二:本实施方式为具体实施方式一的进一步限定,本探地雷达道路病害图像预测可视化方法还可具体形成以下几个步骤:
步骤1:雷达数据采集,并对采集到的数据进行预处理生成探地雷达图像;
步骤2:对步骤1处理后的探地雷达图像进行筛选,通过人工图像分析、专家解译方法确定隐蔽病害区域,并利用Labelimg软件对图像中不同类型的隐蔽病害进行标注制作数据集;
步骤3:将步骤2得到的数据集分为训练集和测试集,利用卷积神经网络一阶段法YOLO系列模型和二阶段法的Faster R-CNN模型进行迭代训练,得到权重模型,准确率不低于80%;
步骤4:利用步骤3得到的权重模型,提取除最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取第一个特征向量;
步骤5:通过计算步骤4的特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,将该图像覆盖到原始图片中得到可视化结果。
所述步骤1数据采集时雷达天线应用步进式频率技术,能够较好地兼顾浅层高分辨率成像和更深结构层的探测;通过无限脉冲响应滤波器进行带通滤波,过滤探地雷达脉冲频率相差较大的回波信号;而在进行图像识别时,可根据不同特征的异常图像,将不同类型的道路内部缺陷划分为四类,分别为竖井类、管道空洞类、结构类沉降类和裂缝类;为了清晰表征各类病害,方便后续标记工作,采用512像素×512像素的矩形框捕捉若干大小相同的雷达数据。
所述步骤2对步骤1中得到的探地雷达的三维图像进行人工标注,所得数据集按照训练集:验证集:测试集为7:2:1的比例进行划分,训练了50个Freeze-epoch,200个Unfreeze-epoch,学习率为0.001。在制作数据集时,通过图像捕捉和信息标注得到了1280张图像,最后使用Labelimg软件对图像标注形成对应的xml文件,该文件包含有每个探测目标的类型、大小以及位置信息。
所述步骤3利用步骤2处理好的数据集对YOLO、Faster R-CNN神经网络模型进行训练优化,获得训练好的神经网络模型。Faster R-CNN算法相比于YOLO算法,需要多增设一个区域候选网络(Region Proposal Network,RPN)结构,这也使得Faster R-CNN算法在进行计算过程中需要经历两个阶段。Faster R-CNN在进行工作时先使用特征提取网络提取整个图像的特征,再通过RPN生成多个候选区域,值得一提的是Faster R-CNN设置RPN与特征提取网络共享卷积层,很大提升了整个流程的效率。RPN网络中同样包含了softmax分类器和候选框边框修正,只不过这里是判断候选目标是否是所需目标。最后使用全连接层对候选区域进行分类,并且对候选框进行第二次位置精修。
进一步地,区域候选网络(Region Proposal Network,RPN)的作用是在特征图上生成推荐的病害类型,并使用滑动窗口在此特征图上进行滑动将其映射到低维特征,而这个低维特征则被输入到两个分支:边界框回归及分类回归。卷积神经网络输出的是检测病害的回归偏移量,而预测病害的形状及位置等信息需要利用回归偏移量进行处理。由于在卷积特征提取网络的结构中,所提取特征图的尺寸在卷积的过程中越来越小,同时其所检测的地下目标空间体的特征信息也在不断减小。
所述步骤4是在步骤3训练好权重模型的基础上,提取除最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取第一个特征向量,并采用最后一层特征图卷积得到的信息作为特征图并进行后续操作。
所述步骤5是利用类别激活映射对预测特征进行可视化分析。类别激活映射图能够表征一张预测图片中不同区域的特征贡献程度。它是一张与原始探地雷达数据集中图像大小相同的图片,图片上每一点的灰度值代表该区域对目标检测的贡献大小。为了更清晰表示图像中不同位置的差异,使用Opencv函数将其转换为彩色图,其中越偏红色贡献度越大,越偏蓝色贡献度越小。相较于其他类别激活映射方法,该方法对卷积神经网络中全连接层产生的分类错误具有鲁棒性,不依赖梯度的反向传播、类相关性得分、最大激活位置或任何其他形式的加权特征,并且适用于所有卷积神经网络模型,无需修改图层或重新训练模型。
进一步地,类别激活映射的主要实现原理如下:
输入图像I∈Ri,j的大小为(i×j),最后一层特征层中大小为(m,n)的前k层组合权重矩阵WL=n投影到最后一个特征层L=k的图像OL=k,表达式如下:
分解OL=k,使用奇异值分解计算OL=k的主成分,表达式如下:
OL=k=UΣVT (2)
U是M×M的正交矩阵,U列是左奇异向量,Σ是大小为M×N的对角矩阵,沿对角线具有奇异值,V是N×N正交矩阵,V列是左奇异向量;
进一步地,步骤5中,类别激活映射LCAM由OL=k在第一个特征向量上的投影给出,表达式如下:
LCAM=OL=KV1 (3)
V1是V矩阵中的第一个特征向量。
结合本发明的有益效果以及说明书附图1和2说明以下实施例:
实施例一:
本实施例采用的3D-GPR设备是由挪威3D雷达公司生产的GeoScope 3D GPR系统。达天线应用步进式频率技术,能够较好地兼顾浅层高分辨率成像和更深结构层的探测。选择某一城市主干道作为检测道路,测线里程共计约300km,最高车速设置为15km/h。按照上述步骤对采集到的探地雷达原始图像数据进行预处理操作,接着进行模型设计,同时需要数据增强、图像标注来制作数据集,最后进行模型试验与对比分析。
进一步地,利用类别激活映射对预测特征进行可视化分析结果如图2所示。
本发明基于从事此类产品丰富的实务经验及专业知识,形成了基于类别激活映射的探地雷达道路病害图像预测可视化方法,能够有效解决现有探地雷达图像智能识别方法无法表征学习特征的问题。相比背景技术中的现有技术,本发明利用类别激活映射,对建立模型的预测原理和工作机制的解释有一定意义,一定程度上揭示了深度学习模型对探地雷达图像进行特征提取的原理。YOLOv4模型在病害区的关注区域更加集中,更符合人工病害识别经验,印证了其综合性能较好的预测结果。同时类别激活映射对卷积神经网络中完全连接的层产生的分类错误具有鲁棒性,不依赖梯度的反向传播、类相关性得分、最大激活位置或任何其他形式的加权特征,并且适用于所有卷积神经网络模型,无需修改图层或重新训练模型。

Claims (8)

1.一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集,利用通过训练得到标准权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图,通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据进行可视化评估过程。
2.根据权利要求1所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:探地雷达道路病害图像预测可视化方法为将采集后雷达数据进行提高病害区域对比度以及不同类型病害的标注后形成图像数据集的过程为:
将采集的雷达数据进行提高病害区域对比度的数据预处理后,形成探地雷达图像,对探地雷达图像中的不同类型病害进行标注,制作形成图像数据集。
3.根据权利要求1所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:利用通过训练得到权重模型对图像数据集进行特征向量的投影的计算得到RGB彩色图的过程为:将得到的图像数据集分为训练集、验证集和测试集,利用卷积神经网络一阶段法YOLO系列模型和二阶段法的Faster R-CNN模型进行迭代训练,得到精准率处于80~95%权重模型,作为训练后的标准权重模型,提取标准权重模型中最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取并计算第一个特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,使用Opencv函数将类别激活映射图转换为RGB彩色图。
4.根据权利要求3所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:通过RGB彩色图中的彩色颜色分布规律形成对采集后雷达数据进行可视化评估过程为:RGB彩色图中依据RGB值的具体数值以及贡献度不同,形成对应的定量可视化的评估结果。
5.根据权利要求3所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:图像数据集中的探地雷达图像尺寸相同,标注区域边缘的图像特征振幅对比值取值范围为1~2mm。
6.根据权利要求3所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:图像数据集中的训练集、验证集和测试集图像占比为7:2:1,精确率Precision表达式为:
其中,TP表示该目标是正例,且在目标检测任务中被预测为正例的个数;FP表示该目标是负例,且在目标检测任务中被预测为负例的个数,精确率表示提取出的正确信息条数和提取出的信息条数之比。
7.根据权利要求1、2、3、4、5或6所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:训练后提取标准权重模型中最后池化层和Softmax层的最后一层特征层,分解特征层中每个特征图的类别权重,提取并计算第一个特征向量的投影的计算过程为:
输入图像I∈Ri,j的大小为(i×j),最后一层特征层中大小为(m,n)的前k层组合权重矩阵WL=n投影到最后一个特征层L=k的图像OL=k,表达式如下:
分解OL=k,使用奇异值分解计算OL=k的主成分,表达式如下:
OL=k=UΣVT
上式中,U是M×M的正交矩阵,U列是左奇异向量,Σ是大小为M×N的对角矩阵,沿对角线具有奇异值,V是N×N正交矩阵,V列是左奇异向量。
8.根据权利要求7所述的一种基于类别激活映射的探地雷达道路病害图像预测可视化方法,其特征在于:计算标准权重模型中特征向量的投影,通过ReLU激活和归一化操作得到类别激活映射图,使用Opencv函数将其转换为RGB彩色图,其中一种颜色的颜色深度越深,表明RGB值越大,对应的贡献度越大,一种颜色的颜色深度越深,表明RGB值越小,对应的贡献度越小,将该图像覆盖到原始图片中得到可视化结类别激活映射LCAM由OL=k在第一个特征向量上的投影给出,表达式为:
LCAM=OL=KV1
上式中,V1为V矩阵中的第一个特征向量,OL=k为最后一个特征层L=k的图像。
CN202311120320.6A 2023-08-31 2023-08-31 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法 Active CN117152083B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311120320.6A CN117152083B (zh) 2023-08-31 2023-08-31 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311120320.6A CN117152083B (zh) 2023-08-31 2023-08-31 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法

Publications (2)

Publication Number Publication Date
CN117152083A true CN117152083A (zh) 2023-12-01
CN117152083B CN117152083B (zh) 2024-04-09

Family

ID=88905641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311120320.6A Active CN117152083B (zh) 2023-08-31 2023-08-31 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法

Country Status (1)

Country Link
CN (1) CN117152083B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100121577A1 (en) * 2008-04-24 2010-05-13 Gm Global Technology Operations, Inc. Three-dimensional lidar-based clear path detection
CN106846316A (zh) * 2017-02-10 2017-06-13 云南电网有限责任公司电力科学研究院 一种gis内部典型缺陷图像自动识别方法
CN111144352A (zh) * 2019-12-30 2020-05-12 杭州电子科技大学 一种面向人脸图像智能感应的安全传输与识别方法
CN114266892A (zh) * 2021-12-20 2022-04-01 江苏燕宁工程科技集团有限公司 一种多源数据深度学习的路面病害识别方法及系统
CN114373079A (zh) * 2022-01-10 2022-04-19 东南大学 一种快速准确的探地雷达目标检测方法
CN114548278A (zh) * 2022-02-22 2022-05-27 西安建筑科技大学 基于深度学习的在役隧道衬砌结构缺陷识别方法及系统
CN114581887A (zh) * 2022-03-07 2022-06-03 上海人工智能创新中心 车道线的检测方法、装置、设备和计算机可读存储介质
CN115294467A (zh) * 2022-07-22 2022-11-04 安徽大学 茶叶病害的检测方法及相关装置
CN115616674A (zh) * 2022-10-12 2023-01-17 广州肖宁道路工程技术研究事务所有限公司 探地雷达训练数据集模拟扩增与道路无损检测方法及系统
CN115631344A (zh) * 2022-10-06 2023-01-20 中国人民解放军国防科技大学 一种基于特征自适应聚合的目标检测方法
CN115761736A (zh) * 2022-11-29 2023-03-07 长安大学 基于多维探地雷达图像的地下空洞智能检测方法与系统
CN116363641A (zh) * 2023-03-28 2023-06-30 联想(北京)有限公司 一种图像处理方法、装置及电子设备
CN116385369A (zh) * 2023-02-07 2023-07-04 清华大学 深度图像质量评价方法、装置、电子设备及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100121577A1 (en) * 2008-04-24 2010-05-13 Gm Global Technology Operations, Inc. Three-dimensional lidar-based clear path detection
CN106846316A (zh) * 2017-02-10 2017-06-13 云南电网有限责任公司电力科学研究院 一种gis内部典型缺陷图像自动识别方法
CN111144352A (zh) * 2019-12-30 2020-05-12 杭州电子科技大学 一种面向人脸图像智能感应的安全传输与识别方法
CN114266892A (zh) * 2021-12-20 2022-04-01 江苏燕宁工程科技集团有限公司 一种多源数据深度学习的路面病害识别方法及系统
CN114373079A (zh) * 2022-01-10 2022-04-19 东南大学 一种快速准确的探地雷达目标检测方法
CN114548278A (zh) * 2022-02-22 2022-05-27 西安建筑科技大学 基于深度学习的在役隧道衬砌结构缺陷识别方法及系统
CN114581887A (zh) * 2022-03-07 2022-06-03 上海人工智能创新中心 车道线的检测方法、装置、设备和计算机可读存储介质
CN115294467A (zh) * 2022-07-22 2022-11-04 安徽大学 茶叶病害的检测方法及相关装置
CN115631344A (zh) * 2022-10-06 2023-01-20 中国人民解放军国防科技大学 一种基于特征自适应聚合的目标检测方法
CN115616674A (zh) * 2022-10-12 2023-01-17 广州肖宁道路工程技术研究事务所有限公司 探地雷达训练数据集模拟扩增与道路无损检测方法及系统
CN115761736A (zh) * 2022-11-29 2023-03-07 长安大学 基于多维探地雷达图像的地下空洞智能检测方法与系统
CN116385369A (zh) * 2023-02-07 2023-07-04 清华大学 深度图像质量评价方法、装置、电子设备及存储介质
CN116363641A (zh) * 2023-03-28 2023-06-30 联想(北京)有限公司 一种图像处理方法、装置及电子设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YONG ZHOU等: ""Review of Intelligent Road Defects Detection Technology"", 《SUSTAINABILITY》, 22 May 2022 (2022-05-22), pages 1 - 19 *
张诗慧: ""基于RetinaNet的高铁无砟轨道板表面裂缝检测方法研究"", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》, 15 February 2023 (2023-02-15), pages 033 - 200 *
董学恒: ""车载式路面异常检测定位系统及方法研究"", 《中国优秀硕士学位论文全文数据库工程科技Ⅰ辑》, 15 June 2023 (2023-06-15), pages 026 - 27 *
金侠挺等: ""基于贝叶斯CNN和注意力网络的钢轨表面缺陷检测系统"", 《自动化学报》, 31 December 2019 (2019-12-31), pages 2312 - 2327 *

Also Published As

Publication number Publication date
CN117152083B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
CN111080629B (zh) 一种图像拼接篡改的检测方法
CN110210463B (zh) 基于Precise ROI-Faster R-CNN的雷达目标图像检测方法
CN110969088B (zh) 一种基于显著性检测与深度孪生神经网络的遥感影像变化检测方法
CN112329588B (zh) 一种基于Faster R-CNN的管道故障检测方法
CN110826389B (zh) 基于注意力3d频率卷积神经网络的步态识别方法
CN109871875B (zh) 一种基于深度学习的建筑物变化检测方法
CN110826428A (zh) 一种高速的sar图像中船只检测方法
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN114973002A (zh) 一种基于改进的YOLOv5的麦穗检测方法
CN108171119B (zh) 基于残差网络的sar图像变化检测方法
CN111027497A (zh) 基于高分辨率光学遥感影像的弱小目标快速检测方法
CN115797354A (zh) 用于检测激光焊接焊缝外观缺陷的方法
CN114266977A (zh) 基于超分辨可选择网络的多auv的水下目标识别方法
CN112115795B (zh) 一种基于Triple GAN的高光谱图像分类方法
CN111563408B (zh) 多层次感知特征渐进自学习的高分辨率影像滑坡自动检测方法
CN111639697A (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN111275680B (zh) 基于Gabor卷积网络的SAR图像变化检测方法
CN116934820A (zh) 基于交叉注意力的多尺寸窗口Transformer网络布匹图像配准方法及系统
CN117152083B (zh) 一种基于类别激活映射的探地雷达道路病害图像预测可视化方法
CN116912670A (zh) 基于改进yolo模型的深海鱼类识别方法
CN114862883A (zh) 一种目标边缘提取方法、图像分割方法及系统
CN114066795A (zh) Df-sas高低频声呐图像精细配准融合方法
CN109409375B (zh) 一种基于轮廓结构学习模型的sar图像语义分割方法
CN103399893B (zh) 一种基于分层感知的目标检索方法
CN114842309B (zh) 一种熟悉场景下熟悉目标的优化识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant