CN114627052A - 一种基于深度学习的红外图像漏气漏液检测方法及系统 - Google Patents

一种基于深度学习的红外图像漏气漏液检测方法及系统 Download PDF

Info

Publication number
CN114627052A
CN114627052A CN202210117000.4A CN202210117000A CN114627052A CN 114627052 A CN114627052 A CN 114627052A CN 202210117000 A CN202210117000 A CN 202210117000A CN 114627052 A CN114627052 A CN 114627052A
Authority
CN
China
Prior art keywords
network
infrared thermal
target detection
infrared
anchor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210117000.4A
Other languages
English (en)
Inventor
高�浩
黄卫
冯书谊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN202210117000.4A priority Critical patent/CN114627052A/zh
Publication of CN114627052A publication Critical patent/CN114627052A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明提供一种基于深度学习的红外图像漏气漏液检测方法,该方法包括以下步骤:采集漏气漏液场景下的红外热图像数据;对漏气漏液场景下的红外热图像数据进行预处理,在红外热图像数上标注漏气漏液信息,得到训练数据集,并使用该训练数据集训练目标检测网络,获得训练完成的目标检测网络权重;获取并预处理待检测场景下的红外热成像数据,加载训练完成的目标检测网络权重,对目标检测网络输入待检测场景下的红外热成像数据进行实时检测,获取检测结果;将检测结果可视化输出。本发明基于深度学习的目标检测算法,使用现场数据进行训练神经网络,使用神经网络相对于传统方法更加快速、准确和稳定的特性,提高检测的自动化程度和精确度。

Description

一种基于深度学习的红外图像漏气漏液检测方法及系统
技术领域
本发明涉及一种基于深度学习的红外图像漏气漏液检测方法及系统,属于智能目标检测技术领域。
背景技术
在目标检测领域中,和红外热成像技术结合的红外目标检测系统具有全天候、可探测距离远、不受大气和光照条件影响等优点,能够在雨雪、大雾、夜间等环境中实现较好的检测效果,具有广泛的应用前景。同时,红外目标检测是红外侦查、智能安防、夜间辅助驾驶等领域的基础任务。
红外热成像检测泄漏气体和泄露液体技术是利用热像仪接收包含流体特征吸收峰波段的红外辐射来完成对泄漏物体的成像检测。传统的红外目标检测方法大多沿用可见光图像的检测方式,根据红外目标与背景的灰度值差异进行人工设计特征来提取目标的浅层语义特征,并利用这些特征进行目标识别与分类。在人工设计特征方法中,根据特征提取方式的不同,可以将其划分为基于兴趣域搜索的红外目标检测、基于阈值分割的红外目标检测以及基于统计学习的红外目标检测。
然而,现有的深度学习目标检测算法大多基于卷积神经网络,通过提取图像颜色、纹理、几何等特征构建高层语义,红外图像边缘模糊、对比度不佳等特点会在一定程度上影响模型的语义表达能力,降低算法的检测精度。与此同时,大规模的目标检测模型对内存和算力有着较高要求,无法满足在嵌入式设备中的实时部署需求。
发明内容
本发明的目的在于克服现有技术中的不足,提出一种基于深度学习的红外图像漏气漏液检测方法及系统,该方法提高了红外图像漏气漏液检测的速度和精确度。
为达到上述目的,本发明是采用下述技术方案实现的:
第一方面,本发明提供了一种基于深度学习的红外图像漏气漏液检测方法,包括以下步骤:
采集漏气漏液场景下的红外热图像数据;
对漏气漏液场景下的红外热图像数据进行预处理,在红外热图像数上标注漏气漏液信息,得到训练数据集,并使用该训练数据集训练目标检测网络,获得训练完成的目标检测网络权重;
获取并预处理待检测场景下的红外热成像数据,加载训练完成的目标检测网络权重,对目标检测网络输入待检测场景下的红外热成像数据进行实时检测,获取检测结果;
将检测结果可视化输出。
进一步的,红外热图像数据的获取方法包括:对红外热成像仪进行标定以获取红外热成像仪的参数信息,并使用红外热像仪采集待检测场景下的视频数据并解析所述视频数据得到待检测场景下的红外热图像数据;
其中红外热像仪为IR-HiNet-640设备,获取得到的单张热成像图像分辨率大小为640*512,可测温度范围为-22℃至+550℃。
进一步的,对红外热图像数据进行预处理的方法包括以下步骤:
对所述红外热图像数据进行增强,以降低红外热成像中的噪声干扰;
对红外图像数据进行图像增强的方法包括形态学滤波操作;
所述形态学滤波操作包括图像膨胀腐蚀和图像锐化。
进一步的,使用训练数据集训练目标检测网络的方法包括以下步骤:
使用Kmeans算法对训练数据集进行聚类分析得到锚候选框大小,并分配到目标检测网络的大、中、小三个特征尺度上;
使用经过MS COCO数据集进行训练后的网络权重作为目标检测网络的初始权重,使用所述训练数据集对目标检测网络进行训练,得到最终训练的网络参数权重信息。
进一步的,使用Kmeans算法对样本进行聚类分析得到锚候选框并分配到三个特征尺度上,具体方法步骤为:
步骤A:初始化k个anchor box,通过在所有的标注得到的bounding box中随机选取k个值作为k个anchor box的初始值,其中k为设定值,anchor box是锚候选框,boundingbox为数据集中标注得到的检测框;
步骤B:分别计算各bounding box与个anchor box的交并比IOU;
交并比计算方式为anchor box和bounding box的交集和并集的比值:
Figure BDA0003496797580000031
式中,∩为取交集,∪为取并集,IOU为交并比;
计算距离参数d,表示其误差:
d=1-IOU
步骤C:经过前一步的计算可以的到各bounding box对于各anchor box的误差d(n,k),d(n,k)表示第n个bounding box和第k个anchor box的误差距离;
通过比较第i个bounding box其对于各anchor box的误差距离集{d(i,1),d(i,2),…,d(i,k)},选取最小误差的anchor box,将该bounding box分类入该最小误差的anchor box的分类集;
对于每个bounding box均进行分类,获得各anchor box的分类集;
步骤D:对于各anchor box的分类集中的bounding box,求分类集中的boundingbox的宽高中值大小,将其作为该anchor box新的尺寸;
重复步骤B-D,比较新计算得到的bouding box所属的anchor box和原先该bouding box所属的anchor box,如果一致则停止,若不一致则跳转重复步骤B-D,继续计算。
进一步的,所述目标检测网络为改进的YOLO v4网络,包括以下部分:
主干网络:用来提取红外图像数据的特征图;
特征提取网络:用来进一步提取红外图像数据的特征图;
特征融合网络:用来将特征图进行融合;
检测框选取网络:用于选取检测框;
目标检测网络的构造方法包括以下步骤:
借鉴CSPNet后融合的思想,使用新的特征提取网络代替原有的连续的DBL 卷积模块;分别提取两路径的特征图并进行融合,一路使用1*1的卷积保留低层的语义信息,另一路通过多层的卷积池化激活层获取高维语义特征,最终通过shortcut拼接在一起;
提出了新的特征融合模块将三个尺度的特征图进行融合,以提高目标检测网络的精度和速度;
将所述目标检测网络的输入尺寸大小设置为红外热图像数据的原始尺寸大小。
进一步的,所述主干网络为CSPdarknet;所述特征提取网络为 CSPDarknet53;
所述CSPDarknet包括CSPX模块;所述CSPX模块使用1×1卷积将输入特征分解为主干和旁支,其中主干为darknet的残差结构,包含5个残差块,旁支则是由1×1卷积构成的特征变换分支,通过级联的方式实现特征融合;
CSPDarknet使用Mish激活函数作为网络的非线性单元,表达式如下:
f(x)=x·tanh(ln(1+ex))
式中,·为乘号,x是特征图中的参数信息,f(x)为激活函数的输出。
进一步的,所述特征融合模块使用FPN和ASFF特征融合算法将三个尺度的特征图进行融合,具体包括以下步骤:
使用大、中、小三个尺度检测不同大小的目标,对三个尺度的特征信息进行了融合;
对于通道数不一致的情况应用1*1的卷积层将特征通道数压缩到相同层中;
上采样时,采用转置卷积的方式进行上采样;
下采样时,对于1/2比例的降采样,使用3*3的卷积层,步幅为2,同时修改通道数量和分辨率;
对于1/4的比例,在2步卷积之后添加一个步幅为2的最大池化层。
进一步的,所述目标检测网络还包含用于评价模型的预测值和真实值不一样的程度的损失函数,所述损失函数包含:边界框回归损失函数、分类损失函数、置信度损失函数;
其中,分类损失函数和置信度损失函数采用交叉熵;回归损失函数采用 CIOU损失函数;
CIOU损失函数考虑了重叠面积、中心点距离、长宽比,其中,d为预测框和真实框中心点之间的欧氏距离,c代表对角线距离,α为权重参数,ν是衡量长宽比一致性参数;具体公式如下:
Figure 1
Figure BDA0003496797580000062
Figure BDA0003496797580000063
式中,arctan为三角函数,d为预测框和真实框中心点之间的欧氏距离,c代表对角线距离;α为权重参数,h和hgt表示两个box的高,ν是衡量长宽比一致性参数,LCIOU为损失函数。
进一步的,所述检测框选取网络采用非极大值抑制算法,非极大值抑制算法使用DIoU交并值作为的标准,选取检测框的流程如下:
获取生成的边界框;
选取置信度最高的边界框放入集合中;
遍历Bi,计算每个Bi和该候选框的DIoU,使用如下公式进行抑制候选框,最终得到候选框和该候选框的得分;
Figure BDA0003496797580000064
Figure BDA0003496797580000065
其中,Bi代表第i个边界框,Si是该边界框分类得到的置信度分数,ε是预先设置好的阈值,M为argmax得到的置信度最高的边界框,RDIoU是两个候选框中心点之间的距离,b和bgt表示anchor框和目标框的中心点,c是包含两个box 的最小box的对角线长度。
第二方面,本发明提供了一种基于深度学习的红外图像漏气漏液检测系统,包括:
采集模块:用于采集漏气漏液场景下的红外热图像数据;
训练模块:用于对漏气漏液场景下的红外热图像数据进行预处理,在红外热图像数上标注漏气漏液信息,得到训练数据集,并使用该训练数据集训练目标检测网络,获得训练完成的目标检测网络权重;
检测模块:用于获取并预处理待检测场景下的红外热成像数据,加载训练完成的目标检测网络权重,对目标检测网络输入待检测场景下的红外热成像数据进行实时检测,获取检测结果;
输出模块:用于将检测结果可视化输出。
第三方面,本发明提供了一种基于深度学习的红外图像漏气漏液检测系统,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行第一方面所述方法的步骤。
与现有技术相比,本发明所达到的有益效果:
1、本发明基于深度学习的目标检测算法,使用现场数据进行训练神经网络,使用神经网络相对于传统方法更加快速、准确和稳定的特性,提高检测的自动化程度和精确度;本发明通过深度学习的方法,有效解决了工业场景中存在的漏气漏液的检测问题。
2、本发明使用基于形态学滤波的图像增强算法,抑制红外图像噪声,增强了图像部分边缘信息。
3、在原YOLO v4的neck结构中,存在大量的CBL卷积模块,本发明更改该模块的网络结构为CSPDarknet以减少计算量。将目标检测网络中的特征图作为输入,利用卷积分别提取两路径的特征并进行融合,一路使用1*1的卷积保留低层的语义信息,另一路通过多层的卷积池化激活层获取高维语义特征,最终通过shortcut拼接在一起。
4、本发明使用IR-HiNet热像仪,采用优异的成像处理电路,具备体积小、功耗低、启动快速、成像质量优异、测温精准等特点。HiNet-640是一个非制冷式氧化钒红外探测器,能够生成640*512像素的热图像,这可以使热成像更加精准,在较远距离依然可以显示更多细节。
5、为了解决复杂场景下的多尺度目标检测问题,提高模型精度,本发明提出新的特征融合网络,对三个尺度的特征信息进行了融合。浅层特征能够保留空间信息,有利于正确定位像素点,生成更加精确的目标检测框,然而随着特征层深度增加,图像空间分辨率在不断降低,这种准确的空间信息也在不断丢失但是其具有丰富的语义信息,对于这种特征不一致性,使用特征融合网络学习了空间信息,以抑制不同特征图的不一致性,从而提高特征的尺度不变性。
6、本发明中提出的特征融合模块的网络结构图,YOLO通过主干网络的特征提取分别下采样输出1/8,1/16,1/32倍,浅层特征能够保留空间信息,有利于正确定位像素点,生成更加精确的目标检测框,然而随着特征层深度增加,图像空间分辨率在不断降低,这种准确的空间信息也在不断丢失但是其具有丰富的语义信息,对于这种特征不一致性,使用特征融合网络学习了空间信息,以抑制不同特征图的不一致性,从而提高特征的尺度不变性。由于YOLO v4中三个层次的特征具有不同的分辨率和不同的通道数量,因此相应地对每个尺度的上采样和下采样策略进行改进。可以从1/8下采样到1/32,每个特征图最后都是其他特征图上采样或下采样并和自身拼接融合得到,通过这种融合方式,极大的抑制了每个尺度的不一致性。
附图说明
图1为本发明中红外热像仪传感器;
图2为本发明中使用图像增强技术的结果图;
图3为本发明中为改进的特征提取模块网络示意图;
图4为本发明中的提出的特征融合模块的网络结构图;
图5为本发明单帧图像检测的可视化结果。
图6为本发明中主干网络示意图;
图7为本发明中特征提取模块四倍上采样网络结构图;
图8为本发明中特征提取模块四倍下采样网络结构图;
图9为本发明的流程图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例一:
本实施例提供一种基于深度学习的红外图像漏气漏液检测方法。针对红外图像分辨率不高,信噪比低,红外热像不均匀等特点,本发明使用图像增强技术在一定程度上减少噪声,平滑物体轮廓以及增强对比度,同时提出特征提取模块和特征融合模块以提高目标检测网络对红外图像特征的学习能力和检测速度。具体来讲,首先使用红外热像仪IR-HiNet-640采集漏气漏液场景下的视频数据并解析得到红外热图像数据。其次,使用图像膨胀腐蚀操作抑制背景噪声、采用图像锐化操作即拉普拉斯算子来增强图像的突变信息、细节和边缘信息。并使用标注软件进行标注得到最终的数据集。步骤三,使用Kmeans算法对样本进行聚类分析得到锚候选框并分配到三个特征尺度上,对目标检测网络YOLO v4网络进行改进,借鉴CSPNet后融合的思想,提出特征提取模块代替原有的连续的DBL卷积模块以减少网络参数,增加梯度信息,并提出新的特征融合模块将三个尺度的特征图进行融合,以提高目标检测网络的精度,回归框损失函数采用CioU损失以及引入NMS-CIoU非极大值抑制算法。同时,为了避免网络训练出现过拟合的问题同时减少网络的训练时间,使用经过MSCOCO数据集进行训练后的权重作为初始权重,使用红外热成像数据集对网络进行训练,得到最终训练的网络参数权重信息。最后,加载网络权重信息,读取红外热成像的视频流,为了减少多余的计算量,修改网络部分内容以适应将原尺寸大小 (640*512)的原始数据直接输入到目标检测网络中进行实时检测,并将检测结果可视化。相比较于漏气漏液检测的传统方法和其他传感器检测方法,本发明在自制数据集中达到了很好的检测效果。
具体的,本方法包括以下步骤:
步骤一,使用红外热像仪IR-HiNet-640采集漏气漏液场景下的视频数据并解析得到红外热图像数据。
步骤二,使用图像膨胀腐蚀、图像锐化等形态学滤波操作对图像进行增强,降低红外热成像中的噪声干扰,并使用标注软件进行标注得到最终的数据集。
步骤三,使用Kmeans算法对样本进行聚类分析得到锚候选框并分配到三个特征尺度上,对目标检测网络YOLO v4网络进行改进,借鉴CSPNet后融合的思想,使用新的特征提取网络代替原有的连续的DBL卷积模块,并提出了新的特征融合模块将三个尺度的特征图进行融合,以提高目标检测网络的精度和速度。同时,为了避免网络训练出现过拟合的问题同时减少网络的训练时间,使用经过MS COCO数据集进行训练后的权重作为初始权重,使用红外热成像数据集对网络进行训练,得到最终训练的网络参数权重信息。
步骤四,加载网络权重信息,读取红外热成像的视频流,为了减少计算,修改网络将原尺寸大小(640*512)的数据输入到目标检测网络中进行实时检测,并将检测结果可视化。
具体的,步骤一中,使用红外热像仪采集漏气漏液场景下的视频数据并解析得到红外热图像数据,其中红外热像仪采用IR-HiNet-640设备,获取得到的单张热成像图像分辨率大小为640*512,可测温度范围为-22℃至+550℃。
具体的,步骤二中,形态学滤波运算就是通过在原始图像上移动结构元素,结构元素与图像进行逻辑运算后输出图像。假设输入图像A,B代表结构元素, z表示实整数的集合,使用B对A分别进行膨胀和腐蚀的定义为:
Figure BDA0003496797580000111
Figure BDA0003496797580000112
从上式可以看出,膨胀操作是先将结构元素B进行原点映像,然后以z对映像在A上进行位移,结构元素B与覆盖的A进行或操作,最终得到输出结果。整个膨胀的运算过程与上文介绍的卷积操作过程类似。使用膨胀运算处理图像的后能够将图像中细小的断裂变成连通的区域。而腐蚀操作就是用z平移结构元素B,输出结果为B包含于A中的所有点z的集合。腐蚀操作通过控制结构元素的大小来消除图像中小于结构元素大小的细节。
具体的,步骤二中,图像锐化操作使用拉普拉斯算子(Laplace Operator),拉普拉斯算子是n维欧几里德空间中的一个二阶微分算子,是工程数学中常用的一种积分变换,属于空间锐化滤波操作,Laplace算子的差分形式为:
Figure BDA0003496797580000121
转换为滤波器掩码的形式为:
0 1 0
1 -4 1
0 1 0
mask在上下左右四个90度的方向上结果相同,也就是说在90度方向上无方向性。为了让该mask在45度的方向上也具有该性质,对该filter mask进行扩展定义为:
1 1 1
1 -8 1
1 1 1
具体的,步骤三中,使用Kmeans算法对样本进行聚类分析得到锚候选框并分配到三个特征尺度上,具体方法步骤为:
(1)初始化k个anchor box,通过在所有的bounding box中随机选取k个值作为k个anchor box的初始值,其中k为9。
(2)计算每个bounding box与每个anchor box的交并比(Intersection overUnion)值。Iou计算方式为anchor box和bounding box的交集和并集的比值:
Figure BDA0003496797580000122
由于iou值往往越大越好,定义距离参数d,表示其误差:
d=1-IOU
(3)经过前一步的计算可以的到每一个bounding box对于每个anchor box的误差d(n,k),我们通过比较每个bounding box其对于每个anchor box的误差大小{d(i,1),d(i,2),…,d(i,k)},选取最小误差的那个anchor box,将这个bounding box分类给它,对于每个bounding box都做这个操作,最后记录下来每个anchor box有哪些bounding box属于它。
(4)对于每个anchor box中的那些bounding box,我们再求这些bounding box 的宽高中值大小,将其作为该anchor box新的尺寸。重复第2步到第4步,直到在第4步中发现对于全部bounding box其所属的anchor box类与之前所属的 anchor box类一样。最终得到的结果如下:
锚点框1 锚点框2 锚点框3
特征图1 (120,113) (176,207) (243,276)
特征图2 (32,61) (62,45) (59,119)
特征图3 (10,13) (16,30) (33,23)
具体的,步骤三中,特征提取网络使用CSPDarknet。CSPDarknet是由 CSPX构成的模块化网络,CSPX模块使用1×1卷积将输入特征分解为主干和旁支,其中主干为darknet的残差结构,包含X个残差块,旁支则是由1× 1卷积构成的特征变换分支,目的是实现通道数目的匹配,最后通过级联的方式实现特征融合。CSPDarknet使用Mish激活函数作为网络的非线性单元,与 ReLU激活函数相比,它的计算量比较大,但在CSPDarknet这种深度神经网络中显示了比ReLU更好的结果,它的特点是无上限,但是有下限、光滑、非单调。具体表达式如下:
f(x)=x·tanh(ln(1+ex))
具体的,步骤三中,在YOLO v4的neck结构中,存在大量的CBL卷积模块,该结构的输入特征通常是CSPDarknet的高层输出特征或者路径聚合网络的级联输出结果,拥有较大的特征尺寸和通道数目,直接使用3*3的卷积对其进行特征提取会引入较大的参数量和计算复杂度,因此借鉴CSPNet中后融合的思想,设计新的特征提取模块代替原网络中连续的CBL模块,分别提取两路径的特征并进行融合。具体来说,一路使用1*1的卷积保留低层的语义信息,同时可以减少计算,另一路通过多层的卷积池化激活层获取高维语义特征,其中激活层使用Leaky-Relu激活函数。最终通过shortcut拼接在一起,这种跨连接网络可以获取更丰富的梯度信息,同时大大减少了计算量,提高网络的推理速度和准确率。
具体的,如图6所示,步骤三中,YOLOv4沿用YOLOv3的结构设计,使用三个尺度检测不同大小的目标,其中,1/32大小的特征图具有较大的感受野和丰富的语义信息,适合检测大尺寸的目标;1/8大小的特征图具有较大的图像分辨率,几何细节信息表征能力强,适合检测小尺寸的目标,1/16大小的特征图用来检测一般大小的物体。为了解决复杂场景下的多尺度目标检测问题,提高模型精度,本发明提出新的特征融合网络,对三个尺度的特征信息进行了融合。浅层特征能够保留空间信息,有利于正确定位像素点,生成更加精确的目标检测框,然而随着特征层深度增加,图像空间分辨率在不断降低,这种准确的空间信息也在不断丢失但是其具有丰富的语义信息,对于这种特征不一致性,使用特征融合网络学习了空间信息,以抑制不同特征图的不一致性,从而提高特征的尺度不变性。
由于YOLO v4中三个层次的特征具有不同的分辨率和不同的通道数量,因此相应地对每个尺度的上采样和下采样策略进行改进。对于通道数不一致的情况可以应用1*1的卷积层将特征通道数压缩到相同层中。
上采样时,如图7所示,采用转置卷积的方式进行上采样。转置卷积是一种基于学习的方式,相比于线性插值,可以更好的学习网络参数,信息损失小,映射能力大。本发明中一次转置卷积将进行两倍的上采样以提高分辨率,对于 1/32层到1/8则需要分别使用两次转置卷积操作。
下采样时,对于1/2比例的降采样,首先简单地使用3*3的卷积层,步幅为 2,同时修改通道数量和分辨率。对于1/4的比例,我们在2步卷积之后添加一个步幅为2的最大池化层。四倍下采样过程如图8所示。
具体的,步骤四中,加载网络权重信息,读取红外热成像的视频流,修改网络将原尺寸大小(640*512)的热成像数据输入到目标检测网络中进行实时检测,并使用可视化工具将检测结果可视化,其中该图像经过主干网络1/32下采样之后得到的特征图大小为20*16,1/8和1/16对应得到的特征图大小分别为 80*64,40*32。其中由于类别种类是2,所以通道数为21,计算公式为((2+5)*3)。其中2为类别数,5包含坐标相关信息(w,h,x,y)和有无目标,3为三个不同尺度的特征图。
具体的,损失函数主要包含三个部分:边界框回归损失函数、分类损失函数、置信度损失函数。其中分类损失函数和置信度损失函数采用交叉熵,而回归损失函数采用CIOU损失函数。CIOU损失函数考虑了重叠面积、中心点距离、长宽比等几何信息其中d为预测框和真实框中心点之间的欧氏距离,c代表对角线距离。α为权重参数,ν是衡量长宽比一致性参数。具体公式如下:
Figure BDA0003496797580000161
Figure BDA0003496797580000162
Figure BDA0003496797580000163
具体的,在原始的NMS中,IoU指标用于抑制多余的检测框,但由于仅考虑了重叠区域,经常会造成错误的抑制,特别是在bbox包含的情况下。因此,可以使用DIoU作为NMS的标准,不仅考虑重叠区域,还考虑了中心点距离,具体表达式如下所示,其中Bi代表第i个边界框,Si是该边界框分类得到的置信度分数,ε是预先设置好的阈值,M为argmax得到的置信度最高的边界框。首先选取置信度最高的候选框放入集合中,然后遍历Bi,计算每个Bi和该候选框的 DIoU,使用如下公式进行抑制候选框,最终得到经过NMS一致的候选框和该候选框的得分。
Figure BDA0003496797580000164
Figure BDA0003496797580000165
如图1所示,为IR-HiNet热像仪。1为高性能红外镜头,2为低噪声非制冷红外机芯,采用优异的成像处理电路,具备体积小、功耗低、启动快速、成像质量优异、测温精准等特点。HiNet-640是一个非制冷式氧化钒红外探测器,能够生成640*512像素的热图像,这可以使热成像更加精准,在较远距离依然可以显示更多细节。
如图2所示,为本发明中图像增强的结果图,其中图2上和图2下的左侧图片为原图,图2上右侧为经过拉普拉斯算子增强后的结果,图2下中、右分别为经过腐蚀、膨胀后的结果。
如图3所示,为本发明中设计的跨连接融合网络,分别提取两路径的特征并进行融合。具体来说,一路使用1*1的卷积保留低层的语义信息,同时可以减少计算,另一路通过多层的卷积池化激活层获取高维语义特征,最终通过 shortcut拼接在一起,这种跨连接网络可以获取更丰富的梯度信息,这种模块可以替代原有网络中连续的CBL模块,大大减少了计算量,提高网络的推理速度和准确率。
如图4所示,为本发明中提出的特征融合模块的网络结构图,YOLO通过主干网络的特征提取分别下采样输出1/8,1/16,1/32倍,我们对这三个尺度的特征信息进行了融合。浅层特征能够保留空间信息,有利于正确定位像素点,生成更加精确的目标检测框,然而随着特征层深度增加,图像空间分辨率在不断降低,这种准确的空间信息也在不断丢失但是其具有丰富的语义信息,对于这种特征不一致性,使用特征融合网络学习了空间信息,以抑制不同特征图的不一致性,从而提高特征的尺度不变性。由于YOLO v4中三个层次的特征具有不同的分辨率和不同的通道数量,因此相应地对每个尺度的上采样和下采样策略进行改进。
上采样时,首先应用1*1的卷积层将特征通道数压缩到相同层中,然后通过反卷积方法分别提高分辨率。对于1/2比例的降采样,首先简单地使用3*3的卷积层,步幅为2,同时修改通道数量和分辨率。对于1/4的比例,在2步卷积之后添加一个步幅为2的最大池化层,这样可以从1/8下采样到1/32,每个特征图最后都是其他特征图上采样或下采样并和自身拼接融合得到,通过这种融合方式,极大的抑制了每个尺度的不一致性。
实施例二:
本实施例提供一种基于深度学习的红外图像漏气漏液检测系统,包括:
采集模块:用于采集漏气漏液场景下的红外热图像数据;
训练模块:用于对漏气漏液场景下的红外热图像数据进行预处理,在红外热图像数上标注漏气漏液信息,得到训练数据集,并使用该训练数据集训练目标检测网络,获得训练完成的目标检测网络权重;
检测模块:用于获取并预处理待检测场景下的红外热成像数据,加载训练完成的目标检测网络权重,对目标检测网络输入待检测场景下的红外热成像数据进行实时检测,获取检测结果;
输出模块:用于将检测结果可视化输出。
本实施例的装置可用于实施实施例一所述方法的步骤。
实施例三:
本发明实施例还提供了一种基于深度学习的红外图像漏气漏液检测系统,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行实施例一所述方法的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和 /或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/ 或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (10)

1.一种基于深度学习的红外图像漏气漏液检测方法,其特征在于,包括以下步骤:
采集漏气漏液场景下的红外热图像数据;
对漏气漏液场景下的红外热图像数据进行预处理,在红外热图像数上标注漏气漏液信息,得到训练数据集,并使用该训练数据集训练目标检测网络,获得训练完成的目标检测网络权重;
获取并预处理待检测场景下的红外热成像数据,加载训练完成的目标检测网络权重,对目标检测网络输入待检测场景下的红外热成像数据进行实时检测,获取检测结果;
将检测结果可视化输出。
2.根据权利要求1所述的红外图像漏气漏液检测方法,其特征在于,红外热图像数据的获取方法包括:对红外热成像仪进行标定以获取红外热成像仪的参数信息,并使用红外热像仪采集待检测场景下的视频数据并解析所述视频数据得到待检测场景下的红外热图像数据;
其中红外热像仪为IR-HiNet-640设备,获取得到的单张热成像图像分辨率大小为640*512,可测温度范围为-22℃至+550℃;
对红外热图像数据进行预处理的方法包括以下步骤:
对所述红外热图像数据进行增强,以降低红外热成像中的噪声干扰;
对红外图像数据进行图像增强的方法包括形态学滤波操作;
所述形态学滤波操作包括图像膨胀腐蚀和图像锐化。
3.根据权利要求1所述的红外图像漏气漏液检测方法,其特征在于,使用训练数据集训练目标检测网络的方法包括以下步骤:
使用Kmeans算法对训练数据集进行聚类分析得到锚候选框大小,并分配到目标检测网络的大、中、小三个特征尺度上;
使用经过MS COCO数据集进行训练后的网络权重作为目标检测网络的初始权重,使用所述训练数据集对目标检测网络进行训练,得到最终训练的网络参数权重信息。
4.根据权利要求3所述的红外图像漏气漏液检测方法,其特征在于,使用Kmeans算法对样本进行聚类分析得到锚候选框并分配到三个特征尺度上,具体方法步骤为:
步骤A:初始化k个anchor box,通过在所有的标注得到的bounding box中随机选取k个值作为k个anchor box的初始值,其中k为设定值,anchor box是锚候选框,bounding box为数据集中标注得到的检测框;
步骤B:分别计算各bounding box与个anchor box的交并比IOU;
交并比计算方式为anchor box和bounding box的交集和并集的比值:
Figure FDA0003496797570000021
式中,∩为取交集,∪为取并集,IOU为交并比;
计算距离参数d,表示其误差:
d=1-IOU
步骤C:经过前一步的计算可以的到各bounding box对于各anchor box的误差d(n,k),d(n,k)表示第n个bounding box和第k个anchor box的误差距离;
通过比较第i个bounding box其对于各anchor box的误差距离集{d(i,1),d(i,2),…,d(i,k)},选取最小误差的anchor box,将该bounding box分类入该最小误差的anchor box的分类集;
对于每个bounding box均进行分类,获得各anchor box的分类集;
步骤D:对于各anchor box的分类集中的bounding box,求分类集中的bounding box的宽高中值大小,将其作为该anchor box新的尺寸;
重复步骤B-D,比较新计算得到的bouding box所属的anchor box和原先该boudingbox所属的anchor box,如果一致则停止,若不一致则跳转重复步骤B-D,继续计算。
5.根据权利要求1所述的红外图像漏气漏液检测方法,其特征在于,所述目标检测网络为改进的YOLO v4网络,包括以下部分:
主干网络:用来提取红外图像数据的特征图;
特征提取网络:用来进一步提取红外图像数据的特征图;
特征融合网络:用来将特征图进行融合;
检测框选取网络:用于选取检测框;
目标检测网络的构造方法包括以下步骤:
借鉴CSPNet后融合的思想,使用新的特征提取网络代替原有的连续的DBL卷积模块;分别提取两路径的特征图并进行融合,一路使用1*1的卷积保留低层的语义信息,另一路通过多层的卷积池化激活层获取高维语义特征,最终通过shortcut拼接在一起;
提出了新的特征融合模块将三个尺度的特征图进行融合,以提高目标检测网络的精度和速度;
将所述目标检测网络的输入尺寸大小设置为红外热图像数据的原始尺寸大小。
6.根据权利要求5所述的红外图像漏气漏液检测方法,其特征在于,所述主干网络为CSPdarknet;所述特征提取网络为CSPDarknet53;
所述CSPDarknet包括CSPX模块;所述CSPX模块使用1×1卷积将输入特征分解为主干和旁支,其中主干为darknet的残差结构,包含5个残差块,旁支则是由1×1卷积构成的特征变换分支,通过级联的方式实现特征融合;CSPDarknet使用Mish激活函数作为网络的非线性单元。
7.根据权利要求5所述的红外图像漏气漏液检测方法,其特征在于,所述特征融合模块使用FPN和ASFF特征融合算法将三个尺度的特征图进行融合,具体包括以下步骤:
使用大、中、小三个尺度检测不同大小的目标,对三个尺度的特征信息进行了融合;
对于通道数不一致的情况应用1*1的卷积层将特征通道数压缩到相同层中;
上采样时,采用转置卷积的方式进行上采样;
下采样时,对于1/2比例的降采样,使用3*3的卷积层,步幅为2,同时修改通道数量和分辨率;
对于1/4的比例,在2步卷积之后添加一个步幅为2的最大池化层。
8.根据权利要求5所述的红外图像漏气漏液检测方法,其特征在于,所述目标检测网络还包含用于评价模型的预测值和真实值不一样的程度的损失函数,所述损失函数包含:边界框回归损失函数、分类损失函数、置信度损失函数;
其中,分类损失函数和置信度损失函数采用交叉熵;回归损失函数采用CIOU损失函数;
所述检测框选取网络采用非极大值抑制算法,非极大值抑制算法使用DIoU交并值作为的标准。
9.一种基于深度学习的红外图像漏气漏液检测系统,其特征在于,包括:
采集模块:用于采集漏气漏液场景下的红外热图像数据;
训练模块:用于对漏气漏液场景下的红外热图像数据进行预处理,在红外热图像数上标注漏气漏液信息,得到训练数据集,并使用该训练数据集训练目标检测网络,获得训练完成的目标检测网络权重;
检测模块:用于获取并预处理待检测场景下的红外热成像数据,加载训练完成的目标检测网络权重,对目标检测网络输入待检测场景下的红外热成像数据进行实时检测,获取检测结果;
输出模块:用于将检测结果可视化输出。
10.一种基于深度学习的红外图像漏气漏液检测系统,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行权利要求1-8任一项所述方法的步骤。
CN202210117000.4A 2022-02-08 2022-02-08 一种基于深度学习的红外图像漏气漏液检测方法及系统 Pending CN114627052A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210117000.4A CN114627052A (zh) 2022-02-08 2022-02-08 一种基于深度学习的红外图像漏气漏液检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210117000.4A CN114627052A (zh) 2022-02-08 2022-02-08 一种基于深度学习的红外图像漏气漏液检测方法及系统

Publications (1)

Publication Number Publication Date
CN114627052A true CN114627052A (zh) 2022-06-14

Family

ID=81898004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210117000.4A Pending CN114627052A (zh) 2022-02-08 2022-02-08 一种基于深度学习的红外图像漏气漏液检测方法及系统

Country Status (1)

Country Link
CN (1) CN114627052A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115273154A (zh) * 2022-09-26 2022-11-01 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于边缘重构的热红外行人检测方法、系统及存储介质
CN115410012A (zh) * 2022-11-02 2022-11-29 中国民航大学 一种夜间机场净空域红外小目标的检测方法、系统及应用
CN115457297A (zh) * 2022-08-23 2022-12-09 中国航空油料集团有限公司 航油油库漏油检测方法、装置及航油安全运维系统
CN115641518A (zh) * 2022-10-09 2023-01-24 山东巍然智能科技有限公司 一种无人机用视图感知网络模型及目标检测方法
CN116152254A (zh) * 2023-04-20 2023-05-23 北京万龙精益科技有限公司 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN116524293A (zh) * 2023-04-10 2023-08-01 哈尔滨市科佳通用机电股份有限公司 基于深度学习的闸调器拉杆头丢失故障图像识别方法及系统
CN116935232A (zh) * 2023-09-15 2023-10-24 青岛国测海遥信息技术有限公司 海上风力设备的遥感图像处理方法和装置、设备和介质
CN117409190A (zh) * 2023-12-12 2024-01-16 长春理工大学 一种实时红外图像目标检测方法、装置、设备及存储介质

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115457297B (zh) * 2022-08-23 2023-09-26 中国航空油料集团有限公司 航油油库漏油检测方法、装置及航油安全运维系统
CN115457297A (zh) * 2022-08-23 2022-12-09 中国航空油料集团有限公司 航油油库漏油检测方法、装置及航油安全运维系统
CN115273154A (zh) * 2022-09-26 2022-11-01 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于边缘重构的热红外行人检测方法、系统及存储介质
CN115641518B (zh) * 2022-10-09 2023-09-26 山东巍然智能科技有限公司 一种无人机用视图感知网络模型及目标检测方法
CN115641518A (zh) * 2022-10-09 2023-01-24 山东巍然智能科技有限公司 一种无人机用视图感知网络模型及目标检测方法
CN115410012B (zh) * 2022-11-02 2023-02-28 中国民航大学 一种夜间机场净空域红外小目标的检测方法、系统及应用
CN115410012A (zh) * 2022-11-02 2022-11-29 中国民航大学 一种夜间机场净空域红外小目标的检测方法、系统及应用
CN116524293A (zh) * 2023-04-10 2023-08-01 哈尔滨市科佳通用机电股份有限公司 基于深度学习的闸调器拉杆头丢失故障图像识别方法及系统
CN116524293B (zh) * 2023-04-10 2024-01-30 哈尔滨市科佳通用机电股份有限公司 基于深度学习的闸调器拉杆头丢失故障识别方法及系统
CN116152254A (zh) * 2023-04-20 2023-05-23 北京万龙精益科技有限公司 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN116152254B (zh) * 2023-04-20 2023-07-28 北京万龙精益科技有限公司 工业泄露目标气体检测模型训练方法、检测方法、电子设备
CN116935232A (zh) * 2023-09-15 2023-10-24 青岛国测海遥信息技术有限公司 海上风力设备的遥感图像处理方法和装置、设备和介质
CN117409190A (zh) * 2023-12-12 2024-01-16 长春理工大学 一种实时红外图像目标检测方法、装置、设备及存储介质
CN117409190B (zh) * 2023-12-12 2024-02-20 长春理工大学 一种实时红外图像目标检测方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN114627052A (zh) 一种基于深度学习的红外图像漏气漏液检测方法及系统
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN109902677B (zh) 一种基于深度学习的车辆检测方法
CN108961235B (zh) 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
Tong et al. Saliency detection with multi-scale superpixels
CN109977997B (zh) 基于卷积神经网络快速鲁棒的图像目标检测与分割方法
CN111260688A (zh) 一种孪生双路目标跟踪方法
CN110084817B (zh) 基于深度学习的数字高程模型生产方法
CN112800964B (zh) 基于多模块融合的遥感影像目标检测方法及系统
CN110163207B (zh) 一种基于Mask-RCNN船舶目标定位方法及存储设备
CN110781756A (zh) 基于遥感图像的城市道路提取方法及装置
CN111753682B (zh) 一种基于目标检测算法的吊装区域动态监控方法
CN115546768B (zh) 基于多尺度机制和注意力机制的路面标线识别方法及系统
CN112418108B (zh) 一种基于样本重加权的遥感图像多类目标检测方法
CN110490155B (zh) 一种禁飞空域无人机检测方法
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN112766136A (zh) 一种基于深度学习的空间车位检测方法
CN112800955A (zh) 基于加权双向特征金字塔的遥感影像旋转目标检测方法及系统
CN112016569A (zh) 基于注意力机制的目标检测方法、网络、设备和存储介质
CN112906816A (zh) 基于光微分与双通道神经网络的目标检测方法和装置
CN115100652A (zh) 基于高分遥感图像的电子地图自动化生成方法
CN115841669A (zh) 一种基于深度学习技术的指针式仪表检测与示数识别方法
CN111915628A (zh) 一种基于预测目标密集边界点的单阶段实例分割方法
CN115965862A (zh) 基于掩码网络融合图像特征的sar舰船目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination