CN116152724A - 一种基于ai算法的可燃气体泄漏区域检测方法 - Google Patents
一种基于ai算法的可燃气体泄漏区域检测方法 Download PDFInfo
- Publication number
- CN116152724A CN116152724A CN202310146461.9A CN202310146461A CN116152724A CN 116152724 A CN116152724 A CN 116152724A CN 202310146461 A CN202310146461 A CN 202310146461A CN 116152724 A CN116152724 A CN 116152724A
- Authority
- CN
- China
- Prior art keywords
- image
- frame
- combustible gas
- gas leakage
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20104—Interactive definition of region of interest [ROI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明属于可燃气体检测领域,具体地而言为一种基于AI算法的可燃气体泄漏区域检测方法,包括对拍摄的可燃气体泄露区域的红外图像数据进行增强处理,进一步利用AI算法对增强后的图像数据进行目标识别和实例分割处理。当泄露发生时,能够达到及时发现泄露发生准确位置,并对泄露事件实时跟踪,同步输出可燃性气体泄露浓度和范围等数据。解决由于采集图像的场景有着复杂性、多变性和不可预测性以及背景图像的动态变化而产生的信噪比差和气团不明显的问题。该方法能够可靠处理光照变化、背景混乱运动的干扰以及长时间的场景变化等。
Description
技术领域
本发明属于可燃气体检测领域,具体地而言为一种基于AI算法的可燃气体泄漏区域检测方法。
背景技术
随着科技水平不断发展和提高,人们对于能源的需求量也逐年增长,一些可燃气体和有害气体被广泛地应用在炼油厂、化工厂、热电厂、远洋作业平台及钻井平台等领域,但可燃气体在运输、生产、加工时有一定的泄露风险,而可燃气体的泄露对公共安全有着极大的危害。所以实现对可燃气体泄露的快速地、实时检测并报警是十分必要的。
现有的可燃气体检测技术,按照检测原理主要分为以下几种类型:电化学式气体传感器、磁学式气体传感器、光学式气体传感器、半导体式气体传感器、气相色谱式气体传感器等。但传统的传感器主要以点测量为主,且受环境影响较大,比如:湿度、温等因素,很难实现大面积的准确检测。光学式气体传感器的原理是由于不同气体的红外吸收峰不同,通过测量和分析红外吸收峰来检测气体,其可以分为主动式红外探测器和被动式红外探测器,主动式红外探测器的结构相对复杂,需要辐射源且存在不能够远距离探测的特点。被动式红外探测器不需要任何辐射源,器件功耗小,可检测的气体种类多,可以在泄露区域以阴影的方式成像,实现对可燃气体泄露区域的面源检测。
利用红外探测器对待检测区域进行拍摄,未处理的图像存在着信噪比差、气团不明显等特点,需要进一步对拍摄的图像进行图像处理,已到达更好的成像效果。由于采集图像的场景有着复杂性、多变性和不可预测性的特点,以及各种环境中干扰和噪声的存在,比如光照的突然变化、室外场景中物体随风的波动、摄像机的抖动、运动物体进出场景对原场景的影响造成的背景图像的动态变化。现有的背景差分法亦称背景减法,常用于检测视频图像中的运动目标,是目前运动目标检测的主流方法之一。其基本原理就是将图像序列中的当前帧和已经确定好或实时获取的背景参考模型(背景图像)做减法,找不同,计算出与背景图像像素差异超过一定阀值的区域作为运动区域,从而来确定运动物体位置、轮廓、大小等特征,非常适用于摄像机静止的场景。由于场景的复杂性、不可预知性、以及各种环境干扰和噪声的存在,如光照的突然变化、实际背景图像中有些物体的波动、摄像机的抖动、运动物体进出场景对原场景的影响等,背景建模算法通常要求在场景中存在运动目标的情况下获取背景图像,这成为背景建模的难点之一。
在工厂、实验室需要存储或生产可燃气体时,其安全性十分重要。在结合AI算法的加持下,可实现实时对泄漏可燃气体进行分析,同步输出可燃气体泄漏的浓度和可燃气体泄漏的气团范围等数据,联动整体业务管理,实现自动报警,达到区域、面源检测,从而提高生产装置安全管理水平。
发明内容
本发明所要解决的技术问题在于提供一种基于AI算法的可燃气体泄漏区域检测方法,解决由于采集图像的场景有着复杂性、多变性和不可预测性以及背景图像的动态变化而产生的信噪比差和气团不明显的问题,解决在工厂、实验室存放或生产可燃性气体时,无人看守,实现自动化监管,当可燃气体发生泄露时自动报警,达到区域、面源检测,从而提高生产装置安全管理水平。
本发明是这样实现的:
一种基于AI算法的可燃气体泄漏区域检测方法,该方法包括:对拍摄的可燃气体泄露区域的红外图像数据进行背景差分法处理,利用AI算法对背景差分法处理后的图像数据进行目标识别和实例分割处理,具体包括:
建立混合高斯模型;
红外摄像机中读取前T帧作为背景帧;
采用混合高斯模型对当前帧与背景帧图像差分得到变化区域;
对所述变化区域进行判别;
当判断变化区域超过设置阈值,则对背景差分检测运动目标;
当判断变化区域未超过设置阈值,则返回采用混合高斯模型对当前帧与背景帧图像差分得到变化区域的步骤;
当判断出有可燃气体泄露时,将增强后的泄露图像输入至Mask RCNN网络中进行目标识别和实例分割处理,对泄露事件实时跟踪,同步输出可燃性气体泄露浓度和范围。
进一步地,利用AI算法检测可燃气体泄露的步骤主要包括:
步骤1:对可燃性气体泄露的区域进行拍摄,获取候选区域的红外视频图像数据;
步骤2:利用高斯混合模型分离算法对拍摄的可燃气体泄露的红外图像进行图像背景减法处理;
步骤3:对步骤2处理后的图像对增强后的可燃气体泄露区域图像进行人工标注,标注内容包括泄露气体泄露区域位置坐标和类别,并制作出区域内有可燃气体泄露和无可燃气体泄漏的数据集;
步骤4:将标注好的图像数据集输入至Mask RCNN网络中,通过backbone模块中的残差网络ResNet101对图像进行特征提取,利用残差网络ResNet101对图像进行特征提取,得到多尺度特征图Conv1,Conv2,Conv3,Conv4,Conv5;
步骤5:取多尺度特征图Conv2-Conv5输入到特征金字塔网络中进行特征融合处理,得到融合多尺度后的特征图P2,P3,P4,P5,P6;
步骤6:遍历每个层的特征图,在图像上每个像素点设定预设好的不同大小、不同长宽比的参照框,对于参照框设置3种不同的尺度,分别为1282、2582和5122像素,以及设置3种不同长宽比率分别为1:1、1:2和2:1,获得多个候选ROI,每个参照框分为正样本和负样本;
步骤7:将含有候选ROI的特征图送入区域建议网络进行二值分类和边框回归,过滤掉一部分候选ROI;
步骤8:对过滤掉一部分候选ROI后剩余的候选ROI区域由于大小不一,所以需要进行区域特征聚集操作转换成相同大小;
步骤9:对步骤8处理后的候选ROI通过两个独立的全卷积模块,采用softmax损失函数预测出可燃气体泄露的大小和位置,同时利用sigmoid函数作为损失函数通过mask分支预测出分类分数前N个的分割mask,基于损失函数反向传播调节权重参数,获得最终训练模型。
进一步地,背景差分法具体包括:
对于输入的可燃气体泄露视频文件一共有T帧数据,用第一帧第一个像素点对第一个高斯模型的期望值μ1进行初始化;下一帧图片对应相同位置的像素点为μ2,判断,当一个新的像素点与任何一个高斯模型的均值μ的之差小于其3倍的标准差σ,将第二帧与第一帧图片在同一像素点上的分布视为相同的高斯分布,并更新当前分布的μ和σ值,此时判定为背景;否则,说明新传入的帧与上一帧图片在该像素点位置属于不同的分布,则利用新传入的一帧再建立一个新的分布,用新传入一帧来初始化新的分布的μ和σ值,此时则判定为前景即为运动物体;其中高斯分布满足:其中,μ为数据均值,σ为数据标准差,x为样本数据;
当获取到背景图像帧B后,当前帧为fn,背景帧和当前帧对应像素点的灰度值分别记为B(x,y)和fn(x,y),将两帧图像对应像素点的灰度值进行相减,并取其绝对值,得到差分图像Dn:
Dn(x,y)=|fn(x,y)-B(x,y)|
设定阈值T,逐个对像素点进行二值化处理,得到二值化图像R′n,其中,灰度值为255的点即为前景点即运动目标,灰度值为0的点即为背景点;对图像Rn'进行连通性分析,最终得到含有完整运动目标的图像Rn:
进一步地,步骤9中泄露气体区域位置坐标表示为P=(x,y,w,h),其中(x,y)代表图像中心点坐标,(w,h)分别代表图像的宽和高;
损失函数定义为:
L=LCLS+Lbox+Lmask
其中,LCLS是分类损失,Lbox是回归框损失,Lmask是mask损失。
本发明与现有技术相比,有益效果在于:
本发明通过混合高斯背景建模法不仅对复杂场景的适应强,而且能通过自动计算的模型参数来对背景模型调整,虽然增加了高斯分布的个数,造成计算量增大,但检测速度很快,且检测准确,容易实现,同时根据新获取的图像,对背景图像参数进行自适应更新。该方法能够可靠处理光照变化、背景混乱运动的干扰以及长时间的场景变化等。
结合AI算法的加持下,实现实时对泄漏可燃气体进行分析,同步输出可燃气体泄漏的浓度和可燃气体泄漏的气团范围等数据,联动整体业务管理,实现自动报警,达到区域、面源检测,从而提高生产装置安全管理水平。
附图说明
图1为本发明实施例提供的基于AI算法的可燃气体泄漏区域检测方法的流程图;
图2为本发明实施例提供的基于AI算法的可燃气体泄漏区域检测方法中背景差分法的示意图;
图3为本发明实施例提供的基于AI算法的可燃气体泄漏区域检测方法中背景差分法的具体步骤流程图;
图4为本发明实施例提供的区域建议网络的结构示意图;
图5为本发明实施例提供的Mask RCNN基本架构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参见图1结合图2和图3所示,本发明实施例提供一种基于AI算法的可燃气体泄漏区域检测系统,包括:
步骤1:对可燃性气体泄露的区域进行拍摄,以获取候选区域的红外视频图像数据;
步骤2:利用高斯混合模型分离算法(MOG)对拍摄的可燃气体泄露的红外图像进行图像背景减法处理;具体包括:
创建第一个高斯模型:对于输入的可燃气体泄露视频文件一共有T帧数据,用第一帧第一个像素点对第一个高斯模型的期望值μ1进行初始化;下一帧图片对应相同位置的像素点为μ2,判断,当一个新的像素点与任何一个高斯模型的均值μ的之差小于其3倍的标准差σ,将第二帧与第一帧图片在同一像素点上的分布视为相同的高斯分布,并更新当前分布的μ和σ值,此时判定为背景;否则,说明新传入的帧与上一帧图片在该像素点位置属于不同的分布,则利用新传入的一帧再建立一个新的分布,用新传入一帧来初始化新的分布的μ和σ值,此时则判定为前景即为运动物体。
当获取到背景图像帧B后,当前帧为fn,背景帧和当前帧对应像素点的灰度值分别记为B(x,y)和fn(x,y),将两帧图像对应像素点的灰度值进行相减,并取其绝对值,得到差分图像Dn:
Dn(x,y)=|fn(x,y)-B(x,y)|
设定阈值T,在差分图像Dn中逐个对像素点进行二值化处理,得到二值化图像R′n。其中,灰度值为255的点即为前景(运动目标)点,灰度值为0的点即为背景点;对图像Rn'进行连通性分析,所述连通性分析指的是对二值图像中白色像素(目标)的标记,让每个单独的连通区域形成一个被标识的块,最终可得到含有完整运动目标的图像Rn。
步骤3:使用labelme软件对增强后的可燃气体泄露区域图像进行人工标注,标注内容包括泄露气体泄露区域位置坐标和类别,并制作出区域内有可燃气体泄露和无可燃气体泄漏的数据集;
步骤4:将标注好的图像数据集输入至Mask RCNN网络中,通过backbone(主干网络)模块中的残差网络ResNet101对图像进行特征提取,利用残差网络ResNet101对图像进行特征提取,得到多尺度特征图Conv1,Conv2,Conv3,Conv4,Conv5;
步骤5:取多尺度特征图Conv2-Conv5输入到特征金字塔网络(Feature PyramidNetwork,FPN)中进行特征融合处理,特征融合处理的目的在于低层特征分辨率更高,包含更多位置、细节信息,但是由于经过的卷积更少,其语义性更低,噪声更多。高层特征具有更强的语义信息,但是分辨率很低,对细节的感知能力较差。将两者高效融合,取其长处,弃之糟泊,是改善分割模型的关键。得到融合多尺度后的特征图P2,P3,P4,P5,P6(结构如图3);
步骤6:遍历每个层的特征图,在图像上每个像素点设定预设好的不同大小、不同长宽比的参照框,对于参照框设置3种不同的尺度,分别为1282、2582和5122像素,以及设置3种不同长宽比率分别为1:1、1:2和2:1,从而获得多个候选ROI(感兴趣区域),每个参照框分为正样本和负样本;
步骤7:将含有候选ROI(感兴趣区域)的特征图送入区域建议网络(参见图4)(Region Proposal Network,RPN)进行二值分类(前景或背景)和边框回归,过滤掉一部分候选的ROI;
步骤8:剩余的候选ROI区域由于大小不一,所以需要进行ROI Align(区域特征聚集)操作转换成相同大小(先将原图和特征图的像素对应起来,然后将特征图中固定的特征对应起来;
步骤9:再对步骤8的候选ROI区域通过两个独立的全卷积模块(参见图5),采用softmax损失函数预测出可燃气体泄露的大小和位置,同时利用sigmoid函数作为损失函数通过mask分支预测出分类分数前N个的分割mask,最后基于损失函数迹反向传播调节权重参数,获得最终训练模型;
泄露气体区域位置坐标P=(x,y,w,h),其中(x,y)代表图像中心点坐标,(w,h)分别代表图像的宽和高。
损失函数定义为:
L=LCLS+Lbox+Lmask
其中,LCLS是分类损失,Lbox是回归框损失,Lmask是mask损失。
采用最终训练模型对现场可燃气体泄露进行检测:
利用高斯混合模型分离算法(MOG)对拍摄的可燃气体泄露的红外图像进行图像背景减法处理;
将增强后的图像数据输入到Mask RCNN网络中进行识别;
步骤6中在训练时将特征图中每个像素点设定一系列anchor锚框,得到的特征图含有多层,确定哪个特征从而对其进行切取ROI及后续的分类回归问题。
使用mask掩模进行实例分割,并对可燃气体泄漏区域使用灰度级彩色变换方法进行伪彩色处理,根据泄露气体区域的灰度值获取相对应的彩色融合图像,将可燃气体泄露图像目标位置坐标矩形框内图像替换为彩色融合图像,获取全局彩色融合图像,将mask掩膜与彩色融合图像叠加获取最终结果。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种基于AI算法的可燃气体泄漏区域检测方法,其特征在于,该方法包括:对拍摄的可燃气体泄露区域的红外图像数据进行背景差分法处理,利用AI算法对背景差分法处理后的图像数据进行目标识别和实例分割处理,具体包括:
建立混合高斯模型;
红外摄像机中读取前T帧作为背景帧;
采用混合高斯模型对当前帧与背景帧图像差分得到变化区域;
对所述变化区域进行判别;
当判断变化区域超过设置阈值,则对背景差分检测运动目标;
当判断变化区域未超过设置阈值,则返回采用混合高斯模型对当前帧与背景帧图像差分得到变化区域的步骤;
当判断出有运动目标时,将增强后的泄露图像输入至Mask RCNN网络中进行目标识别和实例分割处理,判断运动物体是否为可燃气体泄露,若是可燃气体泄露时,对泄露事件实时跟踪,并联动系统采取报警措施,同步输出可燃性气体泄露浓度和范围;若不是可燃气体泄露,则不报警。
2.按照权利要求1所述的基于AI算法的可燃气体泄漏区域检测方法,其特征在于,具体包括:
步骤1:对可燃性气体泄露的区域进行拍摄,获取候选区域的红外视频图像数据;
步骤2:利用高斯混合模型分离算法对拍摄的可燃气体泄露的红外图像进行图像背景减法处理;
步骤3:对步骤2处理后的图像对增强后的可燃气体泄露区域图像进行人工标注,标注内容包括泄露气体泄露区域位置坐标和类别,并制作出区域内有可燃气体泄露和无可燃气体泄漏的数据集;
步骤4:将标注好的图像数据集输入至Mask RCNN网络中,通过backbone模块中的残差网络ResNet101对图像进行特征提取,利用残差网络ResNet101对图像进行特征提取,得到多尺度特征图Conv1,Conv2,Conv3,Conv4,Conv5;
步骤5:取多尺度特征图Conv2-Conv5输入到特征金字塔网络中进行特征融合处理,得到融合多尺度后的特征图P2,P3,P4,P5,P6;
步骤6:遍历每个层的特征图,在图像上每个像素点设定预设好的不同大小、不同长宽比的参照框,对于参照框设置3种不同的尺度,分别为1282、2582和5122像素,以及设置3种不同长宽比率分别为1:1、1:2和2:1,获得多个候选ROI,每个参照框分为正样本和负样本;
步骤7:将含有候选ROI的特征图送入区域建议网络进行二值分类和边框回归,过滤掉一部分候选ROI;
步骤8:对过滤掉一部分候选ROI后剩余的候选ROI区域由于大小不一,所以需要进行区域特征聚集操作转换成相同大小;
步骤9:对步骤8处理后的候选ROI通过两个独立的全卷积模块,采用softmax损失函数预测出可燃气体泄露的大小和位置,同时利用sigmoid函数作为损失函数通过mask分支预测出分类分数前N个的分割mask,基于损失函数反向传播调节权重参数,获得最终训练模型。
3.按照权利要求2所述的基于AI算法的可燃气体泄漏区域检测方法,其特征在于,步骤2建立混合高斯模型,具体包括:
对于输入的可燃气体泄露视频文件一共有T帧数据,用第一帧第一个像素点对第一个高斯模型的期望值μ1进行初始化;下一帧图片对应相同位置的像素点为μ2,判断,当一个新的像素点与任何一个高斯模型的均值μ的之差小于其3倍的标准差σ,将第二帧与第一帧图片在同一像素点上的分布视为相同的高斯分布,并更新当前分布的μ和σ值,此时判定为背景;否则,说明新传入的帧与上一帧图片在该像素点位置属于不同的分布,则利用新传入的一帧再建立一个新的分布,用新传入一帧来初始化新的分布的μ和σ值,此时则判定为前景即为运动物体;其中高斯分布满足:其中,μ为数据均值,σ为数据标准差,x为样本数据;
当获取到背景图像帧B后,当前帧为fn,背景帧和当前帧对应像素点的灰度值分别记为B(x,y)和fn(x,y),将两帧图像对应像素点的灰度值进行相减,并取其绝对值,得到差分图像Dn:
Dn(x,y)=|fn(x,y)-B(x,y)|
设定阈值T,逐个对像素点进行二值化处理,得到二值化图像Rn',其中,灰度值为255的点即为前景点即运动目标,灰度值为0的点即为背景点;对图像Rn'进行连通性分析,最终得到含有完整运动目标的图像Rn:
4.按照权利要求2所述的基于AI算法的可燃气体泄漏区域检测方法,其特征在于,步骤9中泄露气体区域位置坐标表示为P=(x,y,w,h),其中(x,y)代表图像中心点坐标,(w,h)分别代表图像的宽和高;
损失函数定义为:
L=LcLs十Lbox十Lmask
其中,LCLS是分类损失,Lbox是回归框损失,Lmask是mask损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310146461.9A CN116152724A (zh) | 2023-02-21 | 2023-02-21 | 一种基于ai算法的可燃气体泄漏区域检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310146461.9A CN116152724A (zh) | 2023-02-21 | 2023-02-21 | 一种基于ai算法的可燃气体泄漏区域检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116152724A true CN116152724A (zh) | 2023-05-23 |
Family
ID=86354070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310146461.9A Pending CN116152724A (zh) | 2023-02-21 | 2023-02-21 | 一种基于ai算法的可燃气体泄漏区域检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116152724A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893643A (zh) * | 2024-03-18 | 2024-04-16 | 四川弘和数智集团有限公司 | 油气站压缩机气体泄露图像生成方法、装置、设备及介质 |
-
2023
- 2023-02-21 CN CN202310146461.9A patent/CN116152724A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117893643A (zh) * | 2024-03-18 | 2024-04-16 | 四川弘和数智集团有限公司 | 油气站压缩机气体泄露图像生成方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259809B (zh) | 基于DANet的无人机海岸线漂浮垃圾巡检系统 | |
CN108615226B (zh) | 一种基于生成式对抗网络的图像去雾方法 | |
CN110135269B (zh) | 一种基于混合颜色模型与神经网络的火灾图像检测方法 | |
CN108596101B (zh) | 一种基于卷积神经网络的遥感图像多目标检测方法 | |
CN111310862A (zh) | 复杂环境下基于图像增强的深度神经网络车牌定位方法 | |
CN110796009A (zh) | 基于多尺度卷积神经网络模型的海上船只检测方法及系统 | |
CN111027511B (zh) | 基于感兴趣区块提取的遥感图像舰船检测方法 | |
CN114743119B (zh) | 基于无人机的高铁接触网吊弦螺母缺陷检测方法 | |
CN111539343B (zh) | 一种基于卷积注意力网络的黑烟车检测方法 | |
CN112686833A (zh) | 一种基于卷积神经网络的工业产品表面缺陷检测和分类装置 | |
CN113469050A (zh) | 基于图像细分类的火焰检测方法 | |
CN110852164A (zh) | 一种基于YOLOv3的自动检测违章建筑方法及系统 | |
CN112381043A (zh) | 一种旗帜检测方法 | |
CN109165602A (zh) | 一种基于视频分析的黑烟车检测方法 | |
CN111985314B (zh) | 一种基于ViBe与改进LBP的烟雾检测方法 | |
CN113537226A (zh) | 一种基于深度学习的烟雾检测方法 | |
CN116152724A (zh) | 一种基于ai算法的可燃气体泄漏区域检测方法 | |
CN111582074A (zh) | 一种基于场景深度信息感知的监控视频树叶遮挡检测方法 | |
CN114463619B (zh) | 基于集成融合特征的红外弱小目标检测方法 | |
CN115761537A (zh) | 一种面向动态特征补充机制的输电线路异物入侵识别方法 | |
CN111507416A (zh) | 一种基于深度学习的吸烟行为实时检测方法 | |
CN115719463A (zh) | 一种基于超分辨率重构和自适应挤压激励的烟火检测方法 | |
CN111160100A (zh) | 一种基于样本生成的轻量级深度模型航拍车辆检测方法 | |
CN109446938B (zh) | 一种基于多序列双投影的黑烟车检测方法 | |
CN113762144A (zh) | 一种基于深度学习的黑烟车检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |