CN113096103A - 一种面向放空火炬的烟气智能影像感知方法 - Google Patents

一种面向放空火炬的烟气智能影像感知方法 Download PDF

Info

Publication number
CN113096103A
CN113096103A CN202110404265.8A CN202110404265A CN113096103A CN 113096103 A CN113096103 A CN 113096103A CN 202110404265 A CN202110404265 A CN 202110404265A CN 113096103 A CN113096103 A CN 113096103A
Authority
CN
China
Prior art keywords
image
smoke
network
convolutional layer
torch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110404265.8A
Other languages
English (en)
Inventor
谢文辉
顾锞
苗纯璋
李忠言
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202110404265.8A priority Critical patent/CN113096103A/zh
Publication of CN113096103A publication Critical patent/CN113096103A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种面向放空火炬的烟气智能影像感知方法,其中方法的实现包括:采集放空火炬图像,进行黑烟存在性检测,使用显著性方法提取图像烟气区域,采用高斯滤波的方式去除图像噪声,使用超分辨率方法提升图像质量,计算烟气的黑度等级来分析烟气品质。本发明将目标区域集中于烟气和火焰周围,减少了放空火炬周围其他物体的影响,增强了抗干扰能力;通过使用高斯滤波的方式来进行图像去噪,使图像噪声点的灰度降低,从而减少图像中噪声的数量;通过使用超分辨率的方法将烟气图像映射为高质量图像,便于对图像中的烟气品质进行分析,提升了判定结果的准确率。

Description

一种面向放空火炬的烟气智能影像感知方法
技术领域
本发明涉及图像处理方法领域,更具体地讲,本发明涉及一种面向放空火炬的烟气智能影像感知方法。
背景技术
随着国家对环境保护的日益重视,对企业环保达标要求愈发严格,石油化工厂、炼油厂等企业的火炬系统所产生的烟气逐渐被重视起来。大多数烟气传感器在高架火炬难于布设,且受高温影响往往易损,成本很高。传统探测方法会受到传感器等因素影响,不能很好满足控制要求。然而,在过去的几年中,基于烟气检测的放空火炬燃烧系统越来越流行,烟气检测的图像感知方法被广泛地进行研究。
Turgay等人提出一种将颜色信息和运动分析相结合的火灾烟雾检测模型。该方法主要通过对不同类型的图像或者视频序列中提取样本进行统计分析和提取相关颜色模型。这种火灾烟雾检测模型的基本假设是:在火灾发生时,相关产生的烟雾颜色被预测为从白蓝色转变为白色,并且随着火灾地持续进行,相关烟雾的颜色将变化接近于黑色区域。该检测方法包含HSV空间的低饱和度检测、一些简单的运动检测和RGB通道间的阈值检测。但由于背景环境中存在云的颜色和其简单运动的干扰,因此该检测技术存在较高的误报率。
Yu等人提出了一种基于小波特征和神经网络的烟雾检测方法。该方法主要通过分析烟雾的纹理信息来进行检测,并对火灾进行实时监测。该种方法主要包含了三个主要步骤:①将获取到的视频帧划分为多块;②利用自适应高斯混合模型和背景减法来确定块的前景像素,挑选出前景像素数量大于某个阈值的块作为候选块;③对所有的候选块进行GLCM特征提取,通过计算相关候选块的对比度、均匀性和能量来生成特征,并将提取的特征用于BP神经网络进行分类。尽管该方法在实验过程中取得了不错的效果,但是在具有不同大小和不同噪声水平的烟雾纹理集中较难获得同等实验结果。此外,要达到实时探测效果仍然需要优化其中一些步骤。
由此可见,现有的烟气品质感知相关技术会受到图像噪声和周围干扰物的影响,并且在烟气品质分析方面误差率较高。
发明内容
为了解决上述烟气品质检测过程中易受噪声干扰和烟气品质判定误差率较高的问题,本发明的主要目的在于提供一种面向放空火炬的烟气智能影像感知方法,以解决基于图像处理技术的烟气监测在噪声等环境因素下易受干扰的问题,并且提升最终对烟气品质进行判定的准确率。
为实现上述目的,本发明提供了一种面向放空火炬的烟气智能影像感知方法,包括如下步骤:
步骤1:图像采集,通过高清摄像头对放空火炬的燃烧情况进行拍摄来完成图像采集;
步骤2:黑烟存在性检测,利用IDCNN网络对放空火炬图像中是否存在黑烟进行鉴定,若检测出黑烟,再进行进一步的黑烟品质的判定,进入步骤3;若未检测出黑烟,则终止下述流程;
步骤3:提取图像烟气区域,对采集的图像使用图像显著性区域提取方法,使研究目标聚焦于烟气周围区域;
步骤4:噪声去除,采用高斯滤波方法将提取烟气区域后图像中的噪点去除;
步骤5:提升图像质量,采用超分辨率的方法对步骤4中去噪后的图像进行重构映射,完成对图像质量的提升;
步骤6:判定烟气品质,对步骤5中的图像进行烟气的灰度计算分析,输出其黑度等级,黑度等级即代表烟气品质。
优选的,采集的图像可以是高清摄像头直接拍摄的图片,也可以是在监测放空火炬的一段视频中截取的某一帧视频图像。
优选的,步骤2中所述的IDCNN网络是一种端到端的深度双通道神经网络,它分别由擅于提取烟雾细节特征的深层子网ISBNN和擅于提取烟雾基本信息的深层子网ISCNN融合而成,将步骤1中采集的图像输入到IDCNN网络中判断采集图像中是否有明显黑烟生成;
其中,ISBNN网络和ISCNN网络是由DCNN(Deep Dual-Channel Neural Network)的两个子网络SBNN网络和SCNN网络改进而来,ISBNN网络、ISCNN网络的融合方式与SBNN网络、SCNN网络融合成DCNN网络的方式相同;SBNN的网络结构为:卷积层L1、卷积层L2、最大池化层L3、归一化和卷积层L4、归一化和卷积层L5、最大池化层L6、归一化和卷积层L7、归一化和卷积层L8、最大池化层L9、全连接层L10、全连接层L11、输出层L12,SCNN的网络结构为:卷积层M1、卷积层M2、归一化和卷积层M3、归一化和卷积层M4、归一化和卷积层M5、级联和卷积层M6、最大池化层M7、归一化和卷积层M8、归一化和卷积层M9、最大池化层M10、归一化和卷积层M11、归一化和卷积层M12、卷积层M13、最大池化层M14;在SBNN网络结构中使用深度可分离卷积替换掉L2、L5和L7中的普通卷积则构建成ISBNN子网络,在SBNN网络结构中使用深度可分离卷积替换掉M3、M4、M5、M6、M9、M12中的普通卷积构建成ISCNN子网络;其中,引入的深度可分离卷积层参数和对应的被替换的普通卷积层参数保持一致;ISBNN和ISCNN网络按照DCNN网络的融合方式来进行融合生成IDCNN网络;改进前后的具体网络层可见图1、图2;
在IDCNN网络训练中,ISBNN和ISCNN被独立训练;
在ISBNN训练过程中,引入glorot均匀法来初始化网络权重,利用随机梯度下降法通过将动量系数设为0.9,初始学习率设为0.01,学习率衰减系数设为0.0001来训练ISBNN;
ISCNN的训练执行上述相同过程;
最后两者进行合并,微调IDCNN的总体参数以搜索最佳参数。
优选的,一种图像显著性区域提取方法,包括如下步骤:
(1)图像预处理:将原始采集图像分割成200个超像素块并且对它们进行Lab颜色特征的提取;
(2)显著性值计算:计算每一块超像素块与其余超像素块的空间距离色,利用这些空间距离计算每个超像素块的显著性值,从而获得采集图像的基本显著图;
(3)获取最终显著图:根据超像素块之间的相似性度量,对步骤(2)得到的显著性值进行序列综合法加权优化,得到输入图像的最终显著图;
(4)显著性区域的提取:对采集图像的最终显著图采用大津算法进行图像自适应阈值分割,提取出采集图像的显著性区域。
优选的,对于步骤3中提取完的显著性区域图像先进行放大至原始图像大小,并采用高斯滤波的方法去除图像中的明显噪点。
优选的,步骤5对图像采用SRCNN超分辨率网络,学习从低分辨率图像到高分辨率图像的端到端映射;
SRCNN网络中三个卷积层使用的卷积核的大小分为为9x9,1x1和5x5,三层中每层的输出特征数量分别为64,32和3;用Timofte数据集(包含91幅图像)和ImageNet大数据集进行训练;使用均方误差MSE作为损失函数;
SRCNN超分辨率网络以低分辨率图像为输入,最终输出高分辨率图像的主要过程如下:
(1)从原始的低分辨率图像中进行特征提取,并将其表示为高维特征向量;
(2)非线性地将高维特征向量映射到另一组高维特征向量;
(3)重构高分辨率图像。
优选的,步骤6中所述烟气黑度计算步骤为:
(1)对于步骤5中重构后的图像对应的烟气区域,找到烟气区域中颜色最深的点,即找出烟气区域中与黑色RGB(0,0,0)的颜色距离最小的点,其中RGB的颜色距离公式为:
Figure BDA0003021627870000041
其中,Y1对应着图像烟气区域中各个点的颜色值,Y2对应着RGB(0,0,0)的颜色值,Y1,R、Y1,G、Y1,B分别代表Y1的RGB三个通道值,Y2,R、Y2,G、Y2,B同上;
找到该点后,将该点的RGB值转化为灰度值,相关转化公式为:
Gray=R0.299+G*0.587+B*0.114,
其中,R、G、B分别代表该像素点的RGB三个通道的值,Gray代表该像素点的灰度值;
(2)将步骤(1)得到的灰度值与林格曼黑度等级所对应的灰度值进行比较,两者差值最小时所对应的林格曼黑度等级被设定为该烟气区域的黑度等级;
当在阴天条件下观测烟气时,由于天空背景较暗,因此根据以往经验值应在读取黑度等级时读取一个稍低的级数,如将读取级数减去0.25或者0.5级,最后输出烟气区域黑度等级;
林格曼黑度等级是一种烟气品质测量指标,进一步将上述计算出的烟气区域黑度等级与烟气黑度的排放限值相结合来评价烟气品质。
总体而言,通过本发明所构思的以上技术方案与现有技术相比,能够取得下列有益效果:
(1)本发明通过使用图像显著性算法,能够将目标区域集中于烟气和火焰周围,减少了放空火炬周围其他物体的影响,增强了抗干扰能力;
(2)通过使用高斯滤波的方式来消除大部分图像中都存在的高斯噪声,该方法可以使噪声点的灰度降低,从而减少图像中噪声的数量;
(3)通过使用超分辨率的方法将烟气图像映射为高质量图像,便于对图像中的烟气品质进行分析,提升了判定结果的准确率。
附图说明
图1是SBNN和SCNN网络中的各个网络层;
图2是ISBNN和ISCNN网络中的各个网络层;
图3是本发明提供的面向放空火炬的烟气智能影像感知方法框架图;
具体实施方式
为了使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施方式做进一步的说明。
1.图像采集
本发明是基于图像处理的方式对放空火炬烟气品质进行感知的,所以在进行图像处理分析前需要采集相关的图像。首先启动高清摄像头及与其连接的计算机装置,通过摄像头实时采集图像,同时将实时采集的图像传输给计算机装置。其中具体采集方式有两种:
(1)利用高清摄像头直接对放空火炬进行拍摄,从而获取相关图像;
(2)对放空火炬进行视频监测,通过截取视频中的某一帧图像作为采集图像,截取方式为等距截取如每隔一秒钟获取一帧图像。
2.黑烟存在性检测
在对烟气品质分析之前,需要先判断当前放空火炬是否排放出了明显黑烟。若放空火炬未有黑烟生成,则结束当前流程;若检测到有明显黑烟生成,则继续对烟气品质进行分析。
本发明中采用IDCNN网络来进行黑烟存在性检测。IDCNN网络是一种端到端的深度双通道神经网络,它分别由擅于提取烟雾细节特征的深层子网ISBNN和擅于提取烟雾基本信息的深层子网ISCNN融合而成。具体实施步骤如下:
(1)IDCNN网络训练
在IDCNN网络训练中,ISBNN和ISCNN分别被独立训练;
在ISBNN训练过程中,首先通过试错法来找到优化的网络结构,引入glorot均匀法来初始化网络权重,利用随机梯度下降法通过将动量系数设为0.9,初始学习率设为0.01,学习率衰减系数设为0.0001来训练ISBNN;
ISCNN的训练执行上述相同过程;
最后两者进行合并,微调IDCNN的总体参数以搜索最佳参数。
(2)黑烟存在性检测
在训练好IDCNN网络后,将采集的图像输入到IDCNN网络中判断采集图像中是否有明显黑烟生成。
3.提取图像烟气区域
确定采集图像中存在明显黑烟后,为了使研究目标聚焦于烟气周围区域,对采集的图像提取放空火炬烟气区域,涉及到一种图像显著性区域提取方法,包括如下步骤:
(1)图像预处理:将原始采集图像分割成200个超像素块并且对它们进行Lab颜色特征的提取;
(2)显著性值计算:计算每一块超像素块与其余超像素块的空间距离,利用这些空间距离计算每个超像素块的显著性值,从而获得采集图像的基本显著图;
(3)获取最终显著图:根据超像素块之间的相似性度量,对步骤(2)得到的显著性值进行序列综合法加权优化,得到输入图像的最终显著图;
(4)显著性区域的提取:对采集图像的最终显著图采用大津算法进行图像自适应阈值分割,提取出采集图像的显著性区域。
4.噪声去除
对于烟气提取完成的图像进行噪声去除,具体步骤如下:
(1)图像放大:使用双三次插值法将烟气提取完的显著性区域图像放大至原始图像大小;
(2)图像去噪:采用高斯滤波的方法去除图像中的明显噪点;在高斯去噪过程中,选择一个符合高斯函数分布的高斯滤波器对图像进行加权平均处理;
该高斯滤波器模板尺寸选择为5×5大小,标准差σ选择为1.1,以5×5模板的中心作为坐标原点(0,0),模板其余位置生成对应整数坐标;
将各个位置的坐标代入高斯函数中,得到模板的对应系数,高斯函数模板中各个元素值的计算公式如下:
Figure BDA0003021627870000061
其中(i,j)为模板元素位置坐标,σ为标准差,由于此处窗口模板大小为5,故此处k值取2;
最后将生成的高斯模板的中心对准待处理的图像矩阵,进行像素值加权处理,获取高斯滤波后的结果图像。
5.提升图像质量
在进行噪声去除后,图像会受到一定程度的模糊,因此在烟气品质分析前需要对图像的质量进行进一步的提升。在图像质量提升过程中,对图像采用SRCNN超分辨率网络,学习从低分辨率图像到高分辨率图像的端到端映射;
SRCNN网络中三个卷积层使用的卷积核的大小分为为9x9,1x1和5x5,三层中每层的输出特征数量分别为64,32和3;用Timofte数据集(包含91幅图像)和ImageNet大数据集进行训练;使用均方误差MSE作为损失函数;
SRCNN超分辨率网络以低分辨率图像为输入,最终输出高分辨率图像的主要过程如下:
(1)从原始的低分辨率图像中进行特征提取,并将其表示为高维特征向量;
(2)非线性地将高维特征向量映射到另一组高维特征向量;
(3)重构高分辨率图像。
6.判定烟气品质
对图像烟气品质进行分析,计算烟气区域的黑度等级。
烟气黑度计算步骤为:
(1)对于重构后质量得到提升的图像,找到烟气区域中颜色最深的点,即找出烟气区域中与黑色RGB(0,0,0)的颜色距离最小的点,其中RGB的颜色距离公式为:
Figure BDA0003021627870000071
其中,Y1对应着图像烟气区域中各个点的颜色值,Y2对应着RGB(0,0,0)的颜色值,Y1,R、Y1,G、Y1,B分别代表Y1的RGB三个通道值,Y2,R、Y2,G、Y2,B同上;
找到该点后,将该点的RGB值转化为灰度值,相关转化公式为:
Gray=R0.299+G*0.587+B*0.114,
其中,R、G、B分别代表该像素点的RGB三个通道的值,Gray代表该像素点的灰度值;
(2)林格曼黑度图等级为0~5级共六个等级,其中全白和全黑对应林格曼黑度0级和5级,其余4个级别是根据黑色条格占整块面积的百分数来确定的,黑色条格的面积占20%为1级;占40%为2级;占60%为3级;占80%为4级;根据已有数据,0~5等级的灰度值大致可以对应于255,255,204,153,102,51,0;将步骤(1)得到的灰度值与林格曼黑度等级所对应的灰度值进行比较,两者差值最小时所对应的林格曼黑度等级被设定为该烟气区域的黑度等级;
当在阴天条件下观测烟气时,由于天空背景较暗,因此根据以往经验值应在读取黑度等级时读取一个稍低的级数,如将读取级数减去0.25或者0.5级,最后输出烟气区域黑度等级;
林格曼黑度等级是一种烟气品质测量指标,将上述计算出的烟气区域黑度等级与烟气黑度的排放限值相结合来评价烟气品质。
上述实施例只为说明本发明的技术构思及特点,其目的在于让本领域的技术人员能够了解本发明的内容并据以实施,并不能以此限制本发明的保护范围。凡根据本发明精神实质所作的等效变化或修饰,都应该涵盖在本发明的保护范围之内。

Claims (9)

1.一种面向放空火炬的烟气智能影像感知方法,其特征在于,包括如下步骤:
步骤1:图像采集,通过高清摄像头对放空火炬的燃烧情况进行拍摄来完成图像采集;
步骤2:黑烟存在性检测,利用IDCNN网络对放空火炬图像中是否存在黑烟进行鉴定,若检测出黑烟,再进行进一步的黑烟品质的判定,进入步骤3;若未检测出黑烟,则终止下述流程;
步骤3:提取图像烟气区域,对采集的图像使用图像显著性区域提取方法,使研究目标聚焦于烟气周围区域;
步骤4:噪声去除,采用高斯滤波方法将提取烟气区域后图像中的噪点去除;
步骤5:提升图像质量,采用超分辨率的方法对步骤4中去噪后的图像进行重构映射,完成对图像质量的提升;
步骤6:判定烟气品质,对步骤5重构后的图像进行烟气的灰度计算分析,输出其黑度等级,黑度等级即代表烟气品质。
2.根据权利要求1所述的面向放空火炬的烟气智能影像感知方法,其特征在于,采集的图像可以是高清摄像头直接拍摄的图片,也可以是在监测放空火炬的一段视频中截取的某一帧视频图像。
3.根据权利要求1所述的一种面向放空火炬的烟气智能影像感知方法,其特征在于,步骤2中所述的IDCNN网络是一种端到端的深度双通道神经网络,它分别由擅于提取烟雾细节特征的深层子网ISBNN和擅于提取烟雾基本信息的深层子网ISCNN融合而成,将步骤1中采集的图像输入到IDCNN网络中判断采集图像中是否有明显黑烟生成;
其中,ISBNN网络和ISCNN网络是由DCNN(Deep Dual-Channel Neural Network)的两个子网络SBNN网络和SCNN网络改进而来,ISBNN网络、ISCNN网络的融合方式与SBNN网络、SCNN网络融合成DCNN网络的方式相同;所述SBNN的网络结构为:卷积层L1、卷积层L2、最大池化层L3、归一化和卷积层L4、归一化和卷积层L5、最大池化层L6、归一化和卷积层L7、归一化和卷积层L8、最大池化层L9、全连接层L10、全连接层L11、输出层L12,所述SCNN的网络结构为:卷积层M1、卷积层M2、归一化和卷积层M3、归一化和卷积层M4、归一化和卷积层M5、级联和卷积层M6、最大池化层M7、归一化和卷积层M8、归一化和卷积层M9、最大池化层M10、归一化和卷积层M11、归一化和卷积层M12、卷积层M13、最大池化层M14;改进之处在于:在SBNN网络结构中使用深度可分离卷积替换掉L2、L5和L7中的普通卷积则构建成ISBNN子网络,在SCNN网络结构中使用深度可分离卷积替换掉M3、M4、M5、M6、M9、M12中的普通卷积构建成ISCNN子网络;其中,引入的深度可分离卷积层参数和对应的被替换的普通卷积层参数保持一致;ISBNN和ISCNN网络按照DCNN网络的融合方式来进行融合生成IDCNN网络。
4.根据权利要求3所述的一种面向放空火炬的烟气智能影像感知方法,其特征在于,
在IDCNN网络训练中,ISBNN和ISCNN被独立训练;
在ISBNN训练过程中,引入glorot均匀法来初始化网络权重,利用随机梯度下降法通过将动量系数设为0.9,初始学习率设为0.01,学习率衰减系数设为0.0001来训练ISBNN;
ISCNN的训练执行上述相同过程;
最后两者进行合并,微调IDCNN的总体参数以搜索最佳参数。
5.根据权利要求1所述的一种面向放空火炬的烟气智能影像感知方法,其特征在于,
步骤3所述的图像显著性区域提取方法,包括如下步骤:
(1)图像预处理:将原始采集图像分割成200个超像素块并且对它们进行Lab颜色特征的提取;
(2)显著性值计算:计算每一块超像素块与其余超像素块的空间距离,利用这些空间距离计算每个超像素块的显著性值,从而获得采集图像的基本显著图;
(3)获取最终显著图:根据超像素块之间的相似性度量,对步骤(2)得到的显著性值进行序列综合法加权优化,得到输入图像的最终显著图;
(4)显著性区域的提取:对采集图像的最终显著图采用大津算法进行图像自适应阈值分割,提取出采集图像的显著性区域。
6.根据权利要求1所述的一种面向放空火炬的烟气智能影像感知方法,其特征在于,步骤4具体包括对于步骤3提取的显著性区域图像先放大至原始图像大小,再采用高斯滤波的方法去除图像中的噪点。
7.根据权利要求1所述的面向放空火炬的烟气智能影像感知方法,其特征在于,步骤5中的超分辨率方法具体采用SRCNN超分辨率网络,学习从低分辨率图像到高分辨率图像的端到端映射。
8.根据权利要求7所述的面向放空火炬的烟气智能影像感知方法,其特征在于,
所述SRCNN网络中三个卷积层使用的卷积核的大小分为为9x9,1x1和5x5,三层中每层的输出特征数量分别为64,32和3;用Timofte数据集和ImageNet大数据集进行训练;使用均方误差MSE作为损失函数;
SRCNN超分辨率网络以低分辨率图像为输入,最终输出高分辨率图像的过程如下:
(1)从原始的低分辨率图像中进行特征提取,并将其表示为高维特征向量;
(2)非线性地将高维特征向量映射到另一组高维特征向量;
(3)重构高分辨率图像。
9.根据权利要求1所述的面向放空火炬的烟气智能影像感知方法,其特征在于,步骤6中所述烟气黑度计算步骤为:
(1)找到重构后的烟气区域中颜色最深的点,即找出烟气区域中与黑色RGB(0,0,0)的颜色距离最小的点,其中RGB的颜色距离公式为:
Figure FDA0003021627860000031
其中,Y1对应着图像烟气区域中各个点的颜色值,Y2对应着RGB(0,0,0)的颜色值,Y1,R、Y1,G、Y1,B分别代表Y1的RGB三个通道值,Y2,R、Y2,G、Y2,B同上;
找到该点后,将该点的RGB值转化为灰度值,转化公式为:
Gray=R*0.299+G*0.587+B*0.114,
其中,R、G、B分别代表该像素点的RGB三个通道的值,Gray代表该像素点的灰度值;
(2)将步骤(1)得到的灰度值与林格曼黑度等级所对应的灰度值进行比较,两者差值最小时所对应的林格曼黑度等级被设定为该烟气区域的黑度等级。
CN202110404265.8A 2021-04-15 2021-04-15 一种面向放空火炬的烟气智能影像感知方法 Pending CN113096103A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110404265.8A CN113096103A (zh) 2021-04-15 2021-04-15 一种面向放空火炬的烟气智能影像感知方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110404265.8A CN113096103A (zh) 2021-04-15 2021-04-15 一种面向放空火炬的烟气智能影像感知方法

Publications (1)

Publication Number Publication Date
CN113096103A true CN113096103A (zh) 2021-07-09

Family

ID=76677566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110404265.8A Pending CN113096103A (zh) 2021-04-15 2021-04-15 一种面向放空火炬的烟气智能影像感知方法

Country Status (1)

Country Link
CN (1) CN113096103A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114943923A (zh) * 2022-06-17 2022-08-26 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN116152667A (zh) * 2023-04-14 2023-05-23 英特灵达信息技术(深圳)有限公司 一种火灾检测方法、装置、电子设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114943923A (zh) * 2022-06-17 2022-08-26 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN114943923B (zh) * 2022-06-17 2022-12-23 中国人民解放军陆军炮兵防空兵学院 基于深度学习的视频识别炮弹爆炸火光烟雾方法及系统
CN116152667A (zh) * 2023-04-14 2023-05-23 英特灵达信息技术(深圳)有限公司 一种火灾检测方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN109272489B (zh) 基于背景抑制与多尺度局部熵的红外弱小目标检测方法
CN111368771A (zh) 一种基于图像处理的隧道火灾预警方法、装置、计算机设备以及计算机可读存储介质
CN109118466B (zh) 一种红外图像与可见光图像融合的处理方法
CN110782477A (zh) 基于序列图像的运动目标快速检测方法、计算机视觉系统
CN111833312B (zh) 一种检测故障绝缘子放电的紫外图像诊断方法及系统
CN110428450B (zh) 应用于矿井巷道移动巡检图像的尺度自适应目标跟踪方法
CN111985314B (zh) 一种基于ViBe与改进LBP的烟雾检测方法
CN113096103A (zh) 一种面向放空火炬的烟气智能影像感知方法
CN110580709A (zh) 一种基于ViBe和三帧差分融合的目标检测方法
CN111860143B (zh) 一种面向巡检机器人的火焰实时检测方法
CN114926826A (zh) 场景文本检测系统
CN111611866B (zh) 基于YCrCb和LAB颜色空间的火焰检测识别方法及系统
CN113962900A (zh) 复杂背景下红外弱小目标检测方法、装置、设备及介质
CN111667509B (zh) 目标与背景颜色相似下的运动目标自动跟踪方法及系统
CN110321808B (zh) 遗留物与盗移物检测方法、设备和存储介质
CN108765463A (zh) 一种结合区域提取与改进纹理特征的运动目标检测方法
CN117036737A (zh) 基于信息熵、gms与lc显著检测的特征提取与匹配方法
CN112598710B (zh) 基于特征在线选择的时空相关滤波目标跟踪方法
CN114612333A (zh) 一种基于显微镜图像的微囊藻类细胞统计方法
CN111402189B (zh) 一种视频图像偏色检测装置及方法
CN113538290A (zh) 基于人工智能的农业航拍图像处理方法及系统
CN115700737A (zh) 一种基于视频监控的溢油检测方法
CN115249254B (zh) 一种基于ar技术的目标跟踪方法及系统
CN111476821B (zh) 基于在线学习的目标跟踪方法
CN110852228B (zh) 监控视频中的动态背景提取及前景物体检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination