CN115100578A - 一种回转窑火焰燃烧状态识别方法 - Google Patents

一种回转窑火焰燃烧状态识别方法 Download PDF

Info

Publication number
CN115100578A
CN115100578A CN202210916924.0A CN202210916924A CN115100578A CN 115100578 A CN115100578 A CN 115100578A CN 202210916924 A CN202210916924 A CN 202210916924A CN 115100578 A CN115100578 A CN 115100578A
Authority
CN
China
Prior art keywords
combustion
combustion state
flame
rotary kiln
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210916924.0A
Other languages
English (en)
Other versions
CN115100578B (zh
Inventor
李涛
赵娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan University
Original Assignee
Hunan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan University filed Critical Hunan University
Priority to CN202210916924.0A priority Critical patent/CN115100578B/zh
Publication of CN115100578A publication Critical patent/CN115100578A/zh
Application granted granted Critical
Publication of CN115100578B publication Critical patent/CN115100578B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Curing Cements, Concrete, And Artificial Stone (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于Res2Net和注意力机制的回转窑火焰燃烧状态识别方法,属于窑炉图像分析技术领域,包括获取处理火焰图像数据集;引入Res2Net网络和卷积注意力模块(CBAM)搭建网络模型;采用得到的图像数据集作为输入,最终产生三维预测;取预测得分最高的燃烧状态为此时回转窑内的燃烧状态,输出最终结果。窑炉图像由于其拍摄环境过于恶劣,导致图片视觉效果差,现有技术在对窑炉图像进行分类往往效果不佳,本发明能够提高识别的质量以及分类的准确率。

Description

一种回转窑火焰燃烧状态识别方法
技术领域
本发明涉及一种回转窑火焰燃烧状态识别方法,特别是一种基于Res2Net结合注意力机制的回转窑火焰燃烧状态识别的方法,属于窑炉图像分析技术领域。
背景技术
回转窑在冶炼金属、生产水泥、生产钢铁等许多工业领域都获得了应用。回转窑的燃烧火焰状态是回转窑运行中不可忽视的重要环节。回转窑燃烧是否能够充分稳定的燃烧,让温度恒定,这是能否提高产品质量的关键。与此同时,回转窑在工作时会产生粉尘、大气污染物排放超标等问题,所以为了获得高质量产品并且做到节能减排,必须控制好回转窑的燃烧状态,将窑内温度控制在恰当的范围。回转窑的燃烧状态通常分为三种:“正常燃烧、欠燃烧、过燃烧”。最早的回转窑是出现在水泥生产中,之后英国人兰萨姆于1885 年发明回转窑。此后回转窑因其自身导热性好以及混合能力强,多用于发电、冶金和水泥等工业生产领域,推动了工业产业的发展。但由于回转窑结构的复杂性及燃烧的非线性,窑内的燃烧状态常常靠“人工监测”,这种方法导致人力资源的浪费以及错误判断的风险增高。到了20世纪70年代的时候,工业领域开始使用CCD相机,国内外也开始研究可视化火焰监测,1989 年,清华大学吴占松等人首次研究小型火焰温度分布与图像亮度之间的关系,得到多项式回归模型,开始以烧成带火焰图像为研究对象分析烧成状态,火焰图像处理自此引起国内学者的广泛关注燃煤火焰监控多应用于工业锅炉,主要是通过对燃烧火焰图像数据进行分析,实现对CO和NOX的排放量和煤种的识别。
随着计算机领域的不断发展,王杰生等人根据回转窑氧化物球团烧结过程的煤粉燃烧火焰图像纹理特征,提出了一种基于广义学习矢量神经网络的燃烧工况识别方法同时,大量基于火焰图像特征提取的方法被提出和研究。其中,陈华等人利用一系列模糊火焰图像,从图像火焰区域提取了3个发光特征和4个动态特征,用于检测回转窑中的温度。然而这些方法需要在前期进行大量的预处理,需要手动调整参数。近年来,深度学习俨然成为焦点,许多领域也在纷纷使用,并取得了很大的成功。张振庭等人提出了一种基于深度学习的回转窑燃烧状态监测系统,通过端到端网络,免去传统的基于特征提取方法繁杂的程序。另外,提出的卷积循环神经网络(CRNN)能有效地提取火焰图像序列特征来预测回转窑内的燃烧状态。实践证明,深度学习的方法能够更加快速、准确地检测回转窑火焰燃烧状态。窑炉图像由于其拍摄环境过于恶劣,导致图片视觉效果差,现有技术在对窑炉图像进行分类往往效果不佳。相比传统的网络,由于使用更深的网络,分类准确度加深。通过使用注意机制来增加表现力,关注重要特征并抑制不必要的特征。
而ResNet作为深度学习经典骨干框架通过提出残差模块(Residual bloack),解决了深层次网络难以训练,存在梯度消失和梯度爆炸问题,使神经网络提取特征的能力大大增强。ResNet在提升神经网络训练速度方面取得显著效果,但具体应用于计算机视觉的分类、定位、检测和分割有待提升。本发明采用Res2Net作为特征提取子网络,结合注意力机制,可以更好的捕获细节和全局特性,与网络设计相结合,进一步提高网络性能。
发明内容
本发明针对上述现有技术的问题,基于Res2Net和注意力机制的回转窑火焰燃烧状态识别方法,更适用于工厂回转窑燃烧图像。
本发明通过以下技术方案实现,具体包括以下步骤:
步骤1:使用CDD摄像机采集工厂火焰燃烧视频,处理得到火焰图像数据集;
步骤2:引入由残差网络的改进网络结构,简称Res2Net,和注意力机制,搭建卷积网络分类模型;
采用Res2Net作为特征提取子网络,结合卷积注意力模块,简称CBAM,将火焰图像数据集实现在Res2Net的残差结构中,经CBAM注意力机制模块处理得到特征图;
步骤3:采用得到的图像数据集作为输入,最终产生三维预测,对应欠燃烧、正常燃烧和过燃烧三种燃烧状态的特征图;
步骤4:对特征图进行分类预测,特征图经过全连接层处理;之后经过可信度最大分类器,即softmax分类器,对燃烧状态进行分类,并输出最终的燃烧状态预测分类结果。
步骤1中所述的处理得到火焰图像数据集包括:
S1.1,将从CCD摄像机中捕获到的火焰燃烧视频按帧提取为连续的图像序列,分解成大小为704×576的RGB图像数据集;
S1.2,将图像数据集划分为欠燃烧、正常燃烧、过燃烧三种状态;
S1.3,将S1.2中的图像数据集划分为训练数据集、测试数据集。
所述步骤2中的Res2Net作为特征提取子网络包括:
在第一个1x1卷积后,将输入划分到5个子集,定义
Figure 100002_DEST_PATH_IMAGE002
Figure 100002_DEST_PATH_IMAGE004
;每个特征尺度大小相同,通道是输入特征的1/5,输出为
Figure 100002_DEST_PATH_IMAGE006
除了
Figure 100002_DEST_PATH_IMAGE008
之外的子特征都有3×3的卷积核
Figure 100002_DEST_PATH_IMAGE010
,子特征
Figure 674160DEST_PATH_IMAGE002
Figure 100002_DEST_PATH_IMAGE012
相加之后输入到
Figure 488532DEST_PATH_IMAGE010
得到输出
Figure 248678DEST_PATH_IMAGE006
的公式如下:
Figure 100002_DEST_PATH_IMAGE014
(1)。
所述步骤2中的结合卷积注意力模块CBAM包含2个独立的子模块,通道注意力模块,简称CAM,和空间注意力模块,简称SAM ,结合了空间(spatial)和通道(channel)两个不同的维度推算注意力图,通过使用注意机制来增加表现力,关注重要特征并抑制不必要的特征。
所述步骤4中的分类预测包括:
将步骤2中的特征图作为输出结果,经过全连接层操作;
经步骤3产生三维预测,对应欠燃烧、正常燃烧和过燃烧三种燃烧状态,对特征层全连接后经过softmax分类器,softmax函数将输入转换为具有分类分布的概率;最终输出三个燃烧类别的预测概率,预测概率最高的燃烧状态则为此时回转窑内的燃烧状态。
本发明通过本发明通过结合注意力模块CBAM,提升了ResNet模型的特征提取效果。窑炉图像由于其拍摄环境过于恶劣,导致图片视觉效果差,现有技术在对窑炉图像进行分类往往效果不佳,本发明能够提高识别的质量以及分类的准确率。基于Res2Net和注意力机制的回转窑火焰燃烧状态识别方法,更适用于工厂回转窑燃烧图像。
附图说明
图1为本发明流程图。
图2为本发明方法整体网络(Res2ANet)结构示意图。
图3为Res2Net网络结构示意图。
图4为卷积注意力模块(CBAM)的结构图。
图5为softmax分类器的预测过程图。
图6为回转窑火焰三种燃烧分类状态。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念;此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。以下将参照附图更详细地描述本发明。在各个附图中,相同的元件采用类似的附图标记来表示。为了清楚起见,附图中的各个部分没有按比例绘制;
下面结合附图1至5来描述本基于Res2Net和注意力机制的回转窑火焰燃烧状态识别方法,如图1所示,本发明提供了一种基于Res2Net和注意力机制的回转窑火焰燃烧状态识别方法,对回转窑火焰燃烧状态进行识别,具体步骤如下:
步骤1:使用CDD摄像机采集工厂火焰燃烧视频,处理得到火焰图像数据集;
步骤2:引入由残差网络的改进网络结构,简称Res2Net(残差网络结构为ResidualNetworks,简称ResNet),和注意力机制,搭建卷积网络分类模型;
采用Res2Net作为特征提取子网络,结合卷积注意力模块,简称CBAM,将火焰图像数据集实现在Res2Net的残差结构中,经CBAM注意力机制模块处理得到特征图;
步骤3:采用得到的图像数据集作为输入,最终产生三维预测,对应欠燃烧、正常燃烧和过燃烧三种燃烧状态的特征图;
步骤4:对特征图进行分类预测,特征图经过全连接层处理;之后经过可信度最大分类器,即softmax分类器,对燃烧状态进行分类,并输出最终的燃烧状态预测分类结果。
通过上述步骤1至4不难发现,在本发明的图像分类过程中,该分类模型为基于Res2Net和注意力机制模块结合构建的图像分类模型,通过softmax分类器,最终输出3个燃烧类别预测得分。最终取分类准确率最高的作为最后的结果。再结合注意力模块CBAM的轻量级通用性,增强了整体网络的框架的提取特征能力。
步骤1中所述的处理得到火焰图像数据集包括:
S1.1,将从CCD摄像机中录制、捕获到的火焰燃烧视频按帧提取为连续的图像序列,每张图片的尺寸均为704×576,将图片尺寸调整为128×128×3;
S1.2,由经验丰富的窑员将图像数据集标记、划分为欠燃烧、正常燃烧、过燃烧三种状态;如图5所示为三种典型的燃烧状态示例;
S1.3,将S1.2中的图像数据集划分为训练数据集、测试数据集。对视频按帧提取多段在时空上连续的图像作为训练集,总共提取10000张图像数据(其中包含1927个过燃烧样本,5275个正常燃烧样本,2798个欠燃烧样本),同样从视频中按帧提取5000张在时空上连续的图像作为测试集(对于过燃烧状态为1134个样本,正常燃烧状态为2352个样本,欠燃烧状态为1514个样本)。
如图2所示,采用Res2Net作为特征提取子网络,结合卷积注意力模块,简称CBAM,将其实现在Res2Net的残差结构中,经CBAM注意力机制模块处理得到特征图。
所述步骤2中的Res2Net作为特征提取子网络包括:
在第一个1x1卷积后,将输入划分到5个子集,定义
Figure 453394DEST_PATH_IMAGE002
Figure 652295DEST_PATH_IMAGE004
;每个特征尺度大小相同,通道是输入特征的1/5,输出为
Figure 258856DEST_PATH_IMAGE006
除了
Figure 252220DEST_PATH_IMAGE008
之外的子特征都有3×3的卷积核
Figure 944233DEST_PATH_IMAGE010
,子特征
Figure 681245DEST_PATH_IMAGE002
Figure 204630DEST_PATH_IMAGE012
相加之后输入到
Figure 572157DEST_PATH_IMAGE010
得到输出
Figure 813783DEST_PATH_IMAGE006
的公式如下:
Figure 17800DEST_PATH_IMAGE014
(1)。
如图3所示,为Res2Net的网络结构示意图,先使用1×1的卷积对输入的特征图进行卷积后,它将特征图均匀的分割成5个特征图子集。除外,每个都有一个相应的3×3卷积的过滤器,一组过滤器从对应的一组特征图中提取信息。前面得到的信息送到另一组过滤器中作为输入。重复此操作,直到处理完所有输入特征图。最后,每组输出的特征图通过拼接操作送入1×1的卷积中用于进行特征融合。
所述步骤2中的结合卷积注意力模块CBAM包含2个独立的子模块,通道注意力模块,简称CAM,和空间注意力模块,简称SAM ,结合了空间(spatial)和通道(channel)两个不同的维度推算注意力图,相比于Squeeze-and-Excitation Networks(挤压与激励运算网络),简称SEnet只关注通道的注意力机制可以取得更好的效果;通过使用注意机制来增加表现力,关注重要特征并抑制不必要的特征。
所述步骤4中的分类预测包括:
将步骤2中的特征图作为输出结果,经过全连接层操作;
全连接层是为了学习卷积层输出的高级特征,即可能存在的非线性函数关系。经过一系列的训练,模型就能够区分图像中的主要特征和某些低级特征,并使用softmax分类器对其进行分类。
如图6所示,为三种典型的燃烧状态的示例,从左至右状态依次为过燃烧、正常燃烧、欠燃烧。过燃烧状态的火焰图有明显的焰心特征,而欠燃烧状态无焰心存在。
经步骤3产生三维预测,对应欠燃烧、正常燃烧和过燃烧三种燃烧状态,对特征层全连接后经过softmax分类器,softmax函数将输入转换为具有分类分布的概率。最终输出三个燃烧类别的预测概率,预测概率最高的燃烧状态则为此时回转窑内的燃烧状态。
如图5所示,为Softmax分类器预测过程,如果判断输入属于某一个类的概率大于属于其他类的概率,那么这个类对应的值就逼近于1,其他类的值就逼近于0。Softmax通过取每个输出的指数然后将logit(多类分类神经网络的最后一个线性层的数字输出)转化为概率,然后通过这些指数的总和对每个数进行归一化,因此整个输出向量加起来为所有概率加起来等于1。交叉损失熵通常是此类多类别分类问题的损失函数。Softmax通常会附加到图像分类网络的最后一层。采用softmax分类器来预测燃烧状态,最终输出三个燃烧类别预测得分。例如,训练的模型可能推测一张包含过燃烧火焰的图片代表过燃烧的概率为80%,但是判断正常燃烧的概率为10%(因为正常燃烧和过燃烧都有相似的焰心),判断它代表欠燃烧的概率更小。于是取最大概率的对应数值80%,就代表为此时窑内燃烧状态为过燃烧。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

Claims (5)

1.一种回转窑火焰燃烧状态识别方法,其特征在于,包括以下步骤:
步骤1:使用CDD摄像机采集工厂火焰燃烧视频,处理得到火焰图像数据集;
步骤2:引入由残差网络的改进网络结构,简称Res2Net,和注意力机制,搭建卷积网络分类模型;
采用Res2Net作为特征提取子网络,结合卷积注意力模块,简称CBAM,将火焰图像数据集实现在Res2Net的残差结构中,经CBAM注意力机制模块处理得到特征图;
步骤3:采用得到的图像数据集作为输入,最终产生三维预测,对应欠燃烧、正常燃烧和过燃烧三种燃烧状态的特征图;
步骤4:对特征图进行分类预测,特征图经过全连接层处理;之后经过可信度最大分类器,即softmax分类器,对燃烧状态进行分类,并输出最终的燃烧状态预测分类结果。
2.根据权利要求1所述的一种回转窑火焰燃烧状态识别方法,其特征在于,
步骤1中所述的处理得到火焰图像数据集包括:
S1.1,将从CCD摄像机中捕获到的火焰燃烧视频按帧提取为连续的图像序列,分解成大小为704×576的RGB图像数据集;
S1.2,将图像数据集划分为欠燃烧、正常燃烧、过燃烧三种状态;
S1.3,将S1.2中的图像数据集划分为训练数据集、测试数据集。
3.根据权利要求1所述的一种回转窑火焰燃烧状态识别方法,其特征在于,
所述步骤2中的Res2Net作为特征提取子网络包括:
在第一个1x1卷积后,将输入划分到5个子集,定义
Figure DEST_PATH_IMAGE002
Figure DEST_PATH_IMAGE004
;每个特征尺度大小相同,通道是输入特征的1/5,输出为
Figure DEST_PATH_IMAGE006
除了
Figure DEST_PATH_IMAGE008
之外的子特征都有3×3的卷积核
Figure DEST_PATH_IMAGE010
,子特征
Figure 421978DEST_PATH_IMAGE002
Figure DEST_PATH_IMAGE012
相加之后输入到
Figure 276802DEST_PATH_IMAGE010
得到输出
Figure 56539DEST_PATH_IMAGE006
的公式如下:
Figure DEST_PATH_IMAGE014
(1)。
4.根据权利要求3所述的一种回转窑火焰燃烧状态识别方法,其特征在于,
所述步骤2中的结合卷积注意力模块CBAM包含2个独立的子模块,通道注意力模块,简称CAM,和空间注意力模块,简称SAM ,结合了空间和通道两个不同的维度推算注意力图,通过使用注意机制来增加表现力,关注重要特征并抑制不必要的特征。
5.根据权利要求1所述的一种回转窑火焰燃烧状态识别方法,其特征在于,
所述步骤4中的分类预测包括:
将步骤2中的特征图作为输出结果,经过全连接层操作;
经步骤3产生三维预测,对应欠燃烧、正常燃烧和过燃烧三种燃烧状态,对特征层全连接后经过softmax分类器,softmax函数将输入转换为具有分类分布的概率;最终输出三个燃烧类别的预测概率,预测概率最高的燃烧状态则为此时回转窑内的燃烧状态。
CN202210916924.0A 2022-08-01 2022-08-01 一种回转窑火焰燃烧状态识别方法 Active CN115100578B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210916924.0A CN115100578B (zh) 2022-08-01 2022-08-01 一种回转窑火焰燃烧状态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210916924.0A CN115100578B (zh) 2022-08-01 2022-08-01 一种回转窑火焰燃烧状态识别方法

Publications (2)

Publication Number Publication Date
CN115100578A true CN115100578A (zh) 2022-09-23
CN115100578B CN115100578B (zh) 2024-06-21

Family

ID=83300487

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210916924.0A Active CN115100578B (zh) 2022-08-01 2022-08-01 一种回转窑火焰燃烧状态识别方法

Country Status (1)

Country Link
CN (1) CN115100578B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116188358A (zh) * 2022-11-04 2023-05-30 重庆理工大学 一种基于深度学习的钢轨表面缺陷检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0967152A (ja) * 1995-08-29 1997-03-11 Chichibu Onoda Cement Corp ロータリキルンの燃焼状態監視・制御方法およびその装置
CN112380738A (zh) * 2020-10-20 2021-02-19 济南大学 水泥回转窑燃烧场重构误差补偿与优化方法、存储介质及系统
CN113989162A (zh) * 2021-11-17 2022-01-28 湖南大学 一种基于神经网络对工厂火焰除雾的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0967152A (ja) * 1995-08-29 1997-03-11 Chichibu Onoda Cement Corp ロータリキルンの燃焼状態監視・制御方法およびその装置
CN112380738A (zh) * 2020-10-20 2021-02-19 济南大学 水泥回转窑燃烧场重构误差补偿与优化方法、存储介质及系统
CN113989162A (zh) * 2021-11-17 2022-01-28 湖南大学 一种基于神经网络对工厂火焰除雾的方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李涛;张振庭;陈华: "基于深度学习的回转窑燃烧状态监测系统", 《控制工程》, 9 April 2020 (2020-04-09) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116188358A (zh) * 2022-11-04 2023-05-30 重庆理工大学 一种基于深度学习的钢轨表面缺陷检测方法

Also Published As

Publication number Publication date
CN115100578B (zh) 2024-06-21

Similar Documents

Publication Publication Date Title
CN112966646B (zh) 基于双路模型融合的视频分割方法、装置、设备及介质
CN103902987A (zh) 一种基于卷积网络的台标识别方法
Liao et al. Triplet-based deep similarity learning for person re-identification
CN110929099B (zh) 一种基于多任务学习的短视频帧语义提取方法及系统
CN110717495B (zh) 基于多尺度颜色矩特征和随机森林的固废焚烧工况识别方法
CN111046728A (zh) 一种基于特征金字塔网络的秸秆燃烧检测方法
CN116152658A (zh) 一种基于域对抗特征融合网络的林火烟雾检测方法
CN115100578B (zh) 一种回转窑火焰燃烧状态识别方法
Ahmed et al. A machine learning-based approach for picture acquisition timeslot prediction using defective pixels
Flor et al. PRNU-based source camera identification for multimedia forensics
CN112990357B (zh) 一种基于稀疏扰动的黑盒视频对抗样本生成方法
Li et al. Fire flame image detection based on transfer learning
CN113989162A (zh) 一种基于神经网络对工厂火焰除雾的方法
Huang et al. A method for identifying origin of digital images using a convolutional neural network
CN112085096A (zh) 一种基于迁移学习的物体局部异常发热检测的方法
He et al. Dynamic residual distillation network for face anti-spoofing with feature attention learning
CN116543333A (zh) 电力系统的目标识别方法、训练方法、装置、设备和介质
Zhang et al. Advanced face anti-spoofing with depth segmentation
Hernandez et al. Classification of color textures with random field models and neural networks
CN114241348A (zh) 基于多模块卷积神经网络的异常行为识别方法及装置
Zhang et al. A Novel Segmentation Method for Furnace Flame Using Adaptive Color Model and Hybrid‐Coded HLO
Baishya et al. Luminance Channel Based Camera Model Identification
CN111666819A (zh) 一种融合多元信息的高精度视频异常事件检测方法
Sahib et al. Deep learning for image forgery classification based on modified Xception net and dense net
Gope et al. Fire Detection in Still Image Using Color Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant