CN114169385A - 基于混合数据增强的mswi过程燃烧状态识别方法 - Google Patents
基于混合数据增强的mswi过程燃烧状态识别方法 Download PDFInfo
- Publication number
- CN114169385A CN114169385A CN202111144633.6A CN202111144633A CN114169385A CN 114169385 A CN114169385 A CN 114169385A CN 202111144633 A CN202111144633 A CN 202111144633A CN 114169385 A CN114169385 A CN 114169385A
- Authority
- CN
- China
- Prior art keywords
- network
- combustion
- dcgan
- image
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002485 combustion reaction Methods 0.000 title claims abstract description 166
- 238000000034 method Methods 0.000 title claims abstract description 66
- 230000008569 process Effects 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 30
- 238000013527 convolutional neural network Methods 0.000 claims description 29
- 238000004422 calculation algorithm Methods 0.000 claims description 19
- 238000009826 distribution Methods 0.000 claims description 19
- 238000012360 testing method Methods 0.000 claims description 19
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 238000012795 verification Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000011049 filling Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000003042 antagnostic effect Effects 0.000 claims description 2
- 238000013461 design Methods 0.000 claims description 2
- 238000001035 drying Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 210000002569 neuron Anatomy 0.000 claims description 2
- 239000002910 solid waste Substances 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 abstract description 6
- 230000007547 defect Effects 0.000 abstract description 5
- 238000011160 research Methods 0.000 abstract description 4
- 238000012216 screening Methods 0.000 abstract description 2
- 238000005192 partition Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000003344 environmental pollutant Substances 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 231100000719 pollutant Toxicity 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004939 coking Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000011217 control strategy Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000012535 impurity Substances 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000004064 recycling Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000004056 waste incineration Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
基于混合数据增强的MSWI过程燃烧状态识别方法属于燃烧状态识别领域。本发明针对目前燃烧状态识别方法存在的局限性,归纳总结了研究中存在的问题,首次将GAN用于MSWI过程燃烧状态识别;分析了生成式数据增强的缺陷,并提出一种混合式数据增强的方法,弥补了生成对抗式数据增强的不足;设计一种切实可行的实验策略,通过弗雷歇距离(Fréchet Inception Distance,FID),对不同生成模型生成的图像质量进行评估,为样本筛选提供了评价指标。通过与其他识别模型对比,表明本文所构建的燃烧状态识别模型泛化性能好、准确率高且鲁棒性强。
Description
技术领域
本发明属于燃烧状态识别领域。
背景技术
城市固废(MSW)受居民生活习惯、季节气候、分类程度等因素的影响,具有热值波动大、杂质多、含水率高等特点。城市固废焚烧(MSWI)作为一种世界范围内MSW典型处理方式,具有减小体量、降低二次污染、通过产热发电实现资源的回收利用等优势。目前,发展中国家的MSWI技术仍处于落后局面,存在诸多问题有待解决,其中最突出的是燃烧不稳定造成的污染物排放不达标问题。此外,MSWI状态的不稳定易造成炉膛内结焦、积灰、腐蚀等问题,严重时甚至会引起炉膛爆炸。因此,稳定燃烧状态是保障MSWI过程高效运行、污染物排放达标的关键。如图1所示,在国内的MSWI过程中,运行专家通过观察火焰图像以识别燃烬线位置,进而修正控制策略。然而,依据运行专家经验的燃烧状态识别方法具有主观性与随意性,其智能化程度较低,难以满足当前MSWI工业的优化运行需求。针对复杂多变的MSWI环境,如何构造鲁棒性强的MSWI过程燃烧状态识别模型仍是一个开放性难题。
MSWI过程的燃烧火焰具有亮度差异、遮挡、类内形变、运动模糊等特征,进而导致不同状态下的燃烧图像像素差异较大,使得基于硬编码的燃烧状态识别方法难以适用。近年来,基于数据驱动的研究方法在尝试解决语义鸿沟问题等方面取得了重大进展,为MSWI过程的燃烧状态识别奠定了基础。
目前,基于数据驱动的识别模型包括近邻分类器、贝叶斯分类器、线性分类器、支撑向量机(SVM)、神经网络分类器、随机森林以及多方法结合等,其策略可分为两类:一类是基于特征提取与分类器组合的方法,又称为特征工程;一类是基于深度学习的端到端方法,主要以卷积神经网络(CNN)为代表。
相比于深度学习算法,特征工程不依赖于大样本数据,已在燃烧状态的识别中得到了应用。但MSWI过程是一个具有强不确定性特征的工业过程,其燃烧火焰图像易受环境干扰。现有的火焰特征选择方法通常依赖于专家先验知识,这导致基于特征工程的识别算法的鲁棒性能较弱且泛化性能较差。基于CNN的识别模型因具有良好的特征提取能力和泛化性能,已在诸多领域得到广泛应用。然而,以CNN为代表的监督学习网络模型的准确率直接取决于标签样本的规模与质量,而MSWI过程的图像采集设备长期处于强干扰环境中,导致样本标定困难。因此,如何基于现有技术获得高质量样本是提升燃烧状态识别模型性能所面临的难点之一。
常用的图像数据增强方法包含几何变换、颜色抖动、随机噪声等,其本质是对原始数据进行非生成式变换以实现样本的增加,从而缓解识别模型过拟合现象。然而,以上方法未增加新样本的信息,因此缓解过拟合的效果有限。基于GAN的数据增强策略博弈最终将达到纳什均衡状态。此时,生成器虽然能够生成符合小样本数据的概率分布的数据,却难以创造出新特征。因此,基于GAN的数据增强识别模型的鲁棒性难以得到实质性的提升。非生成式数据增强操作在本质上未改变图像本质内容,模型的泛化性能提升有限,但通过平移、旋转、填充火焰图像却能够获得新的特征。因此,本文构建了一种混合式数据增强的MSWI过程燃烧状态识别模型,主要工作包括:
1)针对目前燃烧状态识别方法存在的局限性,归纳总结了研究中存在的问题,首次将GAN用于MSWI过程燃烧状态识别。
2)分析了生成式数据增强的缺陷,并提出一种混合式数据增强的方法,弥补了生成对抗式数据增强的不足。
3)设计一种切实可行的实验策略,通过弗雷歇距离(Fréchet InceptionDistance,FID),对不同生成模型生成的图像质量进行评估,为样本筛选提供了评价指标。
4)通过与其他识别模型对比,表明本文所构建的燃烧状态识别模型泛化性能好、准确率高且鲁棒性强。
发明内容
本节提出如图2所示基于混合数据增强的MSWI过程燃烧状态识别模型,该模型由数据预处理模块、生成式数据增强模块、增强图像选择模块、燃烧状态识别模块四部分组成。
图2中,XFW、XNM和XBC表示燃烧线前移、正常和后移三种燃烧状态数据集;X'FW、X'NM和X'BC表示前移、正常和后移三种燃烧状态的训练样本集;X"FW、X"NM和X"BC表示前移、正常和后移三种燃烧状态的验证集和测试集样本;z表示服从正态分布的100维随机噪声;G(z)表示由随机噪声经过生成网络得到的虚拟样本;SD,t和SG,t表示燃烧图像粗调DCGAN中获得的判别网络和生成网络的结构参数;Xreal在燃烧图像粗调DCGAN子模块中参加博弈的真实数据,该数据不随博弈而改变,故无下标t;Xfalse,t表示在燃烧图像粗调DCGAN子模块参加第t轮博弈的生成数据;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;Dt(·,·)和Dt+1(·,·)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;YD,t和YG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈训练判别网络和生成网络的真实值集合;lossD,t和lossG,t分别表示在燃烧图像粗调DCGAN子模块中第t次博弈更新判别网络和生成网络的损失值;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加博弈的真实数据,该数据不随博弈次数的变化而变化;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加第t次博弈的生成数据;和分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈判别网络更新前的网络参数;和分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈生成网络更新前的网络参数;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为和时判别网络的预测值集合;和分别表在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为 和时判别网络的预测值集合;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练判别网络的真实值集合; 和分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练生成网络的真实值集合;和分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新判别网络的损失值;和分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新生成网络的损失值;ξFW、ξNM和ξBC分别表示增强图像选择模块中前移、正常和后移FID值的阈值;YCNN,t表示燃烧状态识别模块第t次更新CNN模型真实输出集合;YCNN,t表示燃烧状态识别模块第t次更新CNN模型预测值集合;lossCNN,t表示燃烧状态识别模块第t次更新CNN的损失;θCNN,t表示燃烧状态识别模块第t次更新CNN的网络更新参数。
图2中不同模块的功能描述如下:
1)数据预处理模块:其输出为典型工况下的三种燃烧状态图像;主要功能是从MSWI电厂采集图像数据,并选取典型工况得到三种燃烧状态图像数据,并将其划分为训练样本集、验证样本集和测试样本集。
2)生成式数据增强模块:主要由一个粗调DCGAN子模块和三个精调DCGAN子模块组成,在燃烧图像粗调DCGAN子模块中:其输入是在所有燃烧图像中随机采样获取的数据集,其输出是判别网络、生成网络的结构参数;主要功能是获取能够生成优质样本;在三个精调DCGAN子模块中:其输入为对应燃烧状态的训练样本集和粗调DCGAN中生成网络、判别网络的结构参数,其输出为对应燃烧状态的生成图像;主要功能是通过博弈生成不同燃烧状态下的优质样本。
3)增强数据选择模块:其输入为生成的不同燃烧状态的优质样本和对应状态下的训练样本,其输出为构建不同燃烧状态的训练、验证和测试集;主要功能是:分别计算对应子模块中真实数据与生成数据间FID值,基于FID值选择优质样本放入训练集。
4)燃烧状态识别模块:其输入为上述模块构建的训练、验证和测试集,其输出为验证集、测试集的准确率与损失;主要功能是对上述模块构建的训练样本进行非生成式数据增强,并基于混合数据训练CNN。
综上所述,上述不同模块分别实现了数据预处理、基于生成对抗式的数据增强、基于FID的增强图像选择和基于混合式数据增强的燃烧状态识别,其中,针对燃烧状态图像设计生成式和非生成式数据增强建模方法,并将二者融合的策略是本文所提方法的核心。
2.1数据预处理模块
首先,燃烧火焰视频通过电缆传输和视频卡采集,然后将采集的视频以分钟为周期进行存储,最后结合领域专家经验和机理知识选择燃烧线处于不同位置的标准火焰图像。按照干燥段、燃烧段和燃烬段共3个区域对标准火焰图像进行划分,并对每张图像进行标记。
2.2生成式数据增强模块
如图2所示,生成式数据增强模块主要由四个DCGAN子模块组成,燃烧图像粗调DCGAN子模块随机选取固废燃烧图像进行博弈,从而获得较好的网络结构,其余子模块采用燃烧图像粗调DCGAN的网络结构,并对其超参数进行精调。
以粗调DCGAN子模块中第t轮博弈为例:首先,将随机获取的燃烧图像作为DCGAN的Xreal,由z通过生成网络得到Xfalse,t;接着,Xreal和Xfalse,t经过网络参数为θD,t的判别网络后得到Dt(·,·),通过将真实图片标记为1和虚假图片标记为0得到YD,t,将Dt(·,·)和YD,t根据损失函数计算得到lossD,t,其经过优化器得到判别网络的新参数θD,t+1以更新判别网络;然后,Xreal和Xfalse,t经过网络参数为θD,t+1的判别网络后得到Dt+1(·,·),通过将真实图片和虚假图片均标记为1得到YG,t,将Dt+1(·,·)和YG,t根据损失函数的计算得到lossG,t,其经过优化器得到生成网络新参数θG,t+1以更新生成网络;最后,重复进行上述博弈以获得生成数据。
2.2.1小结以粗调DCGAN子模块为例介绍网络的结构,2.2.2小节介绍以粗调DCGAN子模块中判别网络为例介绍学习算法,2.2.3小节以粗调DCGAN子模块为例介绍网络博弈过程;2.2.4介绍多工况图像生成的必要性。
2.2.1DCGAN网络结构
DCGAN由生成网络和判别网络两个前馈网络组成。生成网络由全连接层、批归一化层、形状变换层、上采样层、卷积层和激活层组成。生成网络的设计目标是将潜在空间100维的随机向量z生成符合真实图像分布的图像:首先,由潜在空间100维的随机向量z经全连接层输出具有16*16*128=32768个变量的一维向量;接着,通过形状变换将其变为(16,16,128)的张量;然后,上采样操作将形状为(16,16,128)的张量转化为形状(32,32,128)的张量,将形状为(32,32,128)的张量转化为形状(64,64,128)的张量,在该过程中的每个上采样操作后添加卷积核尺寸为4、填充方式为“same”、步长为1、通道数分别为128、64和3的卷积层,使网络能够记录火焰图像的空间特征,并最终变换成(64,64,3)的目标形状,即RGB图像的目标形状;最后,使用Tanh激活函数将最终输出转换成-1~1之间的实数,以方便生成图像时将其转换成对应的像素。将批量归一化层添加在全连接层后以缓解内部协变量转移问题,进而提高网络训练速度与稳定性;激活函数LeakyReLU(alpha=0.2)在增加网络非线性描述能力的同时,保证了梯度下降的稳定性,提高了与判别网络博弈过程的稳定。
判别网络由全连接层、形状变换层、上采样层、卷积层和激活层组成。判别网络的目标是给出图片为真的概率:首先,由卷积核尺寸为4、通道数分别为32、64、128和256的4个卷积层的叠加实现特征提取,卷积层中间添加LeakyRelu(alpha=0.2),增加网络非线性的同时保证判别网络在与生成网络博弈过程的稳定,Dropout(0.5)层通过随机丢失50%神经元缓解网络过拟合问题;然后,Flatten层将特征图铺平;最后,将激活函数为“sigmoid”的Dense层作为分类器,得到图片为真的概率。
2.2.2网络学习算法
在DCGAN中,生成网络和判别网络均属于前馈神经网络,以燃烧图像粗调DCGAN中第t轮判别网络更新为例:其参数更新步骤包括用反向传播算法计算梯度和Adam算法更新权重参数。
1)反向传播算法计算梯度:为表述方便,将图像集[Xreal;Xfalse,t]表示为X即[x1;x2;...;xa;...],其中xa表示第a张图片,Dt(xa)表示第a张图片输入判别网络预测值,Dt(X)表示判别网络预测值集合即Dt(·,·),YD,t表示判别网络真实输出集合[y1;y2;...;ya;...],其中ya表示第a张图片的真值,L为损失函数,损失函数的表达式为L(YD,t,Dt(X)),进而将某个具体损失函数表示为:L(ya,Dt(xa)),其梯度如下式所示:
由于判别网络的结构复杂,Dt难以直接求得。因此,采用反向传播算法通过链式法则由后往前推导,从而简化判别网络节点的梯度,如下式所示:
2)采用Adam梯度下降算法更新判别网络参数,Adam更新权重的公式为:
式中,θD,t为第t次判别网络的参数;α为学习率,值为0.00015;γ为很小的正实数,值为1*10-8,用于防止分母为0;mD,t表示第t次判别网络的一阶动量,如下式:
vD,t表示第t次判别网络的二阶动量,如下式:
对于第t轮迭代,判别网络参数的更新步骤为:首先,根据式(2)~(5)可计算当前每层参数的梯度,进而获得整个网络参数的梯度接着,根据历史梯度计算一阶动量mD,t与二阶动量vD,t;然后,计算第t次的下降梯度ηD,t,如下式:
最后,采用ηD,t更新第t次的判别网络参数θD,t以得到t+1次的网络参数θD,t+1,如下式:
θD,t+1=θD,t-ηD,t (10)
燃烧图像粗调DCGAN中Adam梯度下降算法更新生成网络参数,其学习率值为0.00015,β1=0.5,β2=0.99。
2.2.3网络博弈过程
生成对抗式数据增强是通过生成网络与判别网络的博弈参数进行更新,因此梯度信息尤为重要。以燃烧图像粗调DCGAN第t次博弈为例:更新判别网络参数和生成网络参数的目标函数如式(13)和(14)所示,其中,pr(x)表示真实数据的概率分布;pz(z)表示潜在空间100维的随机向量z服从的正态分布;E表示期望;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;θD,t+1和θG,t+1表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新后的网络参数;Dt(x)和Dt+1(x)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;表示logDt(x)的期望,其中,x服从真实数据的概率分布;表示log(1-Dt(Gt(z)))的期望,其中,z服从pz(z);Ez~p(z)log(Dt+1(Gt(z)))表示log(Dt+1(Gt(z)))的期望,其中,z服从pz(z)。
在博弈过程中,交替更新判别网络和生成网络参数。该目标函数能够有效解决早期梯度不足与训练困难的问题,后期梯度下降过快导致梯度爆炸等问题。实现该目标函数的方式为:设GAN的损失函数为二元交叉熵函数,如下式所示:
式中,Y表示神经网络真值集合,f(X)表示神经网络预测值集合,xa表示第a张图片,f(xa)表示第a张图片输入神经网络的预测值,ya表示第a张图片的真值,n表示图片的总个数。
1)输入一张真实图像,ya=1,损失为-log(Dt(xa))=-logDt(x);当输入一组真实图像数据集时,可获得下式:
2)当输入一个虚假图像,ya=0,损失为log(1-Dt(xa))=-log(1-Dt(Gt(z)))。当输入一组生成图像数据集时可获得下式:
本文中的对抗网络生成模型共有四个:燃烧图像粗调DCGAN、燃烧线前移精调DCGAN、燃烧线正常精调DCGAN和燃烧线后移精调DCGAN,其原因在于:在pr和pg是常数的情况下GAN的目标函数已被证明网络能够收敛,而实际pr和pg是混合高斯分布。因此,针对不同工况下焚烧图像数据分布存在差异的情况,选取多种工况的燃烧图像训练燃烧图像DCGAN,以获得较好的网络模型;对每个燃烧状态采用该网络结构并微调其超参数。微调结果如表1所示,其中,epochs表示遍历整个数据集的次数,Epoch_FID_start表示从Epoch_FID_start轮迭代开始计算FID。
表1超参数微调
在上述3个生成模型更新的过程中,采用的FID指标如下式所示:
式中,μr与μg表示真实图像集和生成图像集多元正态分布的均值;Covr与Covg表示真实图像集和生成图像集的协方差矩阵;Tr表示真实图像集矩阵的迹。首先,抽取Inception网络的中间层映射,构建一个多元正态分布学习这些特征映射的概率分布;然后,使用式(18)计算真实图像与生成图像间的FID分数,其中,FID分数越低,说明模型质量越高,其生成具有多样性、高质量的图像的能力也越强;最后,采用FID对生成模型的图像质量进行评估。当FID小于设定阈值时,将生成合格燃烧图像并将其放入训练集,其中,前移、正常和后移的阈值ξFW、ξNM和ξBC分别为60、60和63。
本文使用增强数据训练基于CNN的燃烧状态识别模型。架构如图2中的燃烧状态识别模块所示:1)非生成式数据增强:将所有数据集像素点值除以255,同时对训练集的数据随机旋转0~5°,沿水平方向随机平移比例0~0.3,随机将图片水平翻转,填充新创建的像素的方法为“reflect”;2)CNN结构:首先将4层卷积核为(3,3)的卷积和窗口尺寸为(2,2)的最大池化层堆叠以提取特征,然后通过Flatten层将张量拉平,结合Dropout防止过拟合,最后将全连接层做分类器,其中,损失函数采用交叉熵函数,优化器采用Adam优化器,其学习率为0.001,其他参数均为默认值。
附图说明
图1 MSWI过程工艺图
图2基于DCGAN数据增强的燃烧状态识别策略
图3生成网络结构
图4判别网络结构
图5燃烧线前移
图6燃烧线正常
图7燃烧线后移
图8随机选取的迭代过程中FID对生成燃烧状态图像的评估结果
图9迭代过程中FID对生成不同燃烧状态图像的评估结果
图10 A划分燃烧线前移图像的扩充结果
图11 A划分燃烧线正常图像扩充结果
图12 A划分燃烧线后移扩充结果
图13非生成式数据增强
图14不同生成模型生成的燃烧状态图像
具体实施方式
在北京市某MSWI电厂焚烧炉的炉膛后壁安装摄像头,采集的数据通过电缆传送至工控机的视频采集卡,采用相应软件获取单通道视频,并对火焰图像按每分钟进行存储。根据专家经验和炉排结构,选取典型工况下的数据标记燃烧线前移、正常和后移的各90张图像。按时间段将每种工况数据集划分为T1至T10,每个时间段的数据为9张图像;其中T9和T10时间段的数据受噪声影响较大,存在图像不清晰、MSW焚烧不均匀等问题。本文选取的两种划分数据集的方式如表2所示。
表2数据集划分
通过A划分可测试识别模型的鲁棒性。B划分涵盖工况全面,其准确率可反应模型的泛化性能。为确保结果的严谨,对每种划分进行10次重复实验,结果以均值和方差的形式呈现。
结合专家经验,将燃烧状态划分为燃烧线前移、正常和后移,典型图片如图5~图7所示。由图可知,完全符合燃烧线前移、正常和后移图像仅是少数,多数图像是部分前移或后移,显然此类图片标定具有一定主观性,为燃烧状态识别造成困难。
针对燃烧状态数据,本文采取先随机取部分火焰图像构建DCGAN结构、再针对不同燃烧状态图像对DCGAN超参数单独微调的策略,以此保证DCGAN尽可能生成不同燃烧状态质量优异的新数据。
首先,随机选取部分火焰图像构建DCGAN结构,并采用FID算法对最后500批次进行评估,如图8所示,FIDmin=36.10,FIDaverage=48.51。这表明本文设计的DCGAN模型性能的优异。针对不同燃烧状态图像对DCGAN超参数单独微调,对燃烧线前移、正常和后移模型生成图像的评估结果如图9所示。该结果反应博弈过程中生成图像Xfalse的质量情况,当FID低于70时的图像清晰,已基本满足增强图像的需求。
对于A划分,燃烧线前移、正常和后移训练集扩充图像数量分别为5060、3452和3312。对于B划分,燃烧线前移、正常和后移训练集扩充图像数量分别为6912,7632和9360。A划分的部分扩充结果如图10~图12所示。
本文采用的非生成式数据增强方式为:随机旋转角度值为0~5°、随机水平位移比例为0~0.3、支持随机水平翻转图像和以映射方式填充新创建像素。某张燃烧线前移图像增强的效果如图13所示。A划分识别模型验证集和测试集识别准确率结果为72.69%和84.82%,损失结果为0.9768和0.5520;B划分识别模型验证集和测试集识别准确率结果为97.41%和94.07%,损失结果为0.0699和0.2019。
将本文的方法与GAN、DCGAN进行比较,结果如表3所示,生成图像质量对比如图14所示。实验表明,本文设计的DCGAN模型结构相比于GAN,DCGAN能够在更短的epoch中获得更优的结果。
表3不同生成模型生成数据的评估结果
此外,本文的4组对比实验分别为:基于CNN的燃烧状态识别模型、基于非生成式数据增强的燃烧状态识别模型、基于DCGAN数据增强的燃烧状态识别模型、基于DCGAN与非生成式组合的数据增强燃烧状态识别模型。每组实验重复10次的平均值和方差如表4所示。
表4识别模型的性能对比
由表4可知,在A划分中,基于混合数据增强的MSWI过程燃烧状态识别模型测试集准确率为84.82%,损失为0.5520,相比于其他方法,混合式数据增强能够提高模型鲁棒性;在B划分中,基于混合数据增强的MSWI识别模型测试集准确率为94.07%,相比于其他方法,模型的泛化性能更好。本文将非生成式和生成式数据增强结合后,CNN的鲁棒性和泛化性能得到明显的提升。
基于DCGAN数据增强的燃烧状态识别模型相比于未做数据增强,泛化性能与鲁棒性有一定提升。但仅采用生成式数据增强却不如仅采用非生成式数据增强,本文给出以下解释:1)本文设计的非生成式数据增强能够有效增加火焰图像新的特征,从而提高模型的鲁棒性能;2)基于DCGAN的数据增强虽然创造出新的样本,但当DCGAN通过博弈达到纳什均衡状态时,生成网络为欺骗判别网络,仅根据学习到的特征形成新的火焰图像而非创造新的特征,因此该图像对CNN的鲁棒性能的提升有限;3)A划分的测试集、验证集与训练集源于不同的时间段,其特征差异大,且部分图像的标定存在主观性;4)基于DCGAN数据增强将原270张样本扩充到上万个样本,由于其特征的相似性,导致CNN在训练过程中难以控制迭代次数与批次。如何实现两者的均衡仍有待研究。
本文提出一种基于混合数据增强的MSWI过程燃烧状态识别模型,其创新性表现在:1)指出了基于对抗生成式数据增强的不足,并针对生成式、非生成式数据增强的缺陷,提出基于混合数据增强的MSWI过程燃烧状态识别模型策略。2)构建基于DCGAN的生成式数据增强模块,设计面向燃烧图像的生成网络结构;3)针对火焰燃烧图像,设计一种非生成式数据增强的方法;本文方法综合生成式数据增强与非生成式数据增强的优点,能够有效生成优质的样本,从而使得MSWI状态识别模型具有较好的泛化性能与鲁棒性。
需要指出的是工业现场并非缺少数据,而是标记困难。如何充分利用海量数据实现自动标记以及半监督或无监督学习、提高模型的泛化性和鲁棒性是下一步研究方向
附表:本文符号及含义表
Claims (1)
1.基于混合数据增强的MSWI过程燃烧状态识别方法,其特征在于:
提出基于混合数据增强的MSWI过程燃烧状态识别模型,该模型由数据预处理模块、生成式数据增强模块、增强图像选择模块、燃烧状态识别模块四部分组成;
XFW、XNM和XBC表示燃烧线前移、正常和后移三种燃烧状态数据集;X'FW、X'NM和X'BC表示前移、正常和后移三种燃烧状态的训练样本集;X"FW、X"NM和X"BC表示前移、正常和后移三种燃烧状态的验证集和测试集样本;z表示服从正态分布的100维随机噪声;G(z)表示由随机噪声经过生成网络得到的虚拟样本;SD,t和SG,t表示燃烧图像粗调DCGAN中获得的判别网络和生成网络的结构参数;Xreal在燃烧图像粗调DCGAN子模块中参加博弈的真实数据,该数据不随博弈而改变,故无下标t;Xfalse,t表示在燃烧图像粗调DCGAN子模块参加第t轮博弈的生成数据;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;Dt(·,·)和Dt+1(·,·)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;YD,t和YG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈训练判别网络和生成网络的真实值集合;lossD,t和lossG,t分别表示在燃烧图像粗调DCGAN子模块中第t次博弈更新判别网络和生成网络的损失值;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加博弈的真实数据,该数据不随博弈次数的变化而变化;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加第t次博弈的生成数据; 和分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈判别网络更新前的网络参数;和分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈生成网络更新前的网络参数;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为和时判别网络的预测值集合;和分别表在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为和时判别网络的预测值集合;和分别表示在燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练判别网络的真实值集合;和分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练生成网络的真实值集合;和分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新判别网络的损失值;和分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新生成网络的损失值;ξFW、ξNM和ξBC分别表示增强图像选择模块中前移、正常和后移FID值的阈值;YCNN,t表示燃烧状态识别模块第t次更新CNN模型真实输出集合;YCNN,t表示燃烧状态识别模块第t次更新CNN模型预测值集合;lossCNN,t表示燃烧状态识别模块第t次更新CNN的损失;θCNN,t表示燃烧状态识别模块第t次更新CNN的网络更新参数;
1)数据预处理模块:其输出为典型工况下的三种燃烧状态图像;从MSWI电厂采集图像数据,并选取典型工况得到三种燃烧状态图像数据,并将其划分为训练样本集、验证样本集和测试样本集;
2)生成式数据增强模块:主要由一个粗调DCGAN子模块和三个精调DCGAN子模块组成,在燃烧图像粗调DCGAN子模块中:其输入是在所有燃烧图像中随机采样获取的数据集,其输出是判别网络、生成网络的结构参数;在三个精调DCGAN子模块中:其输入为对应燃烧状态的训练样本集和粗调DCGAN中生成网络、判别网络的结构参数,其输出为对应燃烧状态的生成图像;
3)增强数据选择模块:其输入为生成的不同燃烧状态的优质样本和对应状态下的训练样本,其输出为构建不同燃烧状态的训练、验证和测试集;分别计算对应子模块中真实数据与生成数据间FID值,基于FID值选择优质样本放入训练集;
4)燃烧状态识别模块:其输入为上述模块构建的训练、验证和测试集,其输出为验证集、测试集的准确率与损失;对上述模块构建的训练样本进行非生成式数据增强,并基于混合数据训练CNN;
数据预处理模块:燃烧火焰视频通过电缆传输和视频卡采集,然后将采集的视频以分钟为周期进行存储,选择燃烧线处于不同位置的标准火焰图像;按照干燥段、燃烧段和燃烬段共3个区域对标准火焰图像进行划分,并对每张图像进行标记;
生成式数据增强模块由四个DCGAN子模块组成,燃烧图像粗调DCGAN子模块随机选取固废燃烧图像进行博弈,其余子模块采用燃烧图像粗调DCGAN的网络结构,并对其超参数进行精调;
粗调DCGAN子模块中第t轮博弈:首先,将随机获取的燃烧图像作为DCGAN的Xreal,由z通过生成网络得到Xfalse,t;接着,Xreal和Xfalse,t经过网络参数为θD,t的判别网络后得到Dt(·,·),通过将真实图片标记为1和虚假图片标记为0得到YD,t,将Dt(·,·)和YD,t根据损失函数计算得到lossD,t,其经过优化器得到判别网络的新参数θD,t+1以更新判别网络;然后,Xreal和Xfalse,t经过网络参数为θD,t+1的判别网络后得到Dt+1(·,·),通过将真实图片和虚假图片均标记为1得到YG,t,将Dt+1(·,·)和YG,t根据损失函数的计算得到lossG,t,其经过优化器得到生成网络新参数θG,t+1以更新生成网络;重复进行上述博弈以获得生成数据;
DCGAN网络结构
DCGAN由生成网络和判别网络两个前馈网络组成;生成网络由全连接层、批归一化层、形状变换层、上采样层、卷积层和激活层组成;生成网络的设计目标是将潜在空间100维的随机向量z生成符合真实图像分布的图像:首先,由潜在空间100维的随机向量z经全连接层输出具有16*16*128=32768个变量的一维向量;接着,通过形状变换将其变为(16,16,128)的张量;然后,上采样操作将形状为(16,16,128)的张量转化为形状(32,32,128)的张量,将形状为(32,32,128)的张量转化为形状(64,64,128)的张量,每个上采样操作后添加卷积核尺寸为4、填充方式为“same”、步长为1、通道数分别为128、64和3的卷积层,使网络能够记录火焰图像的空间特征,并最终变换成(64,64,3)的目标形状,即RGB图像的目标形状;使用Tanh激活函数将最终输出转换成-1~1之间的实数;将批量归一化层添加在全连接层后;
判别网络由全连接层、形状变换层、上采样层、卷积层和激活层组成;判别网络的目标是给出图片为真的概率:首先,由卷积核尺寸为4、通道数分别为32、64、128和256的4个卷积层的叠加实现特征提取,卷积层中间添加LeakyRelu(alpha=0.2),增加网络非线性的同时保证判别网络在与生成网络博弈过程的稳定,Dropout(0.5)层通过随机丢失50%神经元缓解网络过拟合问题;然后,Flatten层将特征图铺平;最后,将激活函数为“sigmoid”的Dense层作为分类器,得到图片为真的概率;
在DCGAN中,生成网络和判别网络均属于前馈神经网络,以燃烧图像粗调DCGAN中第t轮判别网络更新为例:其参数更新步骤包括用反向传播算法计算梯度和Adam算法更新权重参数;
1)反向传播算法计算梯度:为表述方便,将图像集[Xreal;Xfalse,t]表示为X即[x1;x2;...;xa;...],其中xa表示第a张图片,Dt(xa)表示第a张图片输入判别网络预测值,Dt(X)表示判别网络预测值集合即Dt(·,·),YD,t表示判别网络真实输出集合[y1;y2;...;ya;...],其中ya表示第a张图片的真值,L为损失函数,损失函数的表达式为L(YD,t,Dt(X)),进而将某个具体损失函数表示为:L(ya,Dt(xa)),其梯度如下式所示:
采用反向传播算法通过链式法则由后往前推导,从而简化判别网络节点的梯度,如下式所示:
采用Adam梯度下降算法更新判别网络参数,Adam更新权重的公式为:
式中,θD,t为第t次判别网络的参数;α为学习率,值为0.00015;γ为很小的正实数,用于防止分母为0;mD,t表示第t次判别网络的一阶动量,如下式:
vD,t表示第t次判别网络的二阶动量,如下式:
对于第t轮迭代,判别网络参数的更新步骤为:首先,根据式(2)~(5)计算当前每层参数的梯度,进而获得整个网络参数的梯度接着,根据历史梯度计算一阶动量mD,t与二阶动量vD,t;然后,计算第t次的下降梯度ηD,t,如下式:
最后,采用ηD,t更新第t次的判别网络参数θD,t以得到t+1次的网络参数θD,t+1,如下式:
θD,t+1=θD,t-ηD,t(10)
燃烧图像粗调DCGAN中Adam梯度下降算法更新生成网络参数,其学习率值为0.00015,β1=0.5,β2=0.99;
燃烧图像粗调DCGAN第t次博弈:更新判别网络参数和生成网络参数的目标函数如式(13)和(14)所示,其中,pr(x)表示真实数据的概率分布;pz(z)表示潜在空间100维的随机向量z服从的正态分布;E表示期望;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;θD,t+1和θG,t+1表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新后的网络参数;Dt(x)和Dt+1(x)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;表示logDt(x)的期望,其中,x服从真实数据的概率分布;表示log(1-Dt(Gt(z)))的期望,其中,z服从pz(z);Ez~p(z)log(Dt+1(Gt(z)))表示log(Dt+1(Gt(z)))的期望,其中,z服从pz(z);
在博弈过程中,交替更新判别网络和生成网络参数;实现该目标函数的方式为:设GAN的损失函数为二元交叉熵函数,如下式所示:
式中,Y表示神经网络真值集合,f(X)表示神经网络预测值集合,xa表示第a张图片,f(xa)表示第a张图片输入神经网络的预测值,ya表示第a张图片的真值,n表示图片的总个数;
1)输入一张真实图像,ya=1,损失为-log(Dt(xa))=-logDt(x);当输入一组真实图像数据集时,可获得下式:
2)当输入一个虚假图像,ya=0,损失为log(1-Dt(xa))=-log(1-Dt(Gt(z)));当输入一组生成图像数据集时可获得下式:
本文中的对抗网络生成模型共有四个:燃烧图像粗调DCGAN、燃烧线前移精调DCGAN、燃烧线正常精调DCGAN和燃烧线后移精调DCGAN,其原因在于:在pr和pg是常数的情况下GAN的目标函数已被证明网络能够收敛,而实际pr和pg是混合高斯分布;对每个燃烧状态采用该网络结构并微调其超参数;微调结果如表1所示,其中,epochs表示遍历整个数据集的次数,Epoch_FID_start表示从Epoch_FID_start轮迭代开始计算FID;
表1超参数微调
在上述3个生成模型更新的过程中,采用的FID指标如下式所示:
式中,μr与μg表示真实图像集和生成图像集多元正态分布的均值;Covr与Covg表示真实图像集和生成图像集的协方差矩阵;Tr表示真实图像集矩阵的迹;首先,抽取Inception网络的中间层映射,构建一个多元正态分布学习这些特征映射的概率分布;然后,使用式(18)计算真实图像与生成图像间的FID分数,其中,FID分数越低,说明模型质量越高,其生成具有多样性、高质量的图像的能力也越强;最后,采用FID对生成模型的图像质量进行评估;当FID小于设定阈值时,将生成合格燃烧图像并将其放入训练集,其中,前移、正常和后移的阈值ξFW、ξNM和ξBC分别为60、60和63。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111144633.6A CN114169385B (zh) | 2021-09-28 | 2021-09-28 | 基于混合数据增强的mswi过程燃烧状态识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111144633.6A CN114169385B (zh) | 2021-09-28 | 2021-09-28 | 基于混合数据增强的mswi过程燃烧状态识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114169385A true CN114169385A (zh) | 2022-03-11 |
CN114169385B CN114169385B (zh) | 2024-04-09 |
Family
ID=80477006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111144633.6A Active CN114169385B (zh) | 2021-09-28 | 2021-09-28 | 基于混合数据增强的mswi过程燃烧状态识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114169385B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117217101A (zh) * | 2023-11-09 | 2023-12-12 | 中国标准化研究院 | 一种基于虚拟现实技术的实验模拟方法 |
CN117315466A (zh) * | 2023-09-20 | 2023-12-29 | 北京佳格天地科技有限公司 | 一种生长监测管理方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160370001A1 (en) * | 2013-06-28 | 2016-12-22 | Nec Power Co., Ltd. | System and method for diagnosing and controlling incineration facility and solid fuel boiler and managing life cycle of facility through heat exchange and design program and operation mode analysis of operator |
US20180016992A1 (en) * | 2016-07-12 | 2018-01-18 | General Electric Company | Neural network for combustion system flame detection |
CN108022231A (zh) * | 2016-10-31 | 2018-05-11 | 兰州交通大学 | 一种基于萤火虫神经网络的工件内部缺陷识别方法 |
CN108665005A (zh) * | 2018-05-16 | 2018-10-16 | 南京信息工程大学 | 一种利用dcgan提高基于cnn图像识别性能的方法 |
WO2020172838A1 (zh) * | 2019-02-26 | 2020-09-03 | 长沙理工大学 | 一种改进辅助分类器gan的图像分类方法 |
CN111950457A (zh) * | 2020-08-12 | 2020-11-17 | 海默潘多拉数据科技(深圳)有限公司 | 油田安全生产图像识别方法及系统 |
CN112378660A (zh) * | 2020-10-28 | 2021-02-19 | 西北工业大学 | 一种基于数据驱动的航空发动机轴承智能故障诊断方法 |
CN112765908A (zh) * | 2021-01-14 | 2021-05-07 | 大连理工大学 | 一种基于图像序列分析的燃气涡轮发动机燃烧室稳定性分析方法 |
CN113033620A (zh) * | 2021-03-04 | 2021-06-25 | 湖南工业大学 | 一种基于随机森林的多信息融合回转窑产品质量分类识别方法 |
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
-
2021
- 2021-09-28 CN CN202111144633.6A patent/CN114169385B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160370001A1 (en) * | 2013-06-28 | 2016-12-22 | Nec Power Co., Ltd. | System and method for diagnosing and controlling incineration facility and solid fuel boiler and managing life cycle of facility through heat exchange and design program and operation mode analysis of operator |
US20180016992A1 (en) * | 2016-07-12 | 2018-01-18 | General Electric Company | Neural network for combustion system flame detection |
CN108022231A (zh) * | 2016-10-31 | 2018-05-11 | 兰州交通大学 | 一种基于萤火虫神经网络的工件内部缺陷识别方法 |
CN108665005A (zh) * | 2018-05-16 | 2018-10-16 | 南京信息工程大学 | 一种利用dcgan提高基于cnn图像识别性能的方法 |
WO2020172838A1 (zh) * | 2019-02-26 | 2020-09-03 | 长沙理工大学 | 一种改进辅助分类器gan的图像分类方法 |
WO2021134871A1 (zh) * | 2019-12-30 | 2021-07-08 | 深圳市爱协生科技有限公司 | 基于局部二值模式和深度学习的合成人脸图像取证方法 |
CN111950457A (zh) * | 2020-08-12 | 2020-11-17 | 海默潘多拉数据科技(深圳)有限公司 | 油田安全生产图像识别方法及系统 |
CN112378660A (zh) * | 2020-10-28 | 2021-02-19 | 西北工业大学 | 一种基于数据驱动的航空发动机轴承智能故障诊断方法 |
CN112765908A (zh) * | 2021-01-14 | 2021-05-07 | 大连理工大学 | 一种基于图像序列分析的燃气涡轮发动机燃烧室稳定性分析方法 |
CN113033620A (zh) * | 2021-03-04 | 2021-06-25 | 湖南工业大学 | 一种基于随机森林的多信息融合回转窑产品质量分类识别方法 |
Non-Patent Citations (2)
Title |
---|
王德兴;秦恩倩;袁红春;: "基于DCGAN数据增强的水产动物分类方法", 渔业现代化, no. 06, 15 December 2019 (2019-12-15) * |
程校昭;陈志军;吴超仲;马枫;: "基于改进深度卷积生成对抗网络的路面指示标志识别方法", 交通信息与安全, no. 02, 28 June 2020 (2020-06-28) * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315466A (zh) * | 2023-09-20 | 2023-12-29 | 北京佳格天地科技有限公司 | 一种生长监测管理方法及系统 |
CN117315466B (zh) * | 2023-09-20 | 2024-04-09 | 北京佳格天地科技有限公司 | 一种生长监测管理方法及系统 |
CN117217101A (zh) * | 2023-11-09 | 2023-12-12 | 中国标准化研究院 | 一种基于虚拟现实技术的实验模拟方法 |
CN117217101B (zh) * | 2023-11-09 | 2024-01-23 | 中国标准化研究院 | 一种基于虚拟现实技术的实验模拟方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114169385B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321957B (zh) | 融合三元组损失和生成对抗网络的多标签图像检索方法 | |
CN113705526B (zh) | 一种高光谱遥感影像分类方法 | |
CN106560848B (zh) | 模拟生物双向认知能力的新型神经网络模型及训练方法 | |
CN108665005B (zh) | 一种利用dcgan提高基于cnn图像识别性能的方法 | |
Barbalau et al. | Black-box ripper: Copying black-box models using generative evolutionary algorithms | |
CN114169385A (zh) | 基于混合数据增强的mswi过程燃烧状态识别方法 | |
CN111429340A (zh) | 一种基于自注意力机制的循环图像翻译方法 | |
CN112527993B (zh) | 一种跨媒体层次化深度视频问答推理框架 | |
Vandenhende et al. | A three-player GAN: generating hard samples to improve classification networks | |
CN112784790B (zh) | 一种基于元学习的泛化性伪造脸检测方法 | |
Zhang et al. | Evolving neural network classifiers and feature subset using artificial fish swarm | |
CN113378949A (zh) | 一种基于胶囊网络和混合注意力的双重生成对抗学习方法 | |
CN116844041A (zh) | 一种基于双向卷积时间自注意力机制的耕地提取方法 | |
CN114638408A (zh) | 一种基于时空信息的行人轨迹预测方法 | |
CN112560034B (zh) | 基于反馈式深度对抗网络的恶意代码样本合成方法及装置 | |
Liu et al. | Classification Research Based on Residual Network for Hyperspectral Image | |
CN117057408A (zh) | 一种基于gan的黑盒可迁移性对抗攻击方法 | |
Yang et al. | Pseudo-representation labeling semi-supervised learning | |
Zhang et al. | Feature Selection for the Stored-grain Insects Based on PSO and SVM | |
Rere et al. | A comparison study of three single-solution based metaheuristic optimisation for stacked auto encoder | |
Ge et al. | Multi-grained cascade adaboost extreme learning machine for feature representation | |
CN113537494B (zh) | 一种基于黑盒场景的图像对抗样本生成方法 | |
CN114358135B (zh) | 一种利用数据增强和特征加权实现的mooc辍学预测方法 | |
CN113658285B (zh) | 一种人脸照片到艺术素描的生成方法 | |
CN114549905A (zh) | 一种基于改进在线知识蒸馏算法的图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |