CN114169385B - 基于混合数据增强的mswi过程燃烧状态识别方法 - Google Patents

基于混合数据增强的mswi过程燃烧状态识别方法 Download PDF

Info

Publication number
CN114169385B
CN114169385B CN202111144633.6A CN202111144633A CN114169385B CN 114169385 B CN114169385 B CN 114169385B CN 202111144633 A CN202111144633 A CN 202111144633A CN 114169385 B CN114169385 B CN 114169385B
Authority
CN
China
Prior art keywords
network
image
dcgan
combustion
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111144633.6A
Other languages
English (en)
Other versions
CN114169385A (zh
Inventor
汤健
郭海涛
丁海旭
乔俊飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202111144633.6A priority Critical patent/CN114169385B/zh
Publication of CN114169385A publication Critical patent/CN114169385A/zh
Application granted granted Critical
Publication of CN114169385B publication Critical patent/CN114169385B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

基于混合数据增强的MSWI过程燃烧状态识别方法属于燃烧状态识别领域。本发明针对目前燃烧状态识别方法存在的局限性,归纳总结了研究中存在的问题,首次将GAN用于MSWI过程燃烧状态识别;分析了生成式数据增强的缺陷,并提出一种混合式数据增强的方法,弥补了生成对抗式数据增强的不足;设计一种切实可行的实验策略,通过弗雷歇距离(Fréchet Inception Distance,FID),对不同生成模型生成的图像质量进行评估,为样本筛选提供了评价指标。通过与其他识别模型对比,表明本文所构建的燃烧状态识别模型泛化性能好、准确率高且鲁棒性强。

Description

基于混合数据增强的MSWI过程燃烧状态识别方法
技术领域
本发明属于燃烧状态识别领域。
背景技术
城市固废(MSW)受居民生活习惯、季节气候、分类程度等因素的影响,具有热值波动大、杂质多、含水率高等特点。城市固废焚烧(MSWI)作为一种世界范围内MSW典型处理方式,具有减小体量、降低二次污染、通过产热发电实现资源的回收利用等优势。目前,发展中国家的MSWI技术仍处于落后局面,存在诸多问题有待解决,其中最突出的是燃烧不稳定造成的污染物排放不达标问题。此外,MSWI状态的不稳定易造成炉膛内结焦、积灰、腐蚀等问题,严重时甚至会引起炉膛爆炸。因此,稳定燃烧状态是保障MSWI过程高效运行、污染物排放达标的关键。如图1所示,在国内的MSWI过程中,运行专家通过观察火焰图像以识别燃烬线位置,进而修正控制策略。然而,依据运行专家经验的燃烧状态识别方法具有主观性与随意性,其智能化程度较低,难以满足当前MSWI工业的优化运行需求。针对复杂多变的MSWI环境,如何构造鲁棒性强的MSWI过程燃烧状态识别模型仍是一个开放性难题。
MSWI过程的燃烧火焰具有亮度差异、遮挡、类内形变、运动模糊等特征,进而导致不同状态下的燃烧图像像素差异较大,使得基于硬编码的燃烧状态识别方法难以适用。近年来,基于数据驱动的研究方法在尝试解决语义鸿沟问题等方面取得了重大进展,为MSWI过程的燃烧状态识别奠定了基础。
目前,基于数据驱动的识别模型包括近邻分类器、贝叶斯分类器、线性分类器、支撑向量机(SVM)、神经网络分类器、随机森林以及多方法结合等,其策略可分为两类:一类是基于特征提取与分类器组合的方法,又称为特征工程;一类是基于深度学习的端到端方法,主要以卷积神经网络(CNN)为代表。
相比于深度学习算法,特征工程不依赖于大样本数据,已在燃烧状态的识别中得到了应用。但MSWI过程是一个具有强不确定性特征的工业过程,其燃烧火焰图像易受环境干扰。现有的火焰特征选择方法通常依赖于专家先验知识,这导致基于特征工程的识别算法的鲁棒性能较弱且泛化性能较差。基于CNN的识别模型因具有良好的特征提取能力和泛化性能,已在诸多领域得到广泛应用。然而,以CNN为代表的监督学习网络模型的准确率直接取决于标签样本的规模与质量,而MSWI过程的图像采集设备长期处于强干扰环境中,导致样本标定困难。因此,如何基于现有技术获得高质量样本是提升燃烧状态识别模型性能所面临的难点之一。
常用的图像数据增强方法包含几何变换、颜色抖动、随机噪声等,其本质是对原始数据进行非生成式变换以实现样本的增加,从而缓解识别模型过拟合现象。然而,以上方法未增加新样本的信息,因此缓解过拟合的效果有限。基于GAN的数据增强策略博弈最终将达到纳什均衡状态。此时,生成器虽然能够生成符合小样本数据的概率分布的数据,却难以创造出新特征。因此,基于GAN的数据增强识别模型的鲁棒性难以得到实质性的提升。非生成式数据增强操作在本质上未改变图像本质内容,模型的泛化性能提升有限,但通过平移、旋转、填充火焰图像却能够获得新的特征。因此,本文构建了一种混合式数据增强的MSWI过程燃烧状态识别模型,主要工作包括:
1)针对目前燃烧状态识别方法存在的局限性,归纳总结了研究中存在的问题,首次将GAN用于MSWI过程燃烧状态识别。
2)分析了生成式数据增强的缺陷,并提出一种混合式数据增强的方法,弥补了生成对抗式数据增强的不足。
3)设计一种切实可行的实验策略,通过弗雷歇距离(Fréchet Inception Distance,FID),对不同生成模型生成的图像质量进行评估,为样本筛选提供了评价指标。
4)通过与其他识别模型对比,表明本文所构建的燃烧状态识别模型泛化性能好、准确率高且鲁棒性强。
发明内容
本节提出如图2所示基于混合数据增强的MSWI过程燃烧状态识别模型,该模型由数据预处理模块、生成式数据增强模块、增强图像选择模块、燃烧状态识别模块四部分组成。
图2中,XFW、XNM和XBC表示燃烧线前移、正常和后移三种燃烧状态数据集;X'FW、X'NM和X'BC表示前移、正常和后移三种燃烧状态的训练样本集;X"FW、X"NM和X"BC表示前移、正常和后移三种燃烧状态的验证集和测试集样本;z表示服从正态分布的100维随机噪声;G(z)表示由随机噪声经过生成网络得到的虚拟样本;SD,t和SG,t表示燃烧图像粗调DCGAN中获得的判别网络和生成网络的结构参数;Xreal在燃烧图像粗调DCGAN子模块中参加博弈的真实数据,该数据不随博弈而改变,故无下标t;Xfalse,t表示在燃烧图像粗调DCGAN子模块参加第t轮博弈的生成数据;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;Dt(·,·)和Dt+1(·,·)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;YD,t和YG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈训练判别网络和生成网络的真实值集合;lossD,t和lossG,t分别表示在燃烧图像粗调DCGAN子模块中第t次博弈更新判别网络和生成网络的损失值;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加博弈的真实数据,该数据不随博弈次数的变化而变化;/>和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加第t次博弈的生成数据;/>和/>分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈判别网络更新前的网络参数;/>分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈生成网络更新前的网络参数;/>和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为/>和/>时判别网络的预测值集合;/>和/>分别表在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为/> 和/>时判别网络的预测值集合;/>和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练判别网络的真实值集合;/> 和/>分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练生成网络的真实值集合;/>分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新判别网络的损失值;/>和/>分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新生成网络的损失值;ξFW、ξNM和ξBC分别表示增强图像选择模块中前移、正常和后移FID值的阈值;YCNN,t表示燃烧状态识别模块第t次更新CNN模型真实输出集合;YCNN,t表示燃烧状态识别模块第t次更新CNN模型预测值集合;lossCNN,t表示燃烧状态识别模块第t次更新CNN的损失;θCNN,t表示燃烧状态识别模块第t次更新CNN的网络更新参数。
图2中不同模块的功能描述如下:
1)数据预处理模块:其输出为典型工况下的三种燃烧状态图像;主要功能是从MSWI电厂采集图像数据,并选取典型工况得到三种燃烧状态图像数据,并将其划分为训练样本集、验证样本集和测试样本集。
2)生成式数据增强模块:主要由一个粗调DCGAN子模块和三个精调DCGAN子模块组成,在燃烧图像粗调DCGAN子模块中:其输入是在所有燃烧图像中随机采样获取的数据集,其输出是判别网络、生成网络的结构参数;主要功能是获取能够生成优质样本;在三个精调DCGAN子模块中:其输入为对应燃烧状态的训练样本集和粗调DCGAN中生成网络、判别网络的结构参数,其输出为对应燃烧状态的生成图像;主要功能是通过博弈生成不同燃烧状态下的优质样本。
3)增强数据选择模块:其输入为生成的不同燃烧状态的优质样本和对应状态下的训练样本,其输出为构建不同燃烧状态的训练、验证和测试集;主要功能是:分别计算对应子模块中真实数据与生成数据间FID值,基于FID值选择优质样本放入训练集。
4)燃烧状态识别模块:其输入为上述模块构建的训练、验证和测试集,其输出为验证集、测试集的准确率与损失;主要功能是对上述模块构建的训练样本进行非生成式数据增强,并基于混合数据训练CNN。
综上所述,上述不同模块分别实现了数据预处理、基于生成对抗式的数据增强、基于FID的增强图像选择和基于混合式数据增强的燃烧状态识别,其中,针对燃烧状态图像设计生成式和非生成式数据增强建模方法,并将二者融合的策略是本文所提方法的核心。
2.1数据预处理模块
首先,燃烧火焰视频通过电缆传输和视频卡采集,然后将采集的视频以分钟为周期进行存储,最后结合领域专家经验和机理知识选择燃烧线处于不同位置的标准火焰图像。按照干燥段、燃烧段和燃烬段共3个区域对标准火焰图像进行划分,并对每张图像进行标记。
2.2生成式数据增强模块
如图2所示,生成式数据增强模块主要由四个DCGAN子模块组成,燃烧图像粗调DCGAN子模块随机选取固废燃烧图像进行博弈,从而获得较好的网络结构,其余子模块采用燃烧图像粗调DCGAN的网络结构,并对其超参数进行精调。
以粗调DCGAN子模块中第t轮博弈为例:首先,将随机获取的燃烧图像作为DCGAN的Xreal,由z通过生成网络得到Xfalse,t;接着,Xreal和Xfalse,t经过网络参数为θD,t的判别网络后得到Dt(·,·),通过将真实图片标记为1和虚假图片标记为0得到YD,t,将Dt(·,·)和YD,t根据损失函数计算得到lossD,t,其经过优化器得到判别网络的新参数θD,t+1以更新判别网络;然后,Xreal和Xfalse,t经过网络参数为θD,t+1的判别网络后得到Dt+1(·,·),通过将真实图片和虚假图片均标记为1得到YG,t,将Dt+1(·,·)和YG,t根据损失函数的计算得到lossG,t,其经过优化器得到生成网络新参数θG,t+1以更新生成网络;最后,重复进行上述博弈以获得生成数据。
2.2.1小结以粗调DCGAN子模块为例介绍网络的结构,2.2.2小节介绍以粗调DCGAN子模块中判别网络为例介绍学习算法,2.2.3小节以粗调DCGAN子模块为例介绍网络博弈过程;2.2.4介绍多工况图像生成的必要性。
2.2.1DCGAN网络结构
DCGAN由生成网络和判别网络两个前馈网络组成。生成网络由全连接层、批归一化层、形状变换层、上采样层、卷积层和激活层组成。生成网络的设计目标是将潜在空间100维的随机向量z生成符合真实图像分布的图像:首先,由潜在空间100维的随机向量z经全连接层输出具有16*16*128=32768个变量的一维向量;接着,通过形状变换将其变为(16,16,128)的张量;然后,上采样操作将形状为(16,16,128)的张量转化为形状(32,32,128)的张量,将形状为(32,32,128)的张量转化为形状(64,64,128)的张量,在该过程中的每个上采样操作后添加卷积核尺寸为4、填充方式为“same”、步长为1、通道数分别为128、64和3的卷积层,使网络能够记录火焰图像的空间特征,并最终变换成(64,64,3)的目标形状,即RGB图像的目标形状;最后,使用Tanh激活函数将最终输出转换成-1~1之间的实数,以方便生成图像时将其转换成对应的像素。将批量归一化层添加在全连接层后以缓解内部协变量转移问题,进而提高网络训练速度与稳定性;激活函数LeakyReLU(alpha=0.2)在增加网络非线性描述能力的同时,保证了梯度下降的稳定性,提高了与判别网络博弈过程的稳定。
判别网络由全连接层、形状变换层、上采样层、卷积层和激活层组成。判别网络的目标是给出图片为真的概率:首先,由卷积核尺寸为4、通道数分别为32、64、128和256的4个卷积层的叠加实现特征提取,卷积层中间添加LeakyRelu(alpha=0.2),增加网络非线性的同时保证判别网络在与生成网络博弈过程的稳定,Dropout(0.5)层通过随机丢失50%神经元缓解网络过拟合问题;然后,Flatten层将特征图铺平;最后,将激活函数为“sigmoid”的Dense层作为分类器,得到图片为真的概率。
2.2.2网络学习算法
在DCGAN中,生成网络和判别网络均属于前馈神经网络,以燃烧图像粗调DCGAN中第t轮判别网络更新为例:其参数更新步骤包括用反向传播算法计算梯度和Adam算法更新权重参数。
1)反向传播算法计算梯度:为表述方便,将图像集[Xreal;Xfalse,t]表示为X即[x1;x2;...;xa;...],其中xa表示第a张图片,Dt(xa)表示第a张图片输入判别网络预测值,Dt(X)表示判别网络预测值集合即Dt(·,·),YD,t表示判别网络真实输出集合[y1;y2;...;ya;...],其中ya表示第a张图片的真值,L为损失函数,损失函数的表达式为L(YD,t,Dt(X)),进而将某个具体损失函数表示为:L(ya,Dt(xa)),其梯度如下式所示:
由于判别网络的结构复杂,Dt难以直接求得。因此,采用反向传播算法通过链式法则由后往前推导,从而简化判别网络节点的梯度,如下式所示:
式中,第i层的误差为δi;第i层输出为Oi;第i层的权重和偏置为Wi和Bi;第i-1层的权重和偏置的当前梯度分别为和/>上标T表示转置。
2)采用Adam梯度下降算法更新判别网络参数,Adam更新权重的公式为:
式中,θD,t为第t次判别网络的参数;α为学习率,值为0.00015;γ为很小的正实数,值为1*10-8,用于防止分母为0;mD,t表示第t次判别网络的一阶动量,如下式:
vD,t表示第t次判别网络的二阶动量,如下式:
式中,β1、β2为超参数,β1=0.5,β2=0.99;▽D,t为第t次判别网络参数的梯度。
对于第t轮迭代,判别网络参数的更新步骤为:首先,根据式(2)~(5)可计算当前每层参数的梯度,进而获得整个网络参数的梯度▽D,t;接着,根据历史梯度计算一阶动量mD,t与二阶动量vD,t;然后,计算第t次的下降梯度ηD,t,如下式:
最后,采用ηD,t更新第t次的判别网络参数θD,t以得到t+1次的网络参数θD,t+1,如下式:
θD,t+1=θD,tD,t (10)
由于mD,0=0和vD,0=0,所以一阶动量与二阶动量在更新参数的初始阶段接近于0。因此,式(7)和(8)中mD,t和vD,t被修正,修正后的一阶动量与二阶动量为mD,t如下所示:
燃烧图像粗调DCGAN中Adam梯度下降算法更新生成网络参数,其学习率值为0.00015,β1=0.5,β2=0.99。
2.2.3网络博弈过程
生成对抗式数据增强是通过生成网络与判别网络的博弈参数进行更新,因此梯度信息尤为重要。以燃烧图像粗调DCGAN第t次博弈为例:更新判别网络参数和生成网络参数的目标函数如式(13)和(14)所示,其中,pr(x)表示真实数据的概率分布;pz(z)表示潜在空间100维的随机向量z服从的正态分布;E表示期望;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;θD,t+1和θG,t+1表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新后的网络参数;Dt(x)和Dt+1(x)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;Ex~pr(x)log Dt(x)表示log Dt(x)的期望,其中,x服从真实数据的概率分布;表示log(1-Dt(Gt(z)))的期望,其中,z服从pz(z);Ez~p(z)log(Dt+1(Gt(z)))表示log(Dt+1(Gt(z)))的期望,其中,z服从pz(z)。
在博弈过程中,交替更新判别网络和生成网络参数。该目标函数能够有效解决早期梯度不足与训练困难的问题,后期梯度下降过快导致梯度爆炸等问题。实现该目标函数的方式为:设GAN的损失函数为二元交叉熵函数,如下式所示:
式中,Y表示神经网络真值集合,f(X)表示神经网络预测值集合,xa表示第a张图片,f(xa)表示第a张图片输入神经网络的预测值,ya表示第a张图片的真值,n表示图片的总个数。
当训练判别网络时,将真实图像标记为1,生成图像标记为0,目的是使等价于式(13),步骤如下:
1)输入一张真实图像,ya=1,损失为-log(Dt(xa))=-log Dt(x);当输入一组真实图像数据集时,可获得下式:
2)当输入一个虚假图像,ya=0,损失为log(1-Dt(xa))=-log(1-Dt(Gt(z)))。当输入一组生成图像数据集时可获得下式:
综合步骤1)和2)可得等价于式(13)。
当训练生成网络时,真实图像与虚假图像都标记为1即ya=1,输入一个真实图像和虚假图像均为log(Dt+1(xa)),可知等价于式(14)。
本文中的对抗网络生成模型共有四个:燃烧图像粗调DCGAN、燃烧线前移精调DCGAN、燃烧线正常精调DCGAN和燃烧线后移精调DCGAN,其原因在于:在pr和pg是常数的情况下GAN的目标函数已被证明网络能够收敛,而实际pr和pg是混合高斯分布。因此,针对不同工况下焚烧图像数据分布存在差异的情况,选取多种工况的燃烧图像训练燃烧图像DCGAN,以获得较好的网络模型;对每个燃烧状态采用该网络结构并微调其超参数。微调结果如表1所示,其中,epochs表示遍历整个数据集的次数,Epoch_FID_start表示从Epoch_FID_start轮迭代开始计算FID。
表1超参数微调
在上述3个生成模型更新的过程中,采用的FID指标如下式所示:
式中,μr与μg表示真实图像集和生成图像集多元正态分布的均值;Covr与Covg表示真实图像集和生成图像集的协方差矩阵;Tr表示真实图像集矩阵的迹。首先,抽取Inception网络的中间层映射,构建一个多元正态分布学习这些特征映射的概率分布;然后,使用式(18)计算真实图像与生成图像间的FID分数,其中,FID分数越低,说明模型质量越高,其生成具有多样性、高质量的图像的能力也越强;最后,采用FID对生成模型的图像质量进行评估。当FID小于设定阈值时,将生成合格燃烧图像并将其放入训练集,其中,前移、正常和后移的阈值ξFW、ξNM和ξBC分别为60、60和63。
本文使用增强数据训练基于CNN的燃烧状态识别模型。架构如图2中的燃烧状态识别模块所示:1)非生成式数据增强:将所有数据集像素点值除以255,同时对训练集的数据随机旋转0~5°,沿水平方向随机平移比例0~0.3,随机将图片水平翻转,填充新创建的像素的方法为“reflect”;2)CNN结构:首先将4层卷积核为(3,3)的卷积和窗口尺寸为(2,2)的最大池化层堆叠以提取特征,然后通过Flatten层将张量拉平,结合Dropout防止过拟合,最后将全连接层做分类器,其中,损失函数采用交叉熵函数,优化器采用Adam优化器,其学习率为0.001,其他参数均为默认值。
附图说明
图1MSWI过程工艺图
图2基于DCGAN数据增强的燃烧状态识别策略
图3生成网络结构
图4判别网络结构
图5燃烧线前移
图6燃烧线正常
图7燃烧线后移
图8随机选取的迭代过程中FID对生成燃烧状态图像的评估结果
图9迭代过程中FID对生成不同燃烧状态图像的评估结果
图10 A划分燃烧线前移图像的扩充结果
图11 A划分燃烧线正常图像扩充结果
图12 A划分燃烧线后移扩充结果
图13非生成式数据增强
图14不同生成模型生成的燃烧状态图像
具体实施方式
在北京市某MSWI电厂焚烧炉的炉膛后壁安装摄像头,采集的数据通过电缆传送至工控机的视频采集卡,采用相应软件获取单通道视频,并对火焰图像按每分钟进行存储。根据专家经验和炉排结构,选取典型工况下的数据标记燃烧线前移、正常和后移的各90张图像。按时间段将每种工况数据集划分为T1至T10,每个时间段的数据为9张图像;其中T9和T10时间段的数据受噪声影响较大,存在图像不清晰、MSW焚烧不均匀等问题。本文选取的两种划分数据集的方式如表2所示。
表2数据集划分
通过A划分可测试识别模型的鲁棒性。B划分涵盖工况全面,其准确率可反应模型的泛化性能。为确保结果的严谨,对每种划分进行10次重复实验,结果以均值和方差的形式呈现。
结合专家经验,将燃烧状态划分为燃烧线前移、正常和后移,典型图片如图5~图7所示。由图可知,完全符合燃烧线前移、正常和后移图像仅是少数,多数图像是部分前移或后移,显然此类图片标定具有一定主观性,为燃烧状态识别造成困难。
针对燃烧状态数据,本文采取先随机取部分火焰图像构建DCGAN结构、再针对不同燃烧状态图像对DCGAN超参数单独微调的策略,以此保证DCGAN尽可能生成不同燃烧状态质量优异的新数据。
首先,随机选取部分火焰图像构建DCGAN结构,并采用FID算法对最后500批次进行评估,如图8所示,FIDmin=36.10,FIDaverage=48.51。这表明本文设计的DCGAN模型性能的优异。针对不同燃烧状态图像对DCGAN超参数单独微调,对燃烧线前移、正常和后移模型生成图像的评估结果如图9所示。该结果反应博弈过程中生成图像Xfalse的质量情况,当FID低于70时的图像清晰,已基本满足增强图像的需求。
对于A划分,燃烧线前移、正常和后移训练集扩充图像数量分别为5060、3452和3312。对于B划分,燃烧线前移、正常和后移训练集扩充图像数量分别为6912,7632和9360。A划分的部分扩充结果如图10~图12所示。
本文采用的非生成式数据增强方式为:随机旋转角度值为0~5°、随机水平位移比例为0~0.3、支持随机水平翻转图像和以映射方式填充新创建像素。某张燃烧线前移图像增强的效果如图13所示。A划分识别模型验证集和测试集识别准确率结果为72.69%和84.82%,损失结果为0.9768和0.5520;B划分识别模型验证集和测试集识别准确率结果为97.41%和94.07%,损失结果为0.0699和0.2019。
将本文的方法与GAN、DCGAN进行比较,结果如表3所示,生成图像质量对比如图14所示。实验表明,本文设计的DCGAN模型结构相比于GAN,DCGAN能够在更短的epoch中获得更优的结果。
表3不同生成模型生成数据的评估结果
此外,本文的4组对比实验分别为:基于CNN的燃烧状态识别模型、基于非生成式数据增强的燃烧状态识别模型、基于DCGAN数据增强的燃烧状态识别模型、基于DCGAN与非生成式组合的数据增强燃烧状态识别模型。每组实验重复10次的平均值和方差如表4所示。
表4识别模型的性能对比
由表4可知,在A划分中,基于混合数据增强的MSWI过程燃烧状态识别模型测试集准确率为84.82%,损失为0.5520,相比于其他方法,混合式数据增强能够提高模型鲁棒性;在B划分中,基于混合数据增强的MSWI识别模型测试集准确率为94.07%,相比于其他方法,模型的泛化性能更好。本文将非生成式和生成式数据增强结合后,CNN的鲁棒性和泛化性能得到明显的提升。
基于DCGAN数据增强的燃烧状态识别模型相比于未做数据增强,泛化性能与鲁棒性有一定提升。但仅采用生成式数据增强却不如仅采用非生成式数据增强,本文给出以下解释:1)本文设计的非生成式数据增强能够有效增加火焰图像新的特征,从而提高模型的鲁棒性能;2)基于DCGAN的数据增强虽然创造出新的样本,但当DCGAN通过博弈达到纳什均衡状态时,生成网络为欺骗判别网络,仅根据学习到的特征形成新的火焰图像而非创造新的特征,因此该图像对CNN的鲁棒性能的提升有限;3)A划分的测试集、验证集与训练集源于不同的时间段,其特征差异大,且部分图像的标定存在主观性;4)基于DCGAN数据增强将原270张样本扩充到上万个样本,由于其特征的相似性,导致CNN在训练过程中难以控制迭代次数与批次。如何实现两者的均衡仍有待研究。
本文提出一种基于混合数据增强的MSWI过程燃烧状态识别模型,其创新性表现在:1)指出了基于对抗生成式数据增强的不足,并针对生成式、非生成式数据增强的缺陷,提出基于混合数据增强的MSWI过程燃烧状态识别模型策略。2)构建基于DCGAN的生成式数据增强模块,设计面向燃烧图像的生成网络结构;3)针对火焰燃烧图像,设计一种非生成式数据增强的方法;本文方法综合生成式数据增强与非生成式数据增强的优点,能够有效生成优质的样本,从而使得MSWI状态识别模型具有较好的泛化性能与鲁棒性。
需要指出的是工业现场并非缺少数据,而是标记困难。如何充分利用海量数据实现自动标记以及半监督或无监督学习、提高模型的泛化性和鲁棒性是下一步研究方向
附表:本文符号及含义表
/>
/>
/>
/>

Claims (1)

1.基于混合数据增强的MSWI过程燃烧状态识别方法,其特征在于:
提出基于混合数据增强的MSWI过程燃烧状态识别模型,该模型由数据预处理模块、生成式数据增强模块、增强图像选择模块、燃烧状态识别模块四部分组成;
XFW、XNM和XBC表示燃烧线前移、正常和后移三种燃烧状态数据集;X'FW、X'NM和X'BC表示前移、正常和后移三种燃烧状态的训练样本集;X"FW、X"NM和X"BC表示前移、正常和后移三种燃烧状态的验证集和测试集样本;z表示服从正态分布的100维随机噪声;G(z)表示由随机噪声经过生成网络得到的虚拟样本;SD,t和SG,t表示燃烧图像粗调DCGAN中获得的判别网络和生成网络的结构参数;Xreal在燃烧图像粗调DCGAN子模块中参加博弈的真实数据,该数据不随博弈而改变,故无下标t;Xfalse,t表示在燃烧图像粗调DCGAN子模块参加第t轮博弈的生成数据;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;Dt(·,·)和Dt+1(·,·)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;YD,t和YG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈训练判别网络和生成网络的真实值集合;lossD,t和lossG,t分别表示在燃烧图像粗调DCGAN子模块中第t次博弈更新判别网络和生成网络的损失值;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加博弈的真实数据,该数据不随博弈次数的变化而变化;/>和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中参加第t次博弈的生成数据;/> 和/>分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈判别网络更新前的网络参数;/>和/>分别表示在燃烧线前移、正常和后移DCGAN子模块中第t次博弈生成网络更新前的网络参数;和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为/>和/>时判别网络的预测值集合;/>和/>分别表在燃烧线前移、正常和后移精调DCGAN子模块中判别网络参数分别为/>和/>时判别网络的预测值集合;/>和/>分别表示在燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练判别网络的真实值集合;/>和/>分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈训练生成网络的真实值集合;/>和/>分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新判别网络的损失值;和/>分别表示燃烧线前移、正常和后移精调DCGAN子模块中第t次博弈更新生成网络的损失值;ξFW、ξNM和ξBC分别表示增强图像选择模块中前移、正常和后移FID值的阈值;YCNN,t表示燃烧状态识别模块第t次更新CNN模型真实输出集合;YCNN,t表示燃烧状态识别模块第t次更新CNN模型预测值集合;lossCNN,t表示燃烧状态识别模块第t次更新CNN的损失;θCNN,t表示燃烧状态识别模块第t次更新CNN的网络更新参数;
1)数据预处理模块:其输出为典型工况下的三种燃烧状态图像;从MSWI电厂采集图像数据,并选取典型工况得到三种燃烧状态图像数据,并将其划分为训练样本集、验证样本集和测试样本集;
2)生成式数据增强模块:主要由一个粗调DCGAN子模块和三个精调DCGAN子模块组成,在燃烧图像粗调DCGAN子模块中:其输入是在所有燃烧图像中随机采样获取的数据集,其输出是判别网络、生成网络的结构参数;在三个精调DCGAN子模块中:其输入为对应燃烧状态的训练样本集和粗调DCGAN中生成网络、判别网络的结构参数,其输出为对应燃烧状态的生成图像;
3)增强数据选择模块:其输入为生成的不同燃烧状态的优质样本和对应状态下的训练样本,其输出为构建不同燃烧状态的训练、验证和测试集;分别计算对应子模块中真实数据与生成数据间FID值,基于FID值选择优质样本放入训练集;
4)燃烧状态识别模块:其输入为上述模块构建的训练、验证和测试集,其输出为验证集、测试集的准确率与损失;对上述模块构建的训练样本进行非生成式数据增强,并基于混合数据训练CNN;
数据预处理模块:燃烧火焰视频通过电缆传输和视频卡采集,然后将采集的视频以分钟为周期进行存储,选择燃烧线处于不同位置的标准火焰图像;按照干燥段、燃烧段和燃烬段共3个区域对标准火焰图像进行划分,并对每张图像进行标记;
生成式数据增强模块由四个DCGAN子模块组成,燃烧图像粗调DCGAN子模块随机选取固废燃烧图像进行博弈,其余子模块采用燃烧图像粗调DCGAN的网络结构,并对其超参数进行精调;
粗调DCGAN子模块中第t轮博弈:首先,将随机获取的燃烧图像作为DCGAN的Xreal,由z通过生成网络得到Xfalse,t;接着,Xreal和Xfalse,t经过网络参数为θD,t的判别网络后得到Dt(·,·),通过将真实图片标记为1和虚假图片标记为0得到YD,t,将Dt(·,·)和YD,t根据损失函数计算得到lossD,t,其经过优化器得到判别网络的新参数θD,t+1以更新判别网络;然后,Xreal和Xfalse,t经过网络参数为θD,t+1的判别网络后得到Dt+1(·,·),通过将真实图片和虚假图片均标记为1得到YG,t,将Dt+1(·,·)和YG,t根据损失函数的计算得到lossG,t,其经过优化器得到生成网络新参数θG,t+1以更新生成网络;重复进行上述博弈以获得生成数据;
DCGAN网络结构
DCGAN由生成网络和判别网络两个前馈网络组成;生成网络由全连接层、批归一化层、形状变换层、上采样层、卷积层和激活层组成;生成网络的设计目标是将潜在空间100维的随机向量z生成符合真实图像分布的图像:首先,由潜在空间100维的随机向量z经全连接层输出具有16*16*128=32768个变量的一维向量;接着,通过形状变换将其变为(16,16,128)的张量;然后,上采样操作将形状为(16,16,128)的张量转化为形状(32,32,128)的张量,将形状为(32,32,128)的张量转化为形状(64,64,128)的张量,每个上采样操作后添加卷积核尺寸为4、填充方式为“same”、步长为1、通道数分别为128、64和3的卷积层,使网络能够记录火焰图像的空间特征,并最终变换成(64,64,3)的目标形状,即RGB图像的目标形状;使用Tanh激活函数将最终输出转换成-1~1之间的实数;将批量归一化层添加在全连接层后;
判别网络由全连接层、形状变换层、上采样层、卷积层和激活层组成;判别网络的目标是给出图片为真的概率:首先,由卷积核尺寸为4、通道数分别为32、64、128和256的4个卷积层的叠加实现特征提取,卷积层中间添加LeakyRelu(alpha=0.2),增加网络非线性的同时保证判别网络在与生成网络博弈过程的稳定,Dropout(0.5)层通过随机丢失50%神经元缓解网络过拟合问题;然后,Flatten层将特征图铺平;最后,将激活函数为“sigmoid”的Dense层作为分类器,得到图片为真的概率;
在DCGAN中,生成网络和判别网络均属于前馈神经网络,以燃烧图像粗调DCGAN中第t轮判别网络更新为例:其参数更新步骤包括用反向传播算法计算梯度和Adam算法更新权重参数;
1)反向传播算法计算梯度:为表述方便,将图像集[Xreal;Xfalse,t]表示为X即[x1;x2;...;xa;...],其中xa表示第a张图片,Dt(xa)表示第a张图片输入判别网络预测值,Dt(X)表示判别网络预测值集合即Dt(·,·),YD,t表示判别网络真实输出集合[y1;y2;...;ya;...],其中ya表示第a张图片的真值,L为损失函数,损失函数的表达式为L(YD,t,Dt(X)),进而将某个具体损失函数表示为:L(ya,Dt(xa)),其梯度如下式所示:
采用反向传播算法通过链式法则由后往前推导,从而简化判别网络节点的梯度,如下式所示:
式中,第i层的误差为δi;第i层输出为Oi;第i层的权重和偏置为Wi和Bi;第i-1层的权重和偏置的当前梯度分别为和/>上标T表示转置;
采用Adam梯度下降算法更新判别网络参数,Adam更新权重的公式为:
式中,θD,t为第t次判别网络的参数;α为学习率,值为0.00015;γ为很小的正实数,用于防止分母为0;mD,t表示第t次判别网络的一阶动量,如下式:
vD,t表示第t次判别网络的二阶动量,如下式:
式中,β1、β2为超参数,β1=0.5,β2=0.99;为第t次判别网络参数的梯度;
对于第t轮迭代,判别网络参数的更新步骤为:首先,根据式(2)~(5)计算当前每层参数的梯度,进而获得整个网络参数的梯度接着,根据历史梯度计算一阶动量mD,t与二阶动量vD,t;然后,计算第t次的下降梯度ηD,t,如下式:
最后,采用ηD,t更新第t次的判别网络参数θD,t以得到t+1次的网络参数θD,t+1,如下式:
θD,t+1=θD,tD,t (10)
由于mD,0=0和vD,0=0,所以一阶动量与二阶动量在更新参数的初始阶段接近于0;因此,式(7)和(8)中mD,t和vD,t被修正,修正后的一阶动量与二阶动量为mD,t如下所示:
燃烧图像粗调DCGAN中Adam梯度下降算法更新生成网络参数,其学习率值为0.00015,β1=0.5,β2=0.99;
燃烧图像粗调DCGAN第t次博弈:更新判别网络参数和生成网络参数的目标函数如式(13)和(14)所示,其中,pr(x)表示真实数据的概率分布;pz(z)表示潜在空间100维的随机向量z服从的正态分布;E表示期望;Gt(z)表示在燃烧图像粗调DCGAN子模块第t次博弈中由随机噪声经过生成网络得到的虚拟样本;θD,t和θG,t表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新前的网络参数;θD,t+1和θG,t+1表示在燃烧图像粗调DCGAN子模块中第t次博弈判别网络和生成网络分别更新后的网络参数;Dt(x)和Dt+1(x)分别表示在燃烧图像粗调DCGAN子模块判别网络参数分别为θD,t和θD,t+1时判别网络的预测值集合;Ex~pr(x)logDt(x)表示logDt(x)的期望,其中,x服从真实数据的概率分布;表示log(1-Dt(Gt(z)))的期望,其中,z服从pz(z);/>表示log(Dt+1(Gt(z)))的期望,其中,z服从pz(z);
在博弈过程中,交替更新判别网络和生成网络参数;实现该目标函数的方式为:设GAN的损失函数为二元交叉熵函数,如下式所示:
式中,Y表示神经网络真值集合,f(X)表示神经网络预测值集合,xa表示第a张图片,f(xa)表示第a张图片输入神经网络的预测值,ya表示第a张图片的真值,n表示图片的总个数;
当训练判别网络时,将真实图像标记为1,生成图像标记为0,目的是使等价于式(13),步骤如下:
1)输入一张真实图像,ya=1,损失为-log(Dt(xa))=-logDt(x);当输入一组真实图像数据集时,可获得下式:
2)当输入一个虚假图像,ya=0,损失为log(1-Dt(xa))=-log(1-Dt(Gt(z)));当输入一组生成图像数据集时可获得下式:
综合步骤1)和2)可得等价于式(13);
当训练生成网络时,真实图像与虚假图像都标记为1即ya=1,输入一个真实图像和虚假图像均为log(Dt+1(xa)),可知等价于式(14);
本文中的对抗网络生成模型共有四个:燃烧图像粗调DCGAN、燃烧线前移精调DCGAN、燃烧线正常精调DCGAN和燃烧线后移精调DCGAN,其原因在于:在pr和pg是常数的情况下GAN的目标函数已被证明网络能够收敛,而实际pr和pg是混合高斯分布;对每个燃烧状态采用该网络结构并微调其超参数;微调结果如表1所示,其中,epochs表示遍历整个数据集的次数,Epoch_FID_start表示从Epoch_FID_start轮迭代开始计算FID;
表1 超参数微调
在上述3个生成模型更新的过程中,采用的FID指标如下式所示:
式中,μr与μg表示真实图像集和生成图像集多元正态分布的均值;Covr与Covg表示真实图像集和生成图像集的协方差矩阵;Tr表示真实图像集矩阵的迹;首先,抽取Inception网络的中间层映射,构建一个多元正态分布学习这些特征映射的概率分布;然后,使用式(18)计算真实图像与生成图像间的FID分数,其中,FID分数越低,说明模型质量越高,其生成具有多样性、高质量的图像的能力也越强;最后,采用FID对生成模型的图像质量进行评估;当FID小于设定阈值时,将生成合格燃烧图像并将其放入训练集,其中,前移、正常和后移的阈值ξFW、ξNM和ξBC分别为60、60和63。
CN202111144633.6A 2021-09-28 2021-09-28 基于混合数据增强的mswi过程燃烧状态识别方法 Active CN114169385B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111144633.6A CN114169385B (zh) 2021-09-28 2021-09-28 基于混合数据增强的mswi过程燃烧状态识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111144633.6A CN114169385B (zh) 2021-09-28 2021-09-28 基于混合数据增强的mswi过程燃烧状态识别方法

Publications (2)

Publication Number Publication Date
CN114169385A CN114169385A (zh) 2022-03-11
CN114169385B true CN114169385B (zh) 2024-04-09

Family

ID=80477006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111144633.6A Active CN114169385B (zh) 2021-09-28 2021-09-28 基于混合数据增强的mswi过程燃烧状态识别方法

Country Status (1)

Country Link
CN (1) CN114169385B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117315466B (zh) * 2023-09-20 2024-04-09 北京佳格天地科技有限公司 一种生长监测管理方法及系统
CN117217101B (zh) * 2023-11-09 2024-01-23 中国标准化研究院 一种基于虚拟现实技术的实验模拟方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108022231A (zh) * 2016-10-31 2018-05-11 兰州交通大学 一种基于萤火虫神经网络的工件内部缺陷识别方法
CN108665005A (zh) * 2018-05-16 2018-10-16 南京信息工程大学 一种利用dcgan提高基于cnn图像识别性能的方法
WO2020172838A1 (zh) * 2019-02-26 2020-09-03 长沙理工大学 一种改进辅助分类器gan的图像分类方法
CN111950457A (zh) * 2020-08-12 2020-11-17 海默潘多拉数据科技(深圳)有限公司 油田安全生产图像识别方法及系统
CN112378660A (zh) * 2020-10-28 2021-02-19 西北工业大学 一种基于数据驱动的航空发动机轴承智能故障诊断方法
CN112765908A (zh) * 2021-01-14 2021-05-07 大连理工大学 一种基于图像序列分析的燃气涡轮发动机燃烧室稳定性分析方法
CN113033620A (zh) * 2021-03-04 2021-06-25 湖南工业大学 一种基于随机森林的多信息融合回转窑产品质量分类识别方法
WO2021134871A1 (zh) * 2019-12-30 2021-07-08 深圳市爱协生科技有限公司 基于局部二值模式和深度学习的合成人脸图像取证方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101480130B1 (ko) * 2013-06-28 2015-01-07 (주) 태종 엔이씨 열정산 및 설계프로그램과 운전원(Operater)의 운전형태 분석을 통한 소각시설과 고형 연료보일러의 진단과 제어 및 설비생애주기관리 시스템 및 방법
US20180016992A1 (en) * 2016-07-12 2018-01-18 General Electric Company Neural network for combustion system flame detection

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108022231A (zh) * 2016-10-31 2018-05-11 兰州交通大学 一种基于萤火虫神经网络的工件内部缺陷识别方法
CN108665005A (zh) * 2018-05-16 2018-10-16 南京信息工程大学 一种利用dcgan提高基于cnn图像识别性能的方法
WO2020172838A1 (zh) * 2019-02-26 2020-09-03 长沙理工大学 一种改进辅助分类器gan的图像分类方法
WO2021134871A1 (zh) * 2019-12-30 2021-07-08 深圳市爱协生科技有限公司 基于局部二值模式和深度学习的合成人脸图像取证方法
CN111950457A (zh) * 2020-08-12 2020-11-17 海默潘多拉数据科技(深圳)有限公司 油田安全生产图像识别方法及系统
CN112378660A (zh) * 2020-10-28 2021-02-19 西北工业大学 一种基于数据驱动的航空发动机轴承智能故障诊断方法
CN112765908A (zh) * 2021-01-14 2021-05-07 大连理工大学 一种基于图像序列分析的燃气涡轮发动机燃烧室稳定性分析方法
CN113033620A (zh) * 2021-03-04 2021-06-25 湖南工业大学 一种基于随机森林的多信息融合回转窑产品质量分类识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于DCGAN数据增强的水产动物分类方法;王德兴;秦恩倩;袁红春;;渔业现代化;20191215(06);全文 *
基于改进深度卷积生成对抗网络的路面指示标志识别方法;程校昭;陈志军;吴超仲;马枫;;交通信息与安全;20200628(02);全文 *

Also Published As

Publication number Publication date
CN114169385A (zh) 2022-03-11

Similar Documents

Publication Publication Date Title
CN114169385B (zh) 基于混合数据增强的mswi过程燃烧状态识别方法
CN111353463B (zh) 基于随机深度残差网络的高光谱图像分类方法
CN111563841A (zh) 一种基于生成对抗网络的高分辨率图像生成方法
CN113705526A (zh) 一种高光谱遥感影像分类方法
CN103366189B (zh) 一种高光谱遥感图像的智能化分类方法
Hou et al. BIFFOA: A novel binary improved fruit fly algorithm for feature selection
Zhang et al. Evolving neural network classifiers and feature subset using artificial fish swarm
CN109859310B (zh) 一种可用于生成mr图像的模型及其建立方法
CN110991621A (zh) 一种基于通道数搜索卷积神经网络的方法
CN113947022B (zh) 一种基于模型的近端策略优化方法
CN112560034B (zh) 基于反馈式深度对抗网络的恶意代码样本合成方法及装置
CN115249054A (zh) 一种改进的混合多目标粒子群优化特征选择算法
Liu et al. Classification Research Based on Residual Network for Hyperspectral Image
CN111967909A (zh) 一种基于卷积神经网络的托攻击检测方法
Zhang et al. Feature Selection for the Stored-grain Insects Based on PSO and SVM
CN111079509A (zh) 一种基于自注意力机制的异常行为检测方法
CN115272774A (zh) 基于改进自适应差分进化算法的对抗样本攻击方法及系统
CN114842242A (zh) 一种基于生成模型的鲁棒对抗样本生成方法
CN114971243A (zh) 基于fnn对抗生成的二噁英排放风险预警模型构建方法
CN114077895A (zh) 对抗性策略的变分自编码模型
CN113011446A (zh) 一种基于多源异构数据学习的智能目标识别方法
Ma Parameter tuning using gaussian processes
Poojary et al. Application of CNNs in Home Security
CN114358135B (zh) 一种利用数据增强和特征加权实现的mooc辍学预测方法
CN113537494B (zh) 一种基于黑盒场景的图像对抗样本生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant