CN116483036B - 一种基于Transformer的自编码器软测量建模方法 - Google Patents
一种基于Transformer的自编码器软测量建模方法 Download PDFInfo
- Publication number
- CN116483036B CN116483036B CN202310456015.8A CN202310456015A CN116483036B CN 116483036 B CN116483036 B CN 116483036B CN 202310456015 A CN202310456015 A CN 202310456015A CN 116483036 B CN116483036 B CN 116483036B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- encoder
- labeled
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000005259 measurement Methods 0.000 title claims description 20
- 238000004519 manufacturing process Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 238000010606 normalization Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 238000009776 industrial production Methods 0.000 abstract description 6
- 238000012544 monitoring process Methods 0.000 abstract description 5
- 238000000605 extraction Methods 0.000 abstract description 3
- 238000012360 testing method Methods 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 abstract 1
- 230000007246 mechanism Effects 0.000 description 9
- 238000010248 power generation Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/418—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
- G05B19/41885—Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by modeling, simulation of the manufacturing system
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/32—Operator till task planning
- G05B2219/32339—Object oriented modeling, design, analysis, implementation, simulation language
Landscapes
- Engineering & Computer Science (AREA)
- Manufacturing & Machinery (AREA)
- General Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Complex Calculations (AREA)
Abstract
工业过程是个复杂的系统,工业过程数据有强非线性、噪声、标签数据有限等问题,自编码器等方法不能很好地从这些数据中提取有效的特征表示,模型的预测性能有待提升。本发明公开了一种基于Transformer的自编码器软测建模方法。该方法包含两个子模型——重构模型和回归模型。在重构模型中,将具有强大非线性全局特征提取能力和抗噪声干扰能力的Transformer引入自编码器中来获取更有效的特征表示,同时引入无监督学习帮助模型从无标签数据中学习信息来提高模型提取特征表示的能力。重构模型提取到的特征表示输入回归模型预测结果。在一个工业实例上的实验验证了本发明能够提取比其他方法更有效的特征表示,预测性能有所提升,对监控优化工业生产具有指导意义。
Description
技术领域
本发明涉及一种软测量建模方法,该方法在工业生产及控制领域具有重要的应用和推广价值。
背景技术
在工业生产过程中,实时监测关键质量变量对监控、指导和优化生产活动有重要的意义。然而,由于所处生产环境恶劣、测量仪器昂贵等原因,一些关键质量变量并不容易获得。且一些关键质量变量的检测具有采样周期长、高延迟的特点,测量数据存在滞后性,严重限制生产水平的进一步提高。软测量技术仅仅依赖易获得的辅助变量间接获得关键质量变量的数值,为工业过程中关键质量变量的监测提供了一种新的途径。软测量技术通过将数据分析与系统辨识技术相结合,来构建难测变量的预测模型,最终达到代替硬件仪表测量的目的。如果建立的软测量模型准确可靠,不仅可以实现关键变量的准确测量,避免昂贵的硬件设备的投入,还能够大幅提高工业生产过程的控制水平。
基于过程机理的软测量建模方法和基于数据驱动的软测量建模方法是软测量建模中常用的两种方法。基于过程机理建模的方法基于生产过程的内部机理建模。该方法通常根据能量守恒定律、动力学以及物料平衡等化学、物理定律,建立描述生产过程信息的模型,由此反映过程变量之间的内在关联。但是,要想建立准确的机理驱动模型,需要对过程的内部机理有非常系统、深入的了解。然而,对于复杂的工业生产过程,精确的机理模型往往很难建立。特别是当模型变得复杂时,就更加难以实现,同时模型的精度也无法得到保证。这极大地限制了机理建模方法在工业生产过程中的推广使用。相比于机理建模方法,数据驱动建模方法不需要了解详细的生产过程的内部机理,只需要收集来自真实场景的过程变量数据就可以实现,因此成为了一种工业生产过程中常用的软测量建模方法,得到了越来越多的应用。
近年来,深度学习技术凭借强大的复杂系统表示能力和对大量数据的处理能力成为了基于数据驱动的软测量建模常用的方法之一。常用的方法包括自编码器、深度信念网络、卷积神经网络等。但是工业过程是个复杂的系统,具有强非线性、高噪声以及标签数据有限等特点。传统的方法对工业系统的表示能力不足,不能很好地从这些数据中提取有效的特征表示,模型的预测性能有待提升。
发明内容
为了解决复杂工业系统数据具有强非线性、噪声的特性和标签数据有限的问题,本发明提出一种基于Transformer和自编码器提取特征表示的软测量建模方法,通过结合Transformer和自编码器发明了一种新的软测量方法Transformer-AE,该方法同时具备Transformer和自编码器的优点,具有强大的非线性全局特征提取能力、抗噪声干扰能力以及无标签数据的利用能力。
本发明主要包括六个部分:(1)获取数据并进行数据预处理;(2)建立子模型1——重构模型;(3)训练子模型1——重构模型;(4)建立子模型2——回归模型;(5)训练子模型2——回归模型;(6)验证本发明提出的模型性能。下面分别介绍以上六个部分的内容:
1、获取数据并进行数据预处理。从现场采集一段时间的历史数据。以火力发电过程中的蒸汽量数据为例,采集的数据包括燃烧给量,给水水量,锅炉床温、床压等38个辅助变量数据和蒸汽量数据。由于数据量纲不一使得模型的学习效果不是特别好,需要通过最大最小归一化操作对数据进行预处理,来统一量纲。由于数据的顺序对模型性能也有影响,需要打乱数据,对数据进行随机化处理。为了训练模型具有从无标签数据中学习信息的能力,模型的训练数据中需要包含无标签数据,以1:1的比例把训练数据划分为有标签数据和无标签数据,其中有标签数据保留了标签信息,无标签数据不保留标签信息。
2、建立子模型1——重构模型。重构模型以全部训练集数据的辅助变量作为输入,输入数据既包含有标签数据集中的辅助变量数据,也包含无标签数据集中的辅助变量数据。重构模型是一个嵌入了Transformer的自编码器,包含编码器和解码器。编码器接收输入数据,经过升维、位置编码和Transformer编码器和降维的操作后得到数据的有效特征表示。解码器接收由编码器输出的特征表示,对特征表示进行解码得到重构的输入数据。
3、训练子模型1——重构模型。在训练重构模型的过程中,为了充分利用有标签数据的标签信息,让这部分数据的标签参与模型的训练过程中,通过相关性系数计算能得到不同辅助变量对标签数据的影响程度。将这种不同变量对标签数据有不同影响的思想引入重构模型的损失函数设计中。
4、建立子模型2——回归模型。回归模型以有标签数据的辅助变量特征表示作为输入,输出预测的蒸汽量数据。回归模型是一个多层感知机结构。
5、训练子模型2——回归模型。在训练回归模型的过程中,以均方误差作为损失函数,优化模型参数。
6、验证模型性能。把工业过程中的真实数据输入训练好的模型预测结果,模型的预测评价指标采用均方误差MSE、均方根误差RMSE和平均绝对误差MAE,MSE、RMSE和MAE的值越小,表示模型的预测精度越高。
本发明所采用的技术方案的详细实施步骤如下:
步骤1:获取数据并进行数据预处理。获取工业系统中的历史数据,由于这些数据量纲不一使得模型的学习效果不是特别好,以及这些数据的顺序具有一定的规律会影响模型的预测性能。通过步骤1.1和步骤1.2对数据进行最大最小归一化和随机化的预处理操作。为了训练模型获得从无标签数据中学习信息的能力,训练集数据中需要包含无标签数据,步骤1.3进行数据集的划分。
步骤1.1:对所有变量的数据进行最大最小归一化操作,将全部变量的数据范围统一起来,具体方法如下:
其中max和min分别表示某变量的最大值和最小值,x'表示该变量进行最大最小归一化操作后的结果。
步骤1.2:将数据进行随机化操作,打乱顺序,得到训练数据集。
步骤1.3:为了训练模型具有从无标签数据中学习信息的能力,训练集数据中需要包含无标签数据,以1:1的比例把训练数据划分为有标签数据和无标签数据,其中有标签数据保留了标签信息,无标签数据不保留标签信息。
步骤2:建立子模型1——重构模型。重构模型以全部训练集数据的N个辅助变量作为输入,输入数据既包含有标签数据集中的辅助变量数据,也包含无标签数据集中的辅助变量数据。重构模型是一个嵌入了Transformer的自编码器,包含编码器和解码器。首先通过步骤2.1、2.2、2.3、2.4构建编码器,然后通过步骤2.5构建解码器。
步骤2.1:升维。升维操作将数据调整为合适的维度,有N个辅助变量的输入向量X∈RN被升维成X∈RN×D,其中D是每个辅助变量升维后的维度。
步骤2.2:位置编码。位置编码的具体方法如下:
其中,pos表示位置,d表示维度。得到的位置编码结果PE∈RN×D,将步骤2.1得到的X和PE相加得到注入了位置信息的XPE。
步骤2.3:Transformer编码器层。将步骤2.2得到的XPE进入T个Transformer编码器模块提取全局非线性特征。每个Transformer编码器结构如图4所示。XPE在一个Transformer编码器中先进行多头注意力计算,“多头”意味着将XPE划分成几个子空间,子空间的数量就是头的数量,在每个子空间headh中做关于可训练矩阵qh,kh,vh的自注意力计算,多头注意力计算方式如下:
MHA(XPE)=project(Concat(head1,head2,…,headh))
headh=Attention(qh,kh,vh)
为了提高表示能力,需要做残差连接操作,多头注意力结果MHA(XPE)和原始XPE相加。层归一化操作起到了加速收敛的作用。经过两层前馈神经网络之后再次做残差连接和层归一化操作。
步骤2.4:降维。步骤2.3得到的全局非线性特征在此步骤中经由全局平均池化层整合信息并降维,此时得到的是对X∈RN的特征表示H∈RD。
步骤2.5:解码。将步骤2.4得到的特征表示H∈RD输入解码器,解码器由三层全连接层构成,各层的神经元个数分别是[58,48,38],为了防止过拟合,dropout层被应用在各层之间。解码器解码后得到重构的输入数据X_recon∈RN。
步骤3:训练子模型1——重构模型。为了充分利用有标签数据,让有标签数据的标签参与模型的训练过程中,根据各个输入变量X和标签Y的相关性系数确定各个变量的重构误差权重,得到的损失函数用来训练重构模型。每个辅助变量和标签的相关性系数计算公式为:
其中,m表示样本数量。CORR表示N个变量和标签的相关性系数矩阵。
N个变量的重构误差权重矩阵为ρ,具体操作如下:
重构模型的损失函数可以表示为:
步骤4:建立子模型2——回归模型。回归模型以有标签数据的辅助变量特征表示作为输入,输出预测的蒸汽量数据。回归模型是一个多层感知机结构。通过步骤4.1获得回归模型的输入,通过步骤4.2构建回归模型。
步骤4.1:获得回归模型的输入。回归模型是一种有监督学习的方法,只能处理有标签数据集的特征表示。将有标签数据集的辅助变量Xlabeled输入训练好的重构模型,得到特征表示Hlabeled,特征表示Hlabeled就是回归模型的输入。
步骤4.2:利用步骤4.1中得到的特征表示Hlabeled构建回归模型,回归模型通过四层非线性全连接层将输入映射为输出Y_prelabeled。全连接层各层的神经元个数分别设置为[32,16,8,1],非线性激活函数为Sigmoid函数。每层非线性全连接层的表示如下:
Y_prelabeled=f(wHlabeled+b)
其中,f(·)是Sigmoid非线性激活函数,w,b是可训练的模型参数。
步骤5:训练子模型2——回归模型。以均方误差作为损失函数,通过反向传播算法调整回归模型的参数。均方误差损失函数表示为:
其中,Ylabeled是有标签数据集的标签值,mlabeled是有标签数据集的样本数量。
步骤6:验证本发明提出的模型性能。把工业过程中的真实数据输入训练好的模型进行预测,模型的预测评价指标采用均方误差MSE、均方根误差RMSE和平均绝对误差MAE,MSE、RMSE和MAE的值越小,表示模型的预测精度越高。MSE、RMSE和MAE的计算公式如下:
其中,m表示样本数据的数量,yi,分别表示样本i的真实值和预测值。
本发明的关键效果在于通过结合Transformer和自编码器提出了一种新的软测量方法,该方法同时具备Transformer和自编码器的优点,具有强大的非线性全局特征提取能力、抗噪声干扰能力和无标签数据的利用能力。本发明的实现过程简单,可用于工业中任何采集到的数据集,并且该发明能够很好地适用于复杂的工业数据场景。
附图说明
图1是本发明的基于Transformer的自编码器软测量建模方法流程图
图2是本发明的基于Transformer的自编码器软测量建模方法总体结构图
图3是本发明中重构模型的结构图
图4是本发明中重构模型的Transformer编码器结构图
图5是本发明中回归模型的结构图
图6是在工业蒸汽量数据集上本发明和其他方法的预测误差图
具体实施方式
下面结合附图和实例对本发明进一步说明。
本发明为基于Transformer的自编码器软测量建模方法实现了一个针对火力发电中工业蒸汽量预测的实例。模型的流程如图1所示,模型的总体结构如图2所示,重构模型的结构图和回归模型的结构图分别如图3和图5所示,重构模型的Transformer编码器结构图如图4所示。
(1)火力发电过程描述
火力发电的过程是通过往燃烧炉里加水产生蒸汽,蒸汽压力推动发电设备运转发电。因此蒸汽量的监测对火力发电过程来说非常重要。在火力发电的工业过程中,一些辅助变量数据被装置传感器获得,包括锅炉的可调参数,如燃烧给量,一二次风,引风,返料风,给水水量;以及锅炉的工况,比如锅炉床温、床压,炉膛温度、压力,过热器的温度等。
(2)数据集和评价指标描述
现有的工业蒸汽量数据集包含2888组样本数据,设置训练集数量是2000个,测试集数量888个。
模型的预测评价指标采用均方误差MSE、均方根误差RMSE和平均绝对误差MAE。
其中,m表示样本数据的个数,yi,分别表示样本i的真实值和预测值。
(3)模型性能对比
为了比较本发明所建立的模型一种基于Transformer的自编码器软测量建模方法的优劣,这里使用的对比模型为MLP、DAE。
表1展示了基于Transformer的自编码器软测量建模方法的预测评价指标MSE、RMSE和MAE结果。图6展示了MLP、DAE和本发明提出方法的预测误差图。从结果可以看出,DAE由于模型不够复杂,对复杂的工业系统的表示能力很弱,对噪声的抗干扰能力不强,预测精度最差。MLP是一种有监督学习方法,预测精度稍好一点,对复杂系统的表示能力较强。本发明提出的Transformer-AE的模型结构最复杂,而且具有对噪声的抗干扰能力和学习无标签数据信息的能力,获得了最好的预测结果。结果表明,本发明可以更准确地监测蒸汽量数据。
表1预测结果对比
Claims (1)
1.一种基于Transformer和自编码器提取特征表示的软测量建模方法,其特征在于:包括以下步骤:
步骤1:获取数据并进行数据预处理;获取工业系统中的历史数据,由于这些数据量纲不一使得模型的学习效果不是特别好,以及这些数据的顺序具有一定的规律会影响模型的预测性能;通过步骤1.1和步骤1.2对数据进行最大最小归一化和随机化的预处理操作;为了训练模型获得从无标签数据中学习信息的能力,训练集数据中需要包含无标签数据,步骤1.3进行数据集的划分;
步骤1.1:对所有变量的数据进行最大最小归一化操作,将全部变量的数据范围统一起来,具体方法如下:
其中max和min分别表示某变量的最大值和最小值,x'表示该变量进行最大最小归一化操作后的结果;
步骤1.2:将数据进行随机化操作,打乱顺序,得到训练数据集;
步骤1.3:为了训练模型具有从无标签数据中学习信息的能力,训练集数据中需要包含无标签数据,以1:1的比例把训练数据划分为有标签数据和无标签数据,其中有标签数据保留了标签信息,无标签数据不保留标签信息;
步骤2:建立子模型1——重构模型;重构模型以全部训练集数据的N个辅助变量作为输入,输入数据既包含有标签数据集中的辅助变量数据,也包含无标签数据集中的辅助变量数据;重构模型是一个嵌入了Transformer的自编码器,包含编码器和解码器;首先通过步骤2.1、2.2、2.3、2.4构建编码器,然后通过步骤2.5构建解码器;
步骤2.1:升维;升维操作将数据调整为合适的维度,有N个辅助变量的输入向量X∈RN被升维成X∈RN×D,其中D是每个辅助变量升维后的维度;
步骤2.2:位置编码;位置编码的具体方法如下:
其中,pos表示位置,d表示维度;得到的位置编码结果PE∈RN×D,将步骤2.1得到的X和PE相加得到注入了位置信息的XPE;
步骤2.3:Transformer编码器层;将步骤2.2得到的XPE进入T个Transformer编码器模块提取全局非线性特征;每个Transformer编码器结构如图4所示;XPE在一个Transformer编码器中先进行多头注意力计算,“多头”意味着将XPE划分成几个子空间,子空间的数量就是头的数量,在每个子空间headh中做关于可训练矩阵qh,kh,vh的自注意力计算,多头注意力计算方式如下:
MHA(XPE)=project(Concat(head1,head2,…,headh))
headh=Attention(qh,kh,vh)
为了提高表示能力,需要做残差连接操作,多头注意力结果MHA(XPE)和原始XPE相加;层归一化操作起到了加速收敛的作用;经过两层前馈神经网络之后再次做残差连接和层归一化操作;
步骤2.4:降维;步骤2.3得到的全局非线性特征在此步骤中经由全局平均池化层整合信息并降维,此时得到的是对X∈RN的特征表示H∈RD;
步骤2.5:解码;将步骤2.4得到的特征表示H∈RD输入解码器,解码器由三层全连接层构成,各层的神经元个数分别是[58,48,38],为了防止过拟合,dropout层被应用在各层之间;解码器解码后得到重构的输入数据X_recon∈RN;
步骤3:训练子模型1——重构模型;为了充分利用有标签数据,让有标签数据的标签参与模型的训练过程中,根据各个输入变量X和标签Y的相关性系数确定各个变量的重构误差权重,得到的损失函数用来训练重构模型;每个辅助变量和标签的相关性系数计算公式为:
其中,m表示样本数量;CORR表示N个变量和标签的相关性系数矩阵;
N个变量的重构误差权重矩阵为ρ,具体操作如下:
重构模型的损失函数可以表示为:
步骤4:建立子模型2——回归模型;回归模型以有标签数据的辅助变量特征表示作为输入,输出预测的蒸汽量数据;回归模型是一个多层感知机结构;通过步骤4.1获得回归模型的输入,通过步骤4.2构建回归模型;
步骤4.1:获得回归模型的输入;回归模型是一种有监督学习的方法,只能处理有标签数据集的特征表示;将有标签数据集的辅助变量Xlabeled输入训练好的重构模型,得到特征表示Hlabeled,特征表示Hlabeled就是回归模型的输入;
步骤4.2:利用步骤4.1中得到的特征表示Hlabeled构建回归模型,回归模型通过四层非线性全连接层将输入映射为输出Y_prelabeled;全连接层各层的神经元个数分别设置为[32,16,8,1],非线性激活函数为Sigmoid函数;每层非线性全连接层的表示如下:
Y_prelabeled=f(wHlabeled+b)
其中,f(·)是Sigmoid非线性激活函数,w,b是可训练的模型参数;
步骤5:训练子模型2——回归模型;以均方误差作为损失函数,通过反向传播算法调整回归模型的参数;均方误差损失函数表示为:
其中,Ylabeled是有标签数据集的标签值,mlabeled是有标签数据及集的样本数量;
步骤6:验证本发明提出的模型性能;把工业过程中的真实数据输入训练好的模型进行预测,模型的预测评价指标采用均方误差MSE、均方根误差RMSE和平均绝对误差MAE,MSE、RMSE和MAE的值越小,表示模型的预测精度越高;MSE、RMSE和MAE的计算公式如下:
其中,m表示样本数据的个数,yi,分别表示样本i的真实值和预测值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310456015.8A CN116483036B (zh) | 2023-04-25 | 2023-04-25 | 一种基于Transformer的自编码器软测量建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310456015.8A CN116483036B (zh) | 2023-04-25 | 2023-04-25 | 一种基于Transformer的自编码器软测量建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116483036A CN116483036A (zh) | 2023-07-25 |
CN116483036B true CN116483036B (zh) | 2023-10-03 |
Family
ID=87226505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310456015.8A Active CN116483036B (zh) | 2023-04-25 | 2023-04-25 | 一种基于Transformer的自编码器软测量建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116483036B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117313620B (zh) * | 2023-10-17 | 2024-03-15 | 华南理工大学 | 一种基于多任务深度学习符号回归的dtco公式建模方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019213860A1 (en) * | 2018-05-09 | 2019-11-14 | Jiangnan University | Advanced ensemble learning strategy based semi-supervised soft sensing method |
US10678196B1 (en) * | 2020-01-27 | 2020-06-09 | King Abdulaziz University | Soft sensing of a nonlinear and multimode processes based on semi-supervised weighted Gaussian regression |
CN115238783A (zh) * | 2022-07-18 | 2022-10-25 | 东南大学 | 一种基于自监督学习的水声目标定位方法 |
CN115690002A (zh) * | 2022-10-11 | 2023-02-03 | 河海大学 | 一种基于Transformer和密集特征融合的遥感图像变化检测方法及系统 |
CN115797744A (zh) * | 2022-10-19 | 2023-03-14 | 中国石油大学(华东) | 一种记忆加强式对抗自编码器的无监督异常检测方法 |
CN115840893A (zh) * | 2022-12-09 | 2023-03-24 | 北京数洋智慧科技有限公司 | 一种多变量时间序列预测方法及装置 |
-
2023
- 2023-04-25 CN CN202310456015.8A patent/CN116483036B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019213860A1 (en) * | 2018-05-09 | 2019-11-14 | Jiangnan University | Advanced ensemble learning strategy based semi-supervised soft sensing method |
US10678196B1 (en) * | 2020-01-27 | 2020-06-09 | King Abdulaziz University | Soft sensing of a nonlinear and multimode processes based on semi-supervised weighted Gaussian regression |
CN115238783A (zh) * | 2022-07-18 | 2022-10-25 | 东南大学 | 一种基于自监督学习的水声目标定位方法 |
CN115690002A (zh) * | 2022-10-11 | 2023-02-03 | 河海大学 | 一种基于Transformer和密集特征融合的遥感图像变化检测方法及系统 |
CN115797744A (zh) * | 2022-10-19 | 2023-03-14 | 中国石油大学(华东) | 一种记忆加强式对抗自编码器的无监督异常检测方法 |
CN115840893A (zh) * | 2022-12-09 | 2023-03-24 | 北京数洋智慧科技有限公司 | 一种多变量时间序列预测方法及装置 |
Non-Patent Citations (1)
Title |
---|
史旭东 ; 熊伟丽 ; .基于改进自训练算法的半监督GPR软测量建模.控制工程.2020,(03),451-455. * |
Also Published As
Publication number | Publication date |
---|---|
CN116483036A (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yan et al. | A data-driven soft sensor modeling method based on deep learning and its application | |
CN109060001B (zh) | 一种基于特征迁移学习的多工况过程软测量建模方法 | |
CN112101480A (zh) | 一种多变量聚类与融合的时间序列组合预测方法 | |
CN116070799B (zh) | 一种基于注意力及深度学习的光伏发电量预测系统及方法 | |
CN116483036B (zh) | 一种基于Transformer的自编码器软测量建模方法 | |
CN111222992A (zh) | 一种基于注意力机制的长短期记忆神经网络的股票价格预测方法 | |
CN114022311A (zh) | 基于时序条件生成对抗网络的综合能源系统数据补偿方法 | |
CN116975645A (zh) | 一种基于vae-mrcnn的工业过程软测量建模方法 | |
CN113988449A (zh) | 基于Transformer模型的风电功率预测方法 | |
CN116050621A (zh) | 一种集成提升模式的多头自注意力海上风电超短时功率预测方法 | |
CN112784920A (zh) | 云边端协同的旋转部件对抗域自适应故障诊断方法 | |
CN113485261A (zh) | 一种基于CAEs-ACNN的软测量建模方法 | |
Zhu et al. | Parallel interaction spatiotemporal constrained variational autoencoder for soft sensor modeling | |
Zhang et al. | A two-stage data-driven approach to remaining useful life prediction via long short-term memory networks | |
CN115409369A (zh) | 基于机理和数据混合驱动的综合能源系统可靠性评估方法 | |
Ren et al. | A lightweight and adaptive knowledge distillation framework for remaining useful life prediction | |
CN115169742A (zh) | 一种短期风力发电功率预测方法 | |
Yu et al. | A new transfer learning fault diagnosis method using TSC and JGSA under variable condition | |
CN117076936A (zh) | 一种基于多头注意力模型的时序数据异常检测方法 | |
Qi et al. | Using stacked auto-encoder and bi-directional LSTM for batch process quality prediction | |
CN111863153A (zh) | 一种基于数据挖掘的废水中悬浮固体总量的预测方法 | |
CN116700011A (zh) | 一种增强深度Transformer-Attention集成预测的分数阶微积分降能引导方法 | |
CN114239397A (zh) | 基于动态特征提取与局部加权深度学习的软测量建模方法 | |
Chang et al. | Soft Sensor of the Key Effluent Index in the Municipal Wastewater Treatment Process Based on Transformer | |
Zhao et al. | A Novel Semi-supervised Two-dimensional Dynamic Soft Sensor for Quality Prediction in Batch Processes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |