CN110245380A - 软仪表训练和样本补充方法 - Google Patents

软仪表训练和样本补充方法 Download PDF

Info

Publication number
CN110245380A
CN110245380A CN201910386864.4A CN201910386864A CN110245380A CN 110245380 A CN110245380 A CN 110245380A CN 201910386864 A CN201910386864 A CN 201910386864A CN 110245380 A CN110245380 A CN 110245380A
Authority
CN
China
Prior art keywords
training
sample
wgan
vae
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910386864.4A
Other languages
English (en)
Inventor
刘涵
王晓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201910386864.4A priority Critical patent/CN110245380A/zh
Publication of CN110245380A publication Critical patent/CN110245380A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Complex Calculations (AREA)

Abstract

软仪表训练和样本补充方法,包括以下步骤:首先,利用原始采集的数据,作为VAE的训练样本,得到VAE的隐层变量z;其次,将VAE的解码部分作为WGAN的生成器G,从隐变量z中采样,作为G的输入,生成新的样本;最后,将真实样本与生成样本输入判别器D,判断两者的差异性,通过优化目标函数训练WGAN,以得到最接近真实数据的样本;利用此模型为软仪表生成新的训练样本,补充数据集,解决原始训练数据不足的问题,提高软仪表的训练精度,本发明生成的数据样本,与真实样本具有最高的相似度,且模型具有最快的收敛速度。

Description

软仪表训练和样本补充方法
技术领域
本发明属于机器学习技术领域,具体涉及软仪表训练和样本补充方法,基于变分自动编码器(Variational auto-encoders,VAE)和生成式对抗网络(Generativeadversarial networks,GAN)的深度生成模型VA-WGAN,生成模型的一种新的结构和训练方法。并在此基础上,应用此模型为工业软仪表的训练生成新的训练样本,补充训练数据集。
背景技术
在工业过程中,存在许多与产品质量、生产效率等密切相关的关键变量,但由于很多工业现场处于高温、高粉尘或者腐蚀性等恶劣环境,利用硬件设备测量这些关键变量困难,另外,此类硬件测量设备制造和维护成本较高,也给测量工作带来了阻碍。软仪表是一种测量工业过程中难测关键变量的数学模型,将一些与目标变量密切相关的易测过程变量作为模型输入,将目标变量作为模型输出,建立数学关系,从而预测目标变量的数值。
目前针对软仪表的研究,大部分集中于模型结构和训练方法,但除此之外,还有许多因素会直接影响软仪表的性能,例如建模过程中的训练样本的数量和质量。充足的训练样本可以有效优化训练过程,提高收敛速度,提高模型的训练效果,提升模型的预测精度。而由于应用软仪表的工业现场环境通常较为恶劣,为数据的采集带来了难度和不稳定性,导致许多情况下用来训练模型的样本匮乏,且包含许多无效值和离群值,无法保证建立一个符合要求的软仪表模型。目前常见的数据补充方法即采用生成模型,学习出真实样本的分布,生成新的训练样本。传统的生成模型有基于玻尔兹曼机及深度信念网络的方法等,此类方法在条件概率分布和配分函数的计算等方面有着巨大计算量。而近年来兴起的深度生成模型,例如GAN,具有高度逼近真实数据的能力,但网络的训练十分困难,容易发生模型坍塌。
发明内容
为克服上述现有技术的不足,本发明的目的是提供软仪表训练和样本补充方法,通过学习真实数据的分布生成新的样本,以补充软仪表的训练数据集,解决原始训练数据不足的问题,优化训练过程,提高收敛速度,提高软仪表的训练精度。
为实现上述目的,本发明采用的技术方案是:软仪表训练和样本补充方法,包括以下步骤:
步骤1,利用原始采集的数据,作为VAE的训练样本,得到VAE的隐层变量z;
步骤2,将VAE的解码部分作为WGAN的生成器G,从隐变量z中采样,作为G的输入,生成新的样本;
步骤3,将真实样本与生成样本输入判别器D,判断两者的差异性,通过优化目标函数训练WGAN,以得到最接近真实数据的样本。
所述的步骤1,具体做法是:
先训练一个VAE,得到隐层变量z,VAE是一种以重构原始数据为目标的神经网络生成模型,其结构分为两部分,编码器Enc和解码器Dec;编码部分将原始数据x经过运算得到隐层变量z,解码部分将z重构为以逼近x,其对数据的重构过程如下:
其中,θ与φ分别为编码与解码部分的网络权重参数,qφ(z|x)是对真实后验概率pθ(x|z)的近似,由于原始数据x的分布p(x)通常是一个难解的复杂分布,无法计算最大似然,因此,VAE的损失函数JVAE定义为对于最大似然函数的低边界近似:
JVAE=Jprior+Jrec (2)
其中,Jprior作为一个正则化项,推动近似后验分布向隐层变量z的先验分布pθ(z)靠近,Jrec代表VAE重建误差的负值,其具体定义如下:
DKL是KL散度(Kullback-Leibler divergence),将pθ(x|z)设置为具有单位矩阵协方差的正态分布,将pθ(z)设置为标准正态分布,为顺利使用梯度下降对权值进行优化,VAE的隐层变量z并不来自于对pθ(z)的直接采样,而是结合了正态分布与编码器输出的运算结果,其采样过程为z=μ+σ⊙ε,其中,μ和σ分别是qφ(z|x)的均值和方差,ε是一个标准正态分布。
所述的解码器Dec,将VAE的解码Dec作为WGAN的生成器G,构建模型VA-WGAN,
GAN是一种对抗训练的深度生成模型,包括一个生成器G和一个判别器D,G负责生成与真实数据相似的样本,D负责判定样本来自于真实数据还是G,通过对G和D的对抗训练,达到平衡,逐渐缩小生成样本与真实样本两者之间的差距,即可以生成以假乱真的数据样本,GAN的损失函数为:
式中,Pr为真实数据的分布,Pg为G生成的数据分布,传统GAN的模型训练十分困难,经常出现模型坍塌,后经研究者改善为WGAN,采用沃瑟斯坦距离代替GAN中采用的JS散度来衡量真实数据与生成数据之间的差异,WGAN的损失函数为:
式中,L是用以约束判别器D的利普希茨函数集合,在此改进之后,WGAN的模型训练依然经常出现病态和不稳定现象。
所述的步骤3,对WGAN的模型训练优化,其具体做法是:将WGAN的优化目标改进如下:
其中,ψ是判别器D的参数,xp是由Dec(Enc(x))得到的样本,服从分布Ph,加入公式(6)中第二项的原因是,在实验中发现,xp有时比更加接近于真实样本x,因此,加入此项能够为权值的优化提供更有效的反传信号,公式(6)中第三项为梯度惩罚项,可有效提高训练稳定性,减少参数调整,λ为惩罚系数,
基于以上研究,结合公式(2)与公式(6),模型VA-WGAN的整体损失函数为:
JVA-WGAN=JVAE+γJWGAN=Jprior+Jrec+γJWGAN (7)
其中,γ是平衡系数,用以平衡JVAE和JWGAN两项以取得更好的优化效果,采用随机梯度下降对模型参数进行优化。
与现有技术相比,本发明的有益效果是:
本发明提出了一种新的深度生成模型,结合了变分自动编码器与沃瑟斯坦生成式对抗网络(Wasserstein generative adversarial networks,WGAN),改进了损失函数和训练方法,使得模型的训练能够顺利进行,并能快速收敛至最优值。在此基础上,利用此模型为软仪表生成新的训练样本,补充数据集;实验结果显示,相比其他常用方法,应用本方法生成的数据样本,与真实样本具有最高的相似度,且模型具有最快的收敛速度。因此,本发明对于深度生成模型的理论研究和工业软仪表的实际推广均具有重要意义。
本发明将VAE与WGAN结合,形成一个新的深度生成模型VA-WGAN;通过随机梯度下降法对模型进行优化训练,使其能够生成最接近真实数据的样本,为工业软仪表提供训练数据。
附图说明
图1是VAE的模型结构和隐变量z的采样过程。
图2是本发明的VA-WGAN深度生成模型的结构示意图。
图3是本发明的实例中的三分仓旋转空气预热器的立体结构示意图。
图4是本发明的实例中空气预热器转子变形示意图。
图5是本发明的实例中软仪表模型结构图。
图6(a)是不同生成模型的判别器损失函数收敛曲线。
图6(b)是不同生成模型的生成器损失函数收敛曲线。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
基于变分自动编码器和生成式对抗网络的新的深度生成模型,为软仪表生成新的训练样本,并进行了实例验证;软仪表训练和样本补充方法,包括以下步骤:步骤1,训练变分自动编码器VAE,隐层变量z服从标准正态分布;步骤2,将VAE的解码部分作为WGAN的生成器G,G的输入是对正态分布z的采样,输出为新的样本;步骤3,利用判别器D对生成的样本与真实样本进行比较,通过优化目标函数训练WGAN,以得到最接近真实数据的样本。整个实施过程包括以下三个阶段:
1)构建一个变分自动编码器VAE
通过训练一个VAE,得到隐层变量z,VAE是一种以重构原始数据为目标的神经网络生成模型,其结构分为两部分,编码器Enc和解码器Dec,编码部分将原始数据x经过运算得到隐层变量z,解码部分将z重构为x~以逼近x,其对数据的重构过程如下:
其中,qφ(z|x)是对真实后验概率pθ(x|z)的近似,由于原始数据x的分布p(x)通常是一个难解的复杂分布,无法计算最大似然,因此,VAE的损失函数定义为对于最大似然函数的低边界近似:
JVAE=Jprior+Jrec (2)
其中,
pθ(z)是隐层变量z的先验分布,DKL是KL散度(Kullback-Leibler divergence),本发明中,将pθ(x|z)设置为具有单位矩阵协方差的正态分布,将pθ(z)设置为标准正态分布,为顺利使用梯度下降对权值进行优化,本发明中VAE的隐层变量z并不来自于对pθ(z)的直接采样,而是结合了正态分布与编码器输出的运算结果,其采样过程为z=μ+σ⊙ε,VAE的模型结构及隐层变量z的采样过程如图1所示;
2)训练VA-WGAN
在第一阶段的基础上,将VAE的解码Dec作为WGAN的生成器G,构建模型VA-WGAN,其结构示意图如图2所示;
GAN是一种对抗训练的深度生成模型,包括一个生成器G和一个判别器D,G负责生成与真实数据相似的样本,D负责判定样本来自于真实数据还是G,通过对G和D的对抗训练,达到平衡,逐渐缩小生成样本与真实样本两者之间的差距,即可以生成以假乱真的数据样本,GAN的损失函数为:
式中Pr为真实数据的分布,Pg为G生成的数据分布,传统GAN的模型训练十分困难,经常出现模型坍塌,后经研究者改善为WGAN,采用沃瑟斯坦距离代替GAN中采用的JS散度(Jensen-Shannon divergence)来衡量真实数据与生成数据之间的差异,WGAN的损失函数为:
L是用以约束判别器D的利普希茨函数集合,在此改进之后,WGAN的模型训练依然经常出现病态和不稳定现象,
因此在本发明中,将WGAN的优化目标改进如下:
其中,ψ是判别器D的参数,xp是由Dec(Enc(x))得到的样本,服从分布Ph,加入(6)中第二项的原因是,我们在实验中发现,xp有时比更加接近于真实样本x,因此,加入此项能够为权值的优化提供更有效的反传信号;公式(6)中第三项为梯度惩罚项,可有效提高训练稳定性,减少参数调整,λ为惩罚系数;
基于以上研究,结合公式(2)与公式(6),模型VA-WGAN的整体损失函数为:
JVA-WGAN=JVAE+γJWGAN=Jprior+Jrec+γJWGAN (7)
其中γ是平衡系数,用以平衡JVAE和JWGAN两项以取得更好的优化效果,本发明中采用随机梯度下降对模型参数进行优化,步骤如表1所示,在满足结束条件时结束循环(结束条件为提前设置,可设置损失函数的值或者循环次数)。
表1是VA-WGAN模型的参数优化步骤。
实例验证
本发明方法运行平台为2015a,计算机配置为CoreTMi73.60GHz,8GB RAM。通过实例研究,证明本方法可生成最接近真实数据的样本,为软仪表的训练提供补充样本。为了验证本方法的有效性,在实验中引入了其他3种常用且效果较好的生成模型方法进行比较,分别是变分自动编码器VAE、生成式对抗网络GAN以及带有梯度惩罚项的沃瑟斯坦生成式对抗网络WGAN-GP。每个模型通过训练,学习真实数据集的分布,生成样本,以供软仪表训练使用。本实验中的数据集如表2所示。
表2是实施例中用以软仪表训练的不同数据集。
四个生成模型的结构设置为:
VAE:编码器与解码器均为三层神经网络,隐层变量z服从标准正态分布;
GAN:生成器与判别器均为四层全连接的神经网络,判别器每更新5次,生成器更新1次;
WGAN-GP:梯度惩罚系数为10,其余与GAN相同;
VA-WGAN:编码与解码部分与VAE相同,判别器设置与GAN相同,梯度惩罚系数为10,平衡系数为20。
实验步骤为:
步骤1:训练以上四个生成模型;
步骤2:由每个模型生成规定数量的新样本;
步骤3:将真实数据集、每个模型的生成数据集、以及真实数据与生成数据结合而成的综合数据集,分别应用于软仪表的训练,记录训练和测试误差;
步骤4:比较分析上述四种不同方法的数据生成效果。
本实施例研究的应用背景如下:
空气预热器是火电厂锅炉系统中的气体换热装置,用来提取废气中的热量,对进入锅炉的助燃空气进行预热。空气预热器的结构示意图如图3所示,外部空气通过两个风道自下而上进入空气预热器,为了分隔风道和烟道,在转子的上部和下部分别安装有扇形板,废气通过烟道自上而下排出,在空气预热器的转子中密布安装了蓄热片,随着转子的缓慢转动,废气中的热量被吸收到了虚热装置中,再释放到助燃空气中,以达到预热的目的。在此过程中,空气预热器内部处于严重温度不均的状态,上部温度高,下部温度低,由于热应力的作用,转子发生了一种蘑菇状变形,使得转子与扇形板之间出现了缝隙,导致未加热的空气通过缝隙进入烟道,产生漏风,大大降低了预热的效率,如图4所示。因此,检测和控制转子变形是本工业过程中的重要环节。而空气预热器所处的环境高温且高粉尘,硬件测量设备测量困难,因此我们引入了软仪表方法,通过对其他易测过程变量与转子变形量建模,进行目标变量的检测和控制。经过对工业过程的机理分析,选取四个辅助变量作为软仪表的输入,分别是烟道入口温度t1、烟道出口温度t2、风道入口温度t3、风道出口温度t4,软仪表输出为转子变形量ydef。为突出数据集对于软仪表训练的影响程度,本实验中选取了普通的三层神经网络作为软仪表模型,如图5所示。
本例中的数据集是来自于中国西部某火力发电厂锅炉空气预热器中的实际数据,样本数150,其中100个作为训练数据,50个作为测试数据。将生成样本的个数分别设置为100、300及400,不同数据集对于软仪表的训练和测试误差如表3、表4及表5所示。由表3至表5可见,增加训练样本的数量可以有效降低软仪表的训练和测试误差,且相比于其他生成模型,VA-WGAN所生成的数据取得最低的预测误差,即VA-WGAN能够生成最接近真实数据的样本。四种不同生成模型的生成器与判别器的损失函数收敛过程如图6所示。由图6可见,GAN的损失函数曲线十分振荡,无法正常反应GAN的训练过程。相反的,另外三种方法的损失函数呈现平滑下降状态,可清晰体现其收敛过程,且VA-WGAN的收敛速度最快。综上所述,本发明所建立的深度生成模型VA-WGAN具备收敛快、生成数据与真实数据相似度高的突出优点,可以有效地补充软仪表训练数据集,解决训练样本不足的问题。
表3是实施例中生成样本为100个时,软仪表采用不同训练集的训练结果。
表4是实施例中生成样本为300个时,软仪表采用不同训练集的训练结果。
表5是实施例中生成样本为400个时,软仪表采用不同训练集的训练结果。

Claims (4)

1.软仪表训练和样本补充方法,其特征在于,包括以下步骤:
步骤1,利用原始采集的数据,作为VAE的训练样本,得到VAE的隐层变量z;
步骤2,将VAE的解码部分作为WGAN的生成器G,从隐变量z中采样,作为G的输入,生成新的样本;
步骤3,将真实样本与生成样本输入判别器D,判断两者的差异性,通过优化目标函数训练WGAN,以得到最接近真实数据的样本。
2.根据权利要求1所述的软仪表训练和样本补充方法,其特征在于,所述的步骤1,具体做法是:
先训练一个VAE,得到隐层变量z,VAE是一种以重构原始数据为目标的神经网络生成模型,其结构分为两部分,编码器Enc和解码器Dec;编码部分将原始数据x经过运算得到隐层变量z,解码部分将z重构为以逼近x,其对数据的重构过程如下:
其中,θ与φ分别为编码与解码部分的网络权重参数,qφ(z|x)是对真实后验概率pθ(x|z)的近似,由于原始数据x的分布p(x)通常是一个难解的复杂分布,无法计算最大似然,因此,VAE的损失函数JVAE定义为对于最大似然函数的低边界近似:
JVAE=Jprior+Jrec (2)
其中Jprior作为一个正则化项,推动近似后验分布向隐层变量z的先验分布pθ(z)靠近,Jrec代表VAE重建误差的负值,其具体定义如下:
DKL是KL散度(Kullback-Leibler divergence),将pθ(x|z)设置为具有单位矩阵协方差的正态分布,将pθ(z)设置为标准正态分布,为顺利使用梯度下降对权值进行优化,VAE的隐层变量z并不来自于对pθ(z)的直接采样,而是结合了正态分布与编码器输出的运算结果,其采样过程为z=μ+σ⊙ε,其中,μ和σ分别是qφ(z|x)的均值和方差,ε是一个标准正态分布。
3.根据权利要求2所述的软仪表训练和样本补充方法,其特征在于,所述的解码器Dec,将VAE的解码器Dec作为WGAN的生成器G,构建模型VA-WGAN,
GAN是一种对抗训练的深度生成模型,包括一个生成器G和一个判别器D,G负责生成与真实数据相似的样本,D负责判定样本来自于真实数据还是G,通过对G和D的对抗训练,达到平衡,逐渐缩小生成样本与真实样本两者之间的差距,即可以生成以假乱真的数据样本,GAN的损失函数为:
式中,Pr为真实数据的分布,Pg为G生成的数据分布,传统GAN模型的训练十分困难,经常出现模型坍塌,后经研究者改善为WGAN,采用沃瑟斯坦距离代替GAN中采用的JS散度来衡量真实数据与生成数据之间的差异,WGAN的损失函数为:
式中,L是用以约束判别器D的利普希茨函数集合,在此改进之后,WGAN的模型训练依然经常出现病态和不稳定现象。
4.根据权利要求3所述的所述的软仪表训练和样本补充方法,其特征在于,所述的,对WGAN的模型训练优化,其具体做法是:将WGAN的优化目标改进如下:
其中,ψ是判别器D的参数,xp是由Dec(Enc(x))得到的样本,服从分布Ph,加入公式(6)中第二项的原因是,在实验中发现,xp有时比更加接近于真实样本x,因此,加入此项能够为权值的优化提供更有效的反传信号,公式(6)中第三项为梯度惩罚项,可有效提高训练稳定性,减少参数调整,λ为梯度惩罚系数,其数值根据实验中的交叉验证确定,
基于以上研究,结合公式(2)与公式(6),模型VA-WGAN的整体损失函数为:
JVA-WGAN=JVAE+γJWGAN=Jprior+Jrec+γJWGAN (7)
其中,γ是平衡系数,用以平衡JVAE和JWGAN两项以取得更好的优化效果,采用随机梯度下降对模型参数进行优化。
CN201910386864.4A 2019-05-10 2019-05-10 软仪表训练和样本补充方法 Pending CN110245380A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910386864.4A CN110245380A (zh) 2019-05-10 2019-05-10 软仪表训练和样本补充方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910386864.4A CN110245380A (zh) 2019-05-10 2019-05-10 软仪表训练和样本补充方法

Publications (1)

Publication Number Publication Date
CN110245380A true CN110245380A (zh) 2019-09-17

Family

ID=67884117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910386864.4A Pending CN110245380A (zh) 2019-05-10 2019-05-10 软仪表训练和样本补充方法

Country Status (1)

Country Link
CN (1) CN110245380A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178626A (zh) * 2019-12-30 2020-05-19 苏州科技大学 基于wgan算法的建筑能耗预测方法及监测预测系统
CN111258992A (zh) * 2020-01-09 2020-06-09 电子科技大学 一种基于变分自编码器的地震数据扩充方法
CN111489326A (zh) * 2020-01-13 2020-08-04 杭州电子科技大学 基于半监督深度学习的铜箔基板表面缺陷检测方法
CN111815506A (zh) * 2020-07-17 2020-10-23 上海眼控科技股份有限公司 图像生成方法、装置、计算机设备和存储介质
CN111915881A (zh) * 2020-06-11 2020-11-10 西安理工大学 一种基于变分自动编码器的小样本交通流量预测方法
CN112085103A (zh) * 2020-09-10 2020-12-15 北京百度网讯科技有限公司 基于历史行为的数据增强方法、装置、设备以及存储介质
CN112508239A (zh) * 2020-11-22 2021-03-16 国网河南省电力公司电力科学研究院 一种基于vae-cgan的储能出力预测方法
CN113177078A (zh) * 2021-04-30 2021-07-27 哈尔滨工业大学(威海) 基于条件生成模型的高效近似查询处理算法
CN113449786A (zh) * 2021-06-22 2021-09-28 华东师范大学 基于风格迁移的强化学习对抗防御方法
CN113505477A (zh) * 2021-06-29 2021-10-15 西北师范大学 一种基于svae-wgan的过程工业软测量数据补充方法
CN114530250A (zh) * 2022-04-24 2022-05-24 广东工业大学 基于数据增强的可穿戴血糖检测方法、系统及存储介质
CN115291108A (zh) * 2022-06-27 2022-11-04 东莞新能安科技有限公司 数据生成方法、装置、设备及计算机程序产品

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111178626A (zh) * 2019-12-30 2020-05-19 苏州科技大学 基于wgan算法的建筑能耗预测方法及监测预测系统
CN111258992A (zh) * 2020-01-09 2020-06-09 电子科技大学 一种基于变分自编码器的地震数据扩充方法
CN111489326A (zh) * 2020-01-13 2020-08-04 杭州电子科技大学 基于半监督深度学习的铜箔基板表面缺陷检测方法
CN111915881A (zh) * 2020-06-11 2020-11-10 西安理工大学 一种基于变分自动编码器的小样本交通流量预测方法
CN111815506A (zh) * 2020-07-17 2020-10-23 上海眼控科技股份有限公司 图像生成方法、装置、计算机设备和存储介质
CN112085103B (zh) * 2020-09-10 2023-06-27 北京百度网讯科技有限公司 基于历史行为的数据增强方法、装置、设备以及存储介质
CN112085103A (zh) * 2020-09-10 2020-12-15 北京百度网讯科技有限公司 基于历史行为的数据增强方法、装置、设备以及存储介质
CN112508239A (zh) * 2020-11-22 2021-03-16 国网河南省电力公司电力科学研究院 一种基于vae-cgan的储能出力预测方法
CN113177078B (zh) * 2021-04-30 2022-06-17 哈尔滨工业大学(威海) 基于条件生成模型的近似查询处理算法
CN113177078A (zh) * 2021-04-30 2021-07-27 哈尔滨工业大学(威海) 基于条件生成模型的高效近似查询处理算法
CN113449786A (zh) * 2021-06-22 2021-09-28 华东师范大学 基于风格迁移的强化学习对抗防御方法
CN113505477A (zh) * 2021-06-29 2021-10-15 西北师范大学 一种基于svae-wgan的过程工业软测量数据补充方法
CN114530250A (zh) * 2022-04-24 2022-05-24 广东工业大学 基于数据增强的可穿戴血糖检测方法、系统及存储介质
CN115291108A (zh) * 2022-06-27 2022-11-04 东莞新能安科技有限公司 数据生成方法、装置、设备及计算机程序产品

Similar Documents

Publication Publication Date Title
CN110245380A (zh) 软仪表训练和样本补充方法
CN113051831B (zh) 机床热误差自学习预测模型建模方法及热误差控制方法
CN112818595B (zh) 一种火电厂蒸发区的数字孪生模型数据的修正方法及系统
CN110210495B (zh) 基于并行LSTM自编码器动态特征提取的XGBoost软测量建模方法
CN106842922B (zh) 一种数控加工误差优化方法
CN110262450B (zh) 面向汽轮机的多种故障特性协同分析的故障预测方法
CN106980910B (zh) 中长期电力负荷测算系统及方法
CN113505477A (zh) 一种基于svae-wgan的过程工业软测量数据补充方法
CN115034129B (zh) 一种面向火电厂脱硝装置的NOx排放浓度软测量方法
CN114757269A (zh) 一种基于局部子空间-邻域保持嵌入的复杂过程精细化故障检测方法
CN110674984A (zh) 一种基于Tri-Training-Lasso-BP网络的静态电压稳定裕度预测方法
CN113504768A (zh) 面向装配质量预测的高精密产品数字孪生可计算性方法
CN113093545B (zh) 基于能量平衡的直线伺服系统热误差建模方法及补偿系统
CN116415394A (zh) 一种融合机器学习和机理模型的二回路设备模型仿真方法
CN112765746B (zh) 基于多项式混沌的涡轮叶顶气热性能不确定性量化系统
CN117313936B (zh) 一种燃煤电厂烟气脱硫过程净烟气so2浓度预测方法
CN117709203A (zh) 一种液体静压丝杠进给系统综合误差建模方法及系统
CN110751173B (zh) 基于深度学习支持向量机的临界热流密度预测方法
CN112199637A (zh) 基于回归注意力生成对抗网络数据增强的回归建模方法
CN115310311B (zh) 一种金属材料在谱载荷下疲劳寿命计算方法
CN103983332A (zh) 一种基于hgsa-bp算法的传感器误差补偿方法
Neuber Generation of bounding axial burnup profiles as a continuous function of average burnup
Huang et al. Thermal error modeling and analysis of CNC machine tools based on wavelet neural network
CN112307670A (zh) 基于bagging集成神经网络的压水堆堆芯参数预测模型设计方法
CN116738759B (zh) 装备的设计运维方法、装置、计算机设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination