CN113627594A - 基于wgan的一维时序数据增广方法 - Google Patents
基于wgan的一维时序数据增广方法 Download PDFInfo
- Publication number
- CN113627594A CN113627594A CN202110896042.8A CN202110896042A CN113627594A CN 113627594 A CN113627594 A CN 113627594A CN 202110896042 A CN202110896042 A CN 202110896042A CN 113627594 A CN113627594 A CN 113627594A
- Authority
- CN
- China
- Prior art keywords
- data
- generator
- discriminator
- training
- wgan
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003321 amplification Effects 0.000 title claims abstract description 9
- 238000003199 nucleic acid amplification method Methods 0.000 title claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 63
- 238000005070 sampling Methods 0.000 claims abstract description 31
- 230000006870 function Effects 0.000 claims abstract description 27
- 238000009826 distribution Methods 0.000 claims description 16
- 238000013434 data augmentation Methods 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 8
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 6
- 230000002159 abnormal effect Effects 0.000 claims description 4
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000003042 antagnostic effect Effects 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000006116 polymerization reaction Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000012423 maintenance Methods 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical group [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 229910001416 lithium ion Inorganic materials 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开了一种一维时序数据增广方法,具体涉及一种基于Wasserstein生成对抗网络(WGAN)的数据增广方法。步骤如下:1.准备训练数据集,确保训练数据集的采样频率满足要求。2.构建生成对抗网络WGAN,构建由生成器和鉴别器组成的生成对抗网络,其损失函数由Wasserstein距离进行量化。3.训练构建的网络模型,循环训练鉴别器和生成器直到达到纳什均衡状态。4.遍历完整的时序数据,通过WGAN学习并分析时序数据的数字特征并对数字特征相同的数据进行聚类。5.对聚类完成的时序数据,利用每个子类对应的训练完成的WGAN生成器网络生成数字特征与原始数据一致的人工数据,实现数据集的增广。
Description
所属技术领域
本发明提供一维时序数据增广方法,具体涉及一种基于Wasserstein生成对抗网络 (WGAN)的数据增广方法。
背景技术
随着仿真技术和传感器技术的发展,仿真速率和采样频率逐渐提高,工业产品在设计、 制造、使用维护期间能够收集到大量时序数据,如瞬态仿真数据、状态监测数据、性能退化 数据等。对时序数据的分析能够帮助设计人员更好地理解产品状态的时变特征;能够帮助制 造部门更好地控制产品质量;能够帮助使用维护人员更好地预测产品故障,设计维护方案。 可以说,对时序数据的分析与理解对工业产品的质量与可靠性具有重要的意义。由于计算误 差、材料特性不均匀、制造精度有限等原因,时序数据的数字(统计)特征普遍具有非平稳、 时变、非线性的特点,表现为分布不确定的随机过程。若使用确定分布(如高斯分布)的随 机过程对时序数据进行量化会引入较大的不确定性,难以准确表征其数字特征,分析难度较 大。在工业生产实际中常通过批次产品或相似产品的概率统计信息对时序数据的数字特征进 行近似估计,这种做法需要大量的统计样本才能获得较为满意的估计精度。然而,随着现代 社会的发展,高价值的小批量产品甚至是非批次、个性化、定制化产品越来越受到人们的关 注。在此类产品的设计、制造和使用维护的过程中,无法使用传统的批次数据或相似产品信 息对其时变特性进行准确的估计。因此,对小样本甚至是单样本的时序数据进行合理的增广, 从而分析与理解其规律,是提升小批量定制化产品质量与可靠性的关键。
在机器学习领域,随着生成对抗网络(GAN)的提出,使得对小样本甚至单样本数据集 进行增广成为了可能。GAN由生成器和鉴别器两个神经网络组成,生成器生成与原始数据尽 可能相似的数据,而鉴别器尽可能辨别生成数据与原始数据,通过两个神经网络的“对抗博 弈”实现生成与原始数据具有相同特征的新样本。自从GAN出现至今已经产生了许多对其进 行改良的变体,其中Wasserstein GAN(WGAN)通过改良GAN中生成器和鉴别器的损失函数 提高了训练过程的稳定性,使得训练结果更加鲁棒。
发明内容
本发明提出一种基于WGAN的一维时序数据增广方法,针对一维时序数据,通过生成对 抗网络学习其数字特征,将其聚类为若干具有相同数字特征的数据子集;通过WGAN的生成 器神经网络,生成与原始样本具有相同数字特征的人工样本,从而实现数据增广,主要包含 以下步骤。
步骤一:准备训练数据集:
原始数据为一维时序数据。无需对数据添加标签,但需要保证数据有较高的采样频率。 对于一般的时序数据,建议采样频率不小于10Hz,即单位时间的采样次数不少于10次。对变 化较为剧烈的时序数据应酌情增大其采样频率,而对变化较为平缓的时序数据可酌情降低其 采样频率。确定的采样频率需至少大于采样定理(奈奎斯特-香农采样定理)所规定的频率下 限,即原始信号频率的2倍。将采样频率满足要求的时序数据进行异常处理,删除异常值和空 值,作为训练数据。
步骤二:构建生成对抗网络WGAN
WGAN由两个神经网络,即生成器(Generator)和鉴别器(Discriminator)组成。生成器 和鉴别器的输入层与原始数据维度一致。生成器的损失函数为:
其中为从原始数据和生成数据的分布中重新采样得到的样本数据,为其概率分布; 为鉴别器对鉴别结果的梯度;||f(x)||2为求f(x)的2范数(向量范数);λ为惩罚系数, 一般可取λ=0.1,较小的λ能够提高网络训练的稳定性但会降低训练速度。
在增大。相反,在最小化损失函数(1)对生成器进行训练的过程中,生成器产生的生成数据 与原始数据的差距在缩小,即通过增大使得减小。生成器与鉴别器相反的优 化方向构成的“对抗”机制,最终会使得收敛至0+附近,此时生成数据与原始数据的 特征已基本趋于一致。
步骤三:训练构建的网络模型:
训练鉴别器:将噪声数据输入至生成器Gi,生成新样本将原始数据xi和分别输入 鉴别器Di,计算鉴别器的鉴别损失和D(xi),并利用公式(2)计算鉴别器的损失函数, 使用Adam(α,β1,β2)随机梯度下降优化方法对鉴别器的损失函数进行优化,其中α为学习率一 般可取1e-4,β1和β2为指数衰减率,一般可取0.1和0.9。
计算Wasserstein距离:循环进行上述训练过程,直至由公式(4)计算的Wasserstein距 离小于设定的阈值ρ(一般可取ρ≤0.2),即完成对网络Gi和Di的训练。
步骤四:遍历完整的时序数据,分析数据的数字特征并聚类
划分时间片:首先根据采样频率确定最小窗宽Sσ,最小窗宽应不大于采样频率的50倍。 利用Sσ将时序数据在时间维离散为若干时间片(Slices);
训练时间片Slice0:将Slice0内的原始数据x0作为训练集,对生成器G0和鉴别器D0进行训练, 当Wasserstein距离后完成对Slice0数据的训练,保存训练好的生成器G0和鉴别器 D0,并将x0预聚类为第一类,即S0=x0;
预训练Slicei鉴别器:对时间片Slicei(i>0),使用其原始数据xi对鉴别器Di进行预训练,鉴 别器预训练的损失函数为:
其中D(xi)为鉴别器对xi的鉴别结果,当std[preLoss(Di)]<ρpre时判定鉴别器预训练完成, std[f(x)]为f(x)的标准差,ρpre为阈值(常数)。
时间片迭代:对时间片Slicei(i>0),使用Slicei-1数据所在子类Sj的生成器Gj生成人工数据 将和xi分别输入到经过预训练的鉴别器Di,计算鉴别损失和D(xi)并根据公式 (4)计算Wasserstein距离若Slicei对应的则判定Slicei数据与Slicei-1数据的数字特征不同,应使用Slicei的数据重新训练生成器Gi和鉴别器Di,将Slicei的原始数据xi聚为新子类Sj+1=xi;反之则判定Slicei的数据与Slicei-1的数据的数字特征相同,将Slicei的原 始数据xi聚入Slicei-1数据所在子类Sj,不重新训练生成器和鉴别器。
步骤五:时序数据增广
经过遍历的时序数据,已经按照其数字特征重新在时间维聚类为k个具有相同数字特征 的子类S0,S1,S2,…,Sk。使用子类Sj对应的生成器Gj能够生成与该子类原始数据数字特征一 致的人工数据,即可按需对数据进行增广。如生成人工样本平衡S0,S1,S2,…,Sk的数据使各 子类数据量相同,或生成若干组与原始样本具有相同数字特征的一维时序数据。
附图说明
图1为本发明中所述方法的架构框图
图2为典型时序数据——电池电容量退化图
图3为RW3电池满充电容量时序数据图
图4为生成对抗网络WGAN结构图
图5为案例训练数据聚类分析结果图
图6为本发明生成样本与原始样本的分布和热力图
图7为本发明生成的时序样本与原始样本的散点图
具体实施方式
为使本发明的技术方案、特征及优点得到更清楚的了解,以下结合附图,作详细说明。
本发明给出了一种一维时序数据集的增广方法,旨在通过Wasserstein生成对抗网络 WGAN学习一维时序数据集的数字特征,在时间维将其聚类为具有相同数字特征的若干数据 子集,并利用WGAN生成与各子集原始数据具有相同数字特征的人工样本对数据集进行增广。 本发明的技术流程如图1所示,下面结合实例进一步说明本发明的实质内容,但本发明的内容 并不限于此。
步骤一:准备训练数据集
将瞬态仿真数据、状态监测数据、性能退化数据等一维时序数据作为训练集的输入。工 程实际中获得的时序数据一般为无标签数据,本发明中所采用的是无标签机器学习方法,能 够直接处理无标签数据。但是,本发明的方法要求时序数据有较高的采样频率。对于一般的 时序数据,推荐采样频率应不小于10Hz,即单位时间的采样次数不少于10次;对变化较为剧 烈的时序数据应酌情增大采样频率,而对变化较为平缓的时序数据可酌情降低采样频率。确 定的采样频率需要大于采样定理(奈奎斯特-香农采样定理)所规定的频率下限,即原始信号 变化频率的2倍,在此基础上采样频率应在合理的范围内尽可能取大。将采样频率满足要求的 时序数据进行异常处理,删除其中的异常值和空值,作为训练数据集。
例1:本实施例选用的数据集为NASA在2014年发布的锂离子电池随机放电循环数据集。 该数据包含一组4颗18650型锂离子电池(电池编号为RW3,RW4,RW5,RW6),电池被充电 至4.2V后随机电流放电至3.2V(放电电流在0.5A至4A之间随机)如此循环,并记录其每一次 充电至4.2V时的满充电容。如图2所示,数据集中4颗电池的满充电容量随着充放电循环的进 行逐渐退化,其经历的循环数、起始电容量、和试验终末电容量如表1所示。但是在实际的充 放电过程中电池的满充电容量并非线性单调变化,而是存在较为明显的抖动,如图3所示为 RW3号电池的满充电容量随充放电循环的变化。如图3,虽然随着充放电循环的进行RW3号电 池的内阻逐渐增加导致其满充电容量呈现下降的趋势,但是由于电容自恢复效应的存在,其 下降过程呈现出较为明显的非线性和随机性。该原始数据为典型的具有较高采样频率的退时 序数据,将删除了异常值的RW3号数据作为训练数据。
表1随机放电电池退化数据集
步骤二:构建生成对抗网络WGAN
用于进行一维数据增广的生成对抗网络由生成器(Generator)和鉴别器(Discriminator) 组成。基于Wasserstein距离构建的WGAN的生成器和鉴别器的损失函数分别为:
其中,为生成器的生成数据z~p(z)为随机噪声,为生成数据的概率分布; x为原始数据,为原始数据的概率分布;和D(x)分别为鉴别器对生成数据和原始数据 的鉴别结果,为从原始数据和生成数据的分布中重新采样得到的样本数据,为其概率分 布;为鉴别器对重采样数据的鉴别结果,λ=0.1为惩罚项的常系数。梯度惩罚项的目的是 确保生成器和鉴别器分别满足K=1的利普希茨条件即:
|f(x1)-f(x2)|≤K|x1-x2|
由损失函数可知,对鉴别器进行训练,其分辨原始数据和生成数据的能力在提高,即在增大。相反,对生成器进行训练,生成数据与原始数据的差距 在缩小,即在增大。在对生成器和鉴别器进行循环训练的过程中,两个神经网络经 由“对抗博弈”最终达到纳什均衡状态,即Wasserstein距离收敛至0+附近。
例2,接例1。针对例1中的一维时序数据构建的生成器和鉴别器由包含多层隐层的全连接 神经网络构成,输入层与输入数据的维数一致,隐层需要根据输入数据的特点(正负性和取 值范围)选取适宜的激活函数,从而保证神经元的充分激活。对本例中的生成器:
其中,α为常数,本例中α=0.5,生成器的输出层无激活函数。对本例中的鉴别器:
其中,β为常数,本例中β=0.01,鉴别器的输出层无激活函数。生成器和鉴别器的输出 层维数与输入数据一致,便于通过公式(6)和公式(4)计算损失函数和Wasserstein距离。本 例在计算鉴别器的损失函数时,惩罚项的λ取0.1。构建的WGAN结构如图4所示。
步骤三:训练构建的网络模型:
对WGAN网络进行训练时,首先训练鉴别器,将噪声数据传入未经训练的生成器输出生 成数据,将原始数据和生成数据分别传入鉴别器进行鉴别,计算损失函数并优化鉴别器;进 而固定鉴别器,使用经过训练的鉴别器鉴别生成数据,并计算生成器的损失函数对生成器进 行训练,具体如下例。
例3,接例2,对例2中构建的网络进行训练。训练鉴别器:将均值为0标准差为1的高斯噪 声z~n(μ,σ),μ=0,σ=1采样为一维随机向量,输入至生成器Gi,生成新样本将xi和分别输入鉴别器Di,计算鉴别损失和D(xi),并利用公式(2)计算鉴别器的损失函数, 使用Adam(α,β1,β2)随机梯度下降优化方法对鉴别器进行优化,其中α取1e-4,β1和β2分别取0.1 和0.999。在训练鉴别器时,为避免神经网络在训练过程中出现过拟合,将输入数据离散为若 干batch分别代入进行训练,本例中将输入数据离散为4个batch。
计算Wasserstein距离:在1个epoch内依次训练鉴别器和生成器,并通过公式(4)计算 原始数据和生成数据的Wasserstein距离。循环执行若干个epoch,直至由公式(4)计算的 Wasserstein距离小于设定的阈值ρ(本例中ρ=0.2),即完成对网络Gi和Di的训练。
步骤四:遍历完整的时序数据,分析数据的数字特征并聚类
首先,确定最小窗宽Sσ将原始数据划分为n个时间片(Slices),每个Slice包含Sσ个时间 维连续的数据,并认为Slice内数据的数字特征是一致的。时间片不应划分得过细(如Sσ≤5), 这会导致网络训练困难,需要保证每个时间片内有足够的数据量完成网络训练;但是时间片 也不必划分得过宽,过宽的Sσ会导致时间片内数据的数字特征不一致,使得数据生成的结果 产生较大的偏差。进而,通过遍历原始时序数据的全部时间片对其数字特征进行分析,将原 始数据在时间维聚类为k个具有相同数字特征的子类S0,S1,S2,…,Sk,遍历完成的数据集有 S0+S1+S2+…+Sk=n×Sσ,k≤n。具体如下例。
例4,接例3。
划分时间片:确定最小窗宽Sσ=52,在时间维将训练数据离散为16个Slices;
训练时间片Slice0:将Slice0内的原始数据x0作为训练集,如例4所述对生成器G0和鉴别器 D0进行训练,当Wasserstein距离后完成对Slice0数据的训练,保存训练好的生成 器G0和鉴别器D0;同时有S0=x0,将x0预聚类为第一类。
预训练Slicei鉴别器:对Slicei,使用当前时间片的原始数据xi对鉴别器Di进行预训练,使 用公式(5)计算鉴别器预训练的损失函数,预训练的目的是提高鉴别器对xi的辨别能力,使 得辨别结果更加鲁棒。为保证鉴别器预训练的效果,可对预训练执行若干个epoch,直至 std[preLoss(Di)]<ρpre,本例ρpre=0.2。
时间片迭代:对Slicei,有Slicei-1中的数据已聚类在子类Sj中。使用第Sj对应的生成器Gj生 成一组新数据将和当前时间片的原始数据xi分别输入到经过预训练的鉴别器Di-1,计 算鉴别损失和D(xi)并根据公式(4)计算Wasserstein距离若Slicei对应的 则判定Slicei数据与Slicei-1数据的数字特征不同,不能聚为一类,将xi聚为新子 类即Sj+1=xi;同时,应使用Slicei的数据重新训练生成器Gi和鉴别器Di。反之则判定Slicei的数据 与Slicei-1的数据的数字特征相同,可以聚为一类,合并Slicei-1与Slicei的原始数据xi-1和xi,即 不重新训练生成器和鉴别器。本例数据的分析及聚类结果如表2和图5所示。
表2不同子类的数据量和数字特征
步骤五:时序数据增广
经过遍历的时序数据,已经按照其数字特征进行了聚类,同时在遍历过程中也分别训练 完成了各子类数据对应的生成器网络模型。将噪声数据输入Sj对应的生成器Gj能够生成与该 时间片数据数字特征一致的新数据,即可按需完成对时序数据的增广。
例5,接例4。均值为0标准差为1的高斯噪声z~n(μ,σ),μ=0,σ=1分别代入经过聚类的 S0至S8对应的生成器模型G0至G8可以生成与该子类对应的原时序数据具有相同数字特征的人 工数据。对每一个子类,其原始数据与生成数据具有一致的分布,如图6所示(仅展示S0、S3、 S6对应的数据)。使用G0至G8可以生成与原一维时序数据数字特征相同的人工一维时序数据, 如图7所示,人工数据与原始数据在保持数字特征相同的同时,在具体数值上不完全一致,不 存在过拟合现象,具有较强的泛化能力,成功对原始样本进行了增广。
Claims (6)
1.基于WGAN的一维时序数据增广方法,其特征在于:它包含以下步骤:
第一步:准备训练数据集:原始一维时序数据的采样频率应满足要求,不小于10Hz即单位时间的采样次数不少于10次,并删除异常数据。
第二步:构建生成对抗网络WGAN:构建由生成器和鉴别器两个神经网络组成的生成对抗网络,并使用Wasserstein距离计算其损失函数。
第三步:训练构建的网络模型:循环训练鉴别器网络和生成器网络,使用Adam随机梯度下降法对网络参数进行优化,对鉴别器的优化方向是使得生成数据与原始数据x的Wasserstein距离增大而对生成器的优化方向则是使得Wasserstein距离减小,通过博弈最终使得鉴别器和生成器达到纳什均衡状态。
第四步:遍历完成的时序数据,分析数据的数字特征并聚类:首先确定最小窗宽将原始时序数据划分为若干时间片(Slices),对第一个时间片(Slice0)执行生成器和鉴别器的训练,在此基础上遍历全部时间片,使用WGAN学习时序数据的特征并聚类特征相同的时间片。
第五步:时序数据增广:使用完成聚类的时序数据每个子类对应的WGAN生成器生成与该子类原始数据特征相同的人工样本。
2.根据权利要求1所述的一种基于WGAN的一维时序数据增广方法,其特征在于:在第一步中所述的“准备训练数据集”中,要求原始数据的采样频率能够满足要求,具体为:
一般情况下采样频率应不小于10Hz,即单位时间的采样次数不少于10次。对变化较为剧烈的时序数据应酌情增大其采样频率,而对变化较为平缓的时序数据可酌情降低其采样频率。
5.根据权利要求1所述的一种基于WGAN的一维时序数据增广方法,其特征在于:在第四步中所述的“遍历完整的时序数据,分析数据的数字特征并聚类”中对时序数据集的便利方法,具体为:
6.根据权利要求1所述的一种基于WGAN的一维时序数据增广方法,其特征在于:在第五步中所述的“时序数据增广”中,使用经过聚类的Sj对应的生成器Gj能够生成与该子类原始数据数字特征一致的新数据,即可按需对时序数据进行增广。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110896042.8A CN113627594B (zh) | 2021-08-05 | 2021-08-05 | 基于wgan的一维时序数据增广方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110896042.8A CN113627594B (zh) | 2021-08-05 | 2021-08-05 | 基于wgan的一维时序数据增广方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113627594A true CN113627594A (zh) | 2021-11-09 |
CN113627594B CN113627594B (zh) | 2023-09-19 |
Family
ID=78382865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110896042.8A Active CN113627594B (zh) | 2021-08-05 | 2021-08-05 | 基于wgan的一维时序数据增广方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113627594B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117741070A (zh) * | 2024-02-21 | 2024-03-22 | 山东多瑞电子科技有限公司 | 基于深度学习的气体安全智能检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763857A (zh) * | 2018-05-29 | 2018-11-06 | 浙江工业大学 | 一种基于相似度生成对抗网络的过程软测量建模方法 |
US20200372297A1 (en) * | 2019-05-23 | 2020-11-26 | Robert Bosch Gmbh | Method for training a generative adversarial network (gan), generative adversarial network, computer program, machine-readable memory medium, and device |
CN113050640A (zh) * | 2021-03-18 | 2021-06-29 | 北京航空航天大学 | 一种基于生成对抗网络的工业机器人路径规划方法和系统 |
-
2021
- 2021-08-05 CN CN202110896042.8A patent/CN113627594B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108763857A (zh) * | 2018-05-29 | 2018-11-06 | 浙江工业大学 | 一种基于相似度生成对抗网络的过程软测量建模方法 |
US20200372297A1 (en) * | 2019-05-23 | 2020-11-26 | Robert Bosch Gmbh | Method for training a generative adversarial network (gan), generative adversarial network, computer program, machine-readable memory medium, and device |
CN113050640A (zh) * | 2021-03-18 | 2021-06-29 | 北京航空航天大学 | 一种基于生成对抗网络的工业机器人路径规划方法和系统 |
Non-Patent Citations (2)
Title |
---|
肖儿良;周莹;简献忠;: "迁移学习与GAN结合的医学图像融合模型", 小型微型计算机系统, no. 09 * |
花强;刘轶功;张峰;董春茹;: "基于Wasserstein距离的双向学习推理", 河北大学学报(自然科学版), no. 03 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117741070A (zh) * | 2024-02-21 | 2024-03-22 | 山东多瑞电子科技有限公司 | 基于深度学习的气体安全智能检测方法 |
CN117741070B (zh) * | 2024-02-21 | 2024-05-03 | 山东多瑞电子科技有限公司 | 基于深度学习的气体安全智能检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113627594B (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109993270B (zh) | 基于灰狼群优化lstm网络的锂离子电池剩余寿命预测方法 | |
CN109492822B (zh) | 空气污染物浓度时空域关联预测方法 | |
Stoyanov et al. | Empirical risk minimization of graphical model parameters given approximate inference, decoding, and model structure | |
CN110427654B (zh) | 一种基于敏感状态的滑坡预测模型构建方法及系统 | |
CN109407654B (zh) | 一种基于稀疏深度神经网络的工业数据非线性因果分析方法 | |
Fan et al. | A novel machine learning method based approach for Li-ion battery prognostic and health management | |
CN107992976B (zh) | 热点话题早期发展趋势预测系统及预测方法 | |
CN112434848B (zh) | 基于深度信念网络的非线性加权组合风电功率预测方法 | |
CN112001113B (zh) | 一种基于粒子群优化长短时记忆网络的电池寿命预测方法 | |
CN112734002B (zh) | 一种基于数据层和模型层联合迁移学习的寿命预测方法 | |
CN114325450A (zh) | 基于CNN-BiLSTM-AT混合模型的锂离子电池健康状态预测方法 | |
CN111079926B (zh) | 基于深度学习的具有自适应学习率的设备故障诊断方法 | |
CN113010504B (zh) | 基于LSTM和改进K-means算法的电力数据异常检测方法及系统 | |
CN114547974A (zh) | 基于输入变量选择与lstm神经网络的动态软测量建模方法 | |
CN111695607A (zh) | 基于lstm增强模型的电子设备故障预测方法 | |
CN108985455A (zh) | 一种计算机应用神经网络预测方法及系统 | |
CN115051929A (zh) | 基于自监督目标感知神经网络的网络故障预测方法及装置 | |
Xue et al. | Data-driven prognostics method for turbofan engine degradation using hybrid deep neural network | |
CN113627594A (zh) | 基于wgan的一维时序数据增广方法 | |
CN115098999A (zh) | 一种多模态融合的燃料电池系统性能衰减预测方法 | |
CN114578234A (zh) | 一种考虑因果性特征的锂离子电池退化与容量预测模型 | |
CN109409434A (zh) | 基于随机森林的肝脏疾病数据分类规则提取的方法 | |
CN113203953A (zh) | 基于改进型极限学习机的锂电池剩余使用寿命预测方法 | |
CN112541530A (zh) | 针对聚类模型的数据预处理方法及装置 | |
CN115794805A (zh) | 一种中低压配网量测数据补齐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |