CN117290721A - 数字孪生建模方法、装置、设备及介质 - Google Patents
数字孪生建模方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN117290721A CN117290721A CN202311062763.4A CN202311062763A CN117290721A CN 117290721 A CN117290721 A CN 117290721A CN 202311062763 A CN202311062763 A CN 202311062763A CN 117290721 A CN117290721 A CN 117290721A
- Authority
- CN
- China
- Prior art keywords
- digital twin
- generator
- network
- data
- twin modeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000012549 training Methods 0.000 claims abstract description 50
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 24
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 238000003860 storage Methods 0.000 claims abstract description 15
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000004519 manufacturing process Methods 0.000 claims abstract description 11
- 238000009826 distribution Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 13
- 230000004913 activation Effects 0.000 description 6
- 238000011176 pooling Methods 0.000 description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 230000008485 antagonism Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
- G06F18/21322—Rendering the within-class scatter matrix non-singular
- G06F18/21326—Rendering the within-class scatter matrix non-singular involving optimisations, e.g. using regularisation techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种数字孪生建模方法,涉及数字化建模技术领域,用于解决现有数字孪生建模效果不够好的问题,该方法包括以下步骤:接收物理系统在实际生产过程中的原始数据;构建生成对抗网络模型,所述生成对抗网络模型的主干网络为深度卷积神经网络CNN;通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。本发明还公开了一种数字孪生建模装置、电子设备和计算机存储介质。本发明通过生成对抗网络结合CNN及梯度优化,进而得到高准确度的数字孪生建模。
Description
技术领域
本发明涉及一种数字化建模技术领域,尤其涉及一种基于生成对抗网络的数字孪生建模方法、装置、设备及介质。
背景技术
数字孪生指的是以数字化方式创建物理实体的虚拟实体,其借助历史数据、实时数据以及算法模型等,进行模拟、验证、预测、控制物理实体全生命周期的过程。数字孪生在工程设计、产品优化、决策支持等领域应用广泛。目前传统的数字孪生建模存在一些问题。其中之一是数据获取的困难性和高成本。因为实际系统的数据通常是受限的,并且还会受到保密性或隐私问题的限制。另一个问题是建模的准确性和真实性。对于复杂的系统,精确地描述其行为和特点也是一大难点。
针对上述问题,现有技术开始利用生成式AI模型生成合成数据进行数字孪生建模。其中,生成对抗网络是一种由生成器和判别器组成的对抗性模型,通过不断的对抗训练,生成器和判别器相互竞争和迭代,最终生成器能够生成效果更好的样本。但是现有技术生成对抗网络的生成器和判别器网络会存在不稳定性,导致生成的数据质量不高。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种数字孪生建模方法,其通过生成对抗网络,结合梯度优化及CNN,进而完成数字孪生建模。
本发明的目的之一采用以下技术方案实现:
一种数字孪生建模方法,包括以下步骤:
接收物理系统在实际生产过程中的原始数据;
构建生成对抗网络模型,所述生成对抗网络模型的主干网络为CNN;
通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
进一步地,所述原始数据包括系统的关键特征及工作状态信息。
进一步地,接收物理系统在实际生产过程中的原始数据,还包括对所述原始数据进行归一化预处理,所述归一化处理满足:
其中,mean(X)和std(X)分别表示原始数据集X的均值和标准差。
进一步地,所述生成对抗网络模型的生成器网络中包括跳跃连接,生成器网络的输入为随机噪声向量,所述生成器网络的训练目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(x)和pz(z)分别为数据分布和噪声分布。
进一步地,所述生成对抗网络模型包括通过梯度正则化技术进行计算的判别器,所述判别器包括卷积层、池化层及全连接层中的一个或多个额外层,其目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(x)和pz(z)分别为数据分布和噪声分布。
进一步地,交替更新判别器和生成器对所述生成对抗网络进行训练,包括:
通过SGD算法更新网络参数,并优化生成器及判别器,所述生成器G的参数更新规则满足:
其中,θG表示生成器G的参数;θ′G表示更新后的参数;m表示小批量样本的大小,z(i)表示第i个样本的随机噪声向量,αG表示学习率;
所述判别器D的参数更新满足:
其中,θD表示判别器D的参数,θ′D表示更新后的参数,x(i)表示第i个样本的真实数据样本,θG表示生成器G的参数,θ′G表示更新后的参数,m表示小批量样本的大小,z(i)表示第i个样本的随机噪声向量,αD表示学习率;
通过梯度正则化进行参数更新,所述生成器的更新满足:
其中,λ为正则化参数;
所述判别器的更新满足:
持续训练直至达到预设训练迭代次数或预设损失收敛。
进一步地,所述评估的指标为MSE及SSIM指标。
本发明的目的之二在于提供一种数字孪生建模装置,以生成对抗网络为核心,将深度卷积神经网络作为生成器的主干网络,进而得到高准确性的数字孪生建模。
本发明的目的之二采用以下技术方案实现:
一种数字孪生建模装置,其包括:
接收模块,用于接收物理系统在实际生产过程中的原始数据;
模型训练模块,用于构建生成对抗网络模型,所述生成对抗网络模型的主干网络为CNN;通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
评估模块,用于对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
本发明的目的之三在于提供执行发明目的之一的电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,所述计算机程序被处理器执行时实现上述的数字孪生建模方法。
本发明的目的之四在于提供存储发明目的之一的计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的数字孪生建模方法。
相比现有技术,本发明的有益效果在于:
本发明结合生成对抗网络以支持复杂系统的数字孪生建模,同时结合深度卷积网络CNN来提高生成对抗网络的判别的能力,增强其对真实和合成数据的区分能力,增强了数据质量,
本发明还增加了梯度优化算法来稳定和改进生成对抗网络的训练过程,使得最终得到的数字孪生建模更加精准和稳定。
附图说明
图1是实施例一数字孪生建模方法的流程图;
图2是实施例二数字孪生建模装置的结构框图;
图3是实施例三的电子设备的结构框图。
具体实施方式
以下将结合附图,对本发明进行更为详细的描述,需要说明的是,以下参照附图对本发明进行的描述仅是示意性的,而非限制性的。各个不同实施例之间可以进行相互组合,以构成未在以下描述中示出的其他实施例。
实施例一
实施例一提供了一种数字孪生建模方法,旨在通过对优化后的生成对抗网络进行训练,进而得到数字孪生建模,通过这种方式,能够通过生成对抗网络生成大量逼真数据来支持复杂系统的数字孪生建模。
生成对抗网络(Generative Adversarial Networks,GAN)是用于无监督学习的机器学习模型,由Ian Goodfellow等人在2014年提出。由神经网络构成判别器和生成器构成,通过一种互相竞争的机制组成的一种学习框架。
请参照图1所示,一种数字孪生建模方法,包括以下步骤:
S1、接收物理系统在实际生产过程中的原始数据;
为了保证模型的准确性,上述的原始数据应包括系统的关键特征及工作状态信息,以用于验证数字孪生模型。
为了进一步保证数据的质量和可靠性,本实施例还包括对所述原始数据进行归一化预处理,所述归一化处理满足:
其中,mean(X)和std(X)分别表示原始数据集X的均值和标准差。
S2、构建生成对抗网络模型,所述生成对抗网络模型的主干网络为深度卷积神经网络CNN;
本实施例对传统的标准的生成对抗网络生成器进行架构改进,使用CNN作为生成器的主干网络,并在生成器网络中引入跳跃连接。生成器网络以随机噪声向量作为输入,通过将随机噪声向量映射到合成数据空间来生成样本。生成器网络的训练目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(x)和pz(z)分别为数据分布和噪声分布。
本实施例中生成对抗网络的判别器通过梯度正则化技术进行优化,例如Dropout、L2正则化等方法都可用于判别器的优化,本实施例不对此加以限定,此外,判别器还引入了额外的层,包括卷积层、池化层及全连接层中的一个或多个额外层,正则化方法和额外层的构建可以根据实际需求进行选取。判别器的训练目标是最大化正确分类真实和合成数据样本的概率,其目标函数可以定义为:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(x)和pz(z)分别为数据分布和噪声分布。
需要说明的是,上述增加了CNN主要用于特征提取和表示学习:CNN在生成器和判别器中用于提取输入数据的特征。生成器将随机噪声转换为逼真的数据样本,而判别器则对真实和生成数据进行分类。通过在CNN中堆叠卷积层、池化层和激活函数等操作,从原始数据中提取出高级、有意义的特征,使得生成器能够生成更真实的样本,而判别器则能够更准确地区分真实和生成的数据。进一步,CNN通过多层堆叠的卷积和反卷积层来捕捉局部和全局特征,从而生成具有逼真的数据集。
此外,在生成对抗网络中,通常会使用一些损失函数来指导生成器生成逼真的样本。其中,最常用的是对抗损失,用于衡量生成器和判别器之间的对抗性性能。CNN在生成器和判别器中用于计算这些损失函数,来指导训练过程。
再次,模式崩溃和模式塌陷是GAN训练中常见的问题,即生成器可能只生成有限的几种样式或重复的样本。CNN可以帮助减少这些问题的发生。通过引入卷积和反卷积层之间的残差连接、生成器和判别器之间的注意力机制等技术,CNN可以帮助生成器更好地捕捉数据分布的多样性,避免模式崩溃和模式塌陷的情况。
以下对上述梯度正则化引入前后的区别进行说明:
1.生成器:
未引入梯度正则化前:生成器的训练过程中,梯度可能会变得不稳定,出现梯度爆炸或梯度消失的问题。这可能导致生成器难以学习到有效的生成样本的梯度信息,从而影响生成样本的质量和多样性。
引入梯度正则化后:梯度正则化通过对生成器的梯度进行约束,使其范数受到一定限制,从而提高了梯度的稳定性。这可以帮助生成器更好地学习到数据分布的梯度信息,使其能够生成更真实、多样的样本。
2.判别器:
未引入梯度正则化前:判别器在训练过程中也可能遭受梯度不稳定的问题,特别是当生成样本与真实样本之间出现显著差异时。梯度不稳定可能导致判别器无法有效地学习区分生成样本和真实样本的能力。
引入梯度正则化后:梯度正则化同样可以对判别器的梯度进行约束,增加其稳定性,从而提高其对生成样本和真实样本的区分能力。这有助于使判别器更加准确地将生成样本与真实样本分类开来,促进生成器和判别器之间的对抗性,进一步提高GAN的性能。
梯度正则化在生成器和判别器中起到的作用主要是增强其梯度的稳定性,解决梯度消失和梯度爆炸的问题。具体来说,梯度正则化通过对梯度的约束,限制梯度的范数或梯度的分布,避免梯度过大或过小,有助于使模型的参数更新更加平滑和可控。这样可以提高训练过程的稳定性,避免训练过程中出现不稳定的振荡现象,并促进模型更好地学习数据分布,提高生成样本的质量和多样性。
S3、通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
本实施例对于S3中的训练过程也进行了优化,采用SGD算法更新网络参数,并使用Adam优化器分别优化生成器和判别器,并为每个网络设置不同的学习率,网络的隐层数量、激活函数、学习率的选取可以根据实际需求进行设定吧,本实施例不对此加以限定。
需要说明的是,生成器和判别器中的隐层数量可以根据问题的复杂性和数据集的特征来选择。较浅的网络可能对简单的数据分布足够有效,而较深的网络可以更好地捕捉复杂的数据分布,计算时间也较长。过度的深度可能导致训练困难,梯度消失或梯度爆炸等问题。因此,在选择隐层数量时需要考虑网络的训练稳定性。
生成器和判别器的激活函数的选择通常使用ReLU作为默认激活函数,因为它们能够有效处理梯度问题和帮助网络学习非线性关系。对于生成器的输出层,可以根据生成样本的特性选择适当的激活函数。例如,输出范围被限制在[0,1]之间时,可以使用Sigmoid激活函数。
学习率决定了每次参数更新的步长大小。过大的学习率可能导致训练不稳定,而过小的学习率可能导致训练过程缓慢。通常建议从一个较小的学习率开始,并根据训练的进展进行调整。可以尝试使用学习率调度策略,如逐渐降低学习率或动态调整学习率,以更好地引导训练过程。
此外,SGD被用于更新生成器和判别器的参数,以使生成器生成更逼真的样本,同时判别器更好地区分真实样本和生成样本。
在每个训练步骤中,SGD根据一小批次的样本计算损失函数关于网络参数的梯度,并根据梯度方向更新参数。这样的梯度更新迭代过程将逐渐优化生成器和判别器,使它们能够更好地对抗彼此。在SGD中,优化的重点是最小化损失函数,以提高GAN的整体性能。
在GAN中,Adam算法常用于训练生成器和判别器的参数。它通过计算梯度的一阶矩估计(平均梯度)和二阶矩估计(梯度的方差),自适应地调整每个参数的学习率。Adam算法的主要优势在于能够自适应地调整学习率,并且具有较好的收敛性能。它可以加快训练过程,并具有在不同任务和数据集上良好的通用性。
生成器G的参数更新规则满足:
其中,θG表示生成器G的参数;θ′G表示更新后的参数;m表示小批量样本的大小,z(i)表示第i个样本的随机噪声向量,αG表示学习率;
所述判别器D的参数更新满足:
其中,θD表示判别器D的参数,θ′D表示更新后的参数,x(i)表示第i个样本的真实数据样本,θG表示生成器G的参数,θ′G表示更新后的参数,m表示小批量样本的大小,z(i)表示第i个样本的随机噪声向量,αD表示学习率;
通过梯度正则化进行参数更新,梯度正则化技术可以稳定和改进训练过程,在参数更新中引入了一个附加的惩罚项,实现对生成器和判别器的梯度约束;所述生成器的更新满足:
其中,λ为正则化参数;
所述判别器的更新满足:
持续训练直至达到预设训练迭代次数或预设损失收敛。
S4、对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
S4采用多个评估指标将生成的合成数据与目标系统的真实数据进行比较,评估生成器和判别器网络的性能,上述评估的指标本实施例选择为MSE及SSIM指标。当MSE、SSIM和都满足实际系统对应的工程需求后,输出生成数据。
具体地,MSE计算满足:
其中,xi是目标系统的真实数据;;G(zi)是生成器生成的合成数据;N是样本数量。
SSIM计算满足:
其中,μx和μy分别是真实数据xi和生成数据G(zi)的均值;σx和σy分别是其标准差;σxy是其协方差;C1和C2是常数。
本方法结合生成对抗网络生成大量逼真的合成数据来支持复杂系统的数字孪生建模,同时在建立生成器网络和判别器网络时通过正则化技术来提高判别器网络的能力,以增强其对真实和合成数据的区分能力,最终实现更加精准的数字孪生建模。保证数字孪生建模准确性的前提下,降低对数据量的需求。
实施例二
实施例二公开了一种对应上述实施例的数字孪生建模方法对应的装置,为上述实施例的虚拟装置结构,请参照图2所示,包括:
接收模块210,用于接收物理系统在实际生产过程中的原始数据;
模型训练模块220,用于构建生成对抗网络模型,所述生成对抗网络模型的主干网络为CNN;通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
评估模块230,用于对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
优选地,接收物理系统在实际生产过程中的原始数据,还包括对所述原始数据进行归一化预处理,所述归一化处理满足:
其中,mean(X)和std(X)分别表示原始数据集X的均值和标准差。
优选地,所述生成对抗网络模型的生成器网络中包括跳跃连接,生成器网络的输入为随机噪声向量,所述生成器网络的训练目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(x)和pz(z)分别为数据分布和噪声分布。
优选地,所述生成对抗网络模型包括通过正则化技术进行计算的判别器,所述判别器包括卷积层、池化层及全连接层中的一个或多个额外层,其目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(c)和pz(z)分别为数据分布和噪声分布。
实施例三
图3为本发明实施例三提供的一种电子设备的结构示意图,如图3所示,该电子设备包括处理器310、存储器320、输入装置330和输出装置340;计算机设备中处理器310的数量可以是一个或多个,图3中以一个处理器310为例;电子设备中的处理器310、存储器320、输入装置330和输出装置340可以通过总线或其他方式连接,图3中以通过总线连接为例。
存储器320作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块。处理器310通过运行存储在存储器320中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现上述实施例一的数字孪生建模方法。
存储器320可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器320可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器320可进一步包括相对于处理器310远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置330可用于接收输入的用户身份信息、原始数据等。输出装置340可包括显示屏等显示设备。
实施例四
本发明实施例四还提供一种包含计算机可执行指令的存储介质,该存储介质可用于计算机执行数字孪生建模方法,该方法包括:
接收物理系统在实际生产过程中的原始数据;
构建生成对抗网络模型,所述生成对抗网络模型的主干网络为深度卷积神经网络CNN;
通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的基于数字孪生建模方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台电子设备(可以是手机,个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述基于数字孪生建模方法装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。
Claims (10)
1.一种数字孪生建模方法,其特征在于,包括以下步骤:
接收物理系统在实际生产过程中的原始数据;
构建生成对抗网络模型,所述生成对抗网络模型的主干网络为深度卷积神经网络CNN;
通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
2.如权利要求1所述的数字孪生建模方法,其特征在于,所述原始数据包括系统的关键特征及工作状态信息。
3.如权利要求1或2所述的数字孪生建模方法,其特征在于,接收物理系统在实际生产过程中的原始数据,还包括对所述原始数据进行归一化预处理,所述归一化处理满足:
其中,mean(X)和std(X)分别表示原始数据集X的均值和标准差。
4.如权利要求1所述的数字孪生建模方法,其特征在于,所述生成对抗网络模型的生成器网络中包括跳跃连接,生成器网络的输入为随机噪声向量,所述生成器网络的训练目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(c)和pz(z)分别为数据分布和噪声分布。
5.如权利要求1或4所述的数字孪生建模方法,其特征在于,所述生成对抗网络模型包括通过梯度正则化技术进行计算的判别器,所述判别器包括卷积层、池化层及全连接层中的一个或多个额外层,其目标函数满足:
其中,G为生成器网络;D为判别器网络;x为真实数据样本;z为随机噪声向量;pdata(x)和pz(z)分别为数据分布和噪声分布。
6.如权利要求1所述的数字孪生建模方法,其特征在于,交替更新判别器和生成器对所述生成对抗网络进行训练,包括:
通过SGD算法更新网络参数,并优化生成器及判别器,所述生成器G的参数更新规则满足:
其中,θG表示生成器G的参数;θ′G表示更新后的参数;m表示小批量样本的大小,z(i)表示第i个样本的随机噪声向量,αG表示学习率;
所述判别器D的参数更新满足:
其中,θD表示判别器D的参数,θ′D表示更新后的参数,x(i)表示第i个样本的真实数据样本,θG表示生成器G的参数,θ′G表示更新后的参数,m表示小批量样本的大小,z(i)表示第i个样本的随机噪声向量,αD表示学习率;
通过梯度正则化进行参数更新,所述生成器的更新满足:
其中,λ为正则化参数;
所述判别器的更新满足:
持续训练直至达到预设训练迭代次数或预设损失收敛。
7.如权利要求1所述的数字孪生建模方法,其特征在于,所述评估的指标为MSE及SSIM指标。
8.一种数字孪生建模装置,其特征在于,其包括:
接收模块,用于接收物理系统在实际生产过程中的原始数据;
模型训练模块,用于构建生成对抗网络模型,所述生成对抗网络模型的主干网络为CNN;通过基于梯度的优化算法,根据所述原始数据,交替更新判别器和生成器对所述生成对抗网络进行训练;
评估模块,用于对训练好的所述生成对抗网络模型进行评估,直至满足工程要求,停止训练,得到数字孪生建模。
9.一种电子设备,其包括处理器、存储介质以及计算机程序,所述计算机程序存储于存储介质中,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的数字孪生建模方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述的数字孪生建模方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311062763.4A CN117290721A (zh) | 2023-08-22 | 2023-08-22 | 数字孪生建模方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311062763.4A CN117290721A (zh) | 2023-08-22 | 2023-08-22 | 数字孪生建模方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117290721A true CN117290721A (zh) | 2023-12-26 |
Family
ID=89256133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311062763.4A Pending CN117290721A (zh) | 2023-08-22 | 2023-08-22 | 数字孪生建模方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117290721A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474567A (zh) * | 2023-12-27 | 2024-01-30 | 北京中认环宇信息安全技术有限公司 | 基于生成式模型和移动协同签名的碳足迹分析方法及系统 |
CN117574161A (zh) * | 2024-01-17 | 2024-02-20 | 航天宏图信息技术股份有限公司 | 基于生成对抗网络的地表参量估算方法、装置及设备 |
-
2023
- 2023-08-22 CN CN202311062763.4A patent/CN117290721A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117474567A (zh) * | 2023-12-27 | 2024-01-30 | 北京中认环宇信息安全技术有限公司 | 基于生成式模型和移动协同签名的碳足迹分析方法及系统 |
CN117474567B (zh) * | 2023-12-27 | 2024-04-02 | 北京中认环宇信息安全技术有限公司 | 基于生成式模型和移动协同签名的碳足迹分析方法及系统 |
CN117574161A (zh) * | 2024-01-17 | 2024-02-20 | 航天宏图信息技术股份有限公司 | 基于生成对抗网络的地表参量估算方法、装置及设备 |
CN117574161B (zh) * | 2024-01-17 | 2024-04-16 | 航天宏图信息技术股份有限公司 | 基于生成对抗网络的地表参量估算方法、装置及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112181666B (zh) | 一种基于边缘智能的设备评估和联邦学习重要性聚合方法 | |
CN117290721A (zh) | 数字孪生建模方法、装置、设备及介质 | |
CN111353582B (zh) | 一种基于粒子群算法的分布式深度学习参数更新方法 | |
CN106096727A (zh) | 一种基于机器学习的网络模型构造方法及装置 | |
CN110109358B (zh) | 一种基于反馈的混合多智能体协同控制方法 | |
CN101968853A (zh) | 基于改进的免疫算法优化支持向量机参数的表情识别方法 | |
CN111737743A (zh) | 一种深度学习差分隐私保护方法 | |
CN102902772A (zh) | 一种基于多目标优化的Web社区发现方法 | |
CN114585006B (zh) | 基于深度学习的边缘计算任务卸载和资源分配方法 | |
CN115688913A (zh) | 一种云边端协同个性化联邦学习方法、系统、设备及介质 | |
CN112990420A (zh) | 一种用于卷积神经网络模型的剪枝方法 | |
CN107578101B (zh) | 一种数据流负载预测方法 | |
CN113255873A (zh) | 一种聚类天牛群优化方法、系统、计算机设备和存储介质 | |
CN113722980A (zh) | 海洋浪高预测方法、系统、计算机设备、存储介质、终端 | |
CN115272774A (zh) | 基于改进自适应差分进化算法的对抗样本攻击方法及系统 | |
CN111832817A (zh) | 基于mcp罚函数的小世界回声状态网络时间序列预测方法 | |
CN108427773B (zh) | 一种分布式知识图谱嵌入方法 | |
CN115496133A (zh) | 基于自适应在线学习的密度数据流聚类方法 | |
CN115690476A (zh) | 一种基于改进和声搜索算法的数据自动聚类方法 | |
CN116010832A (zh) | 联邦聚类方法、装置、中心服务器、系统和电子设备 | |
CN115695429A (zh) | 面向Non-IID场景的联邦学习客户端选择方法 | |
CN111209674B (zh) | 一种河道砂建模方法、设备及可读存储介质 | |
CN113743012A (zh) | 一种多用户场景下的云-边缘协同模式任务卸载优化方法 | |
CN113094973A (zh) | 一种基于多目标优化算法的民机需求优选方法 | |
CN111984842A (zh) | 银行客户数据处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |