CN111695276B - 基于生成对抗学习的有限元模型代理建模方法 - Google Patents
基于生成对抗学习的有限元模型代理建模方法 Download PDFInfo
- Publication number
- CN111695276B CN111695276B CN202010394515.XA CN202010394515A CN111695276B CN 111695276 B CN111695276 B CN 111695276B CN 202010394515 A CN202010394515 A CN 202010394515A CN 111695276 B CN111695276 B CN 111695276B
- Authority
- CN
- China
- Prior art keywords
- finite element
- model
- matrix
- generator
- element model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 239000011159 matrix material Substances 0.000 claims abstract description 37
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims abstract description 8
- 230000006870 function Effects 0.000 claims abstract description 6
- 238000006243 chemical reaction Methods 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 23
- 239000013598 vector Substances 0.000 claims description 14
- 238000004458 analytical method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 claims description 2
- 239000007787 solid Substances 0.000 claims 1
- 238000012937 correction Methods 0.000 abstract description 2
- 230000003042 antagnostic effect Effects 0.000 abstract 1
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000005457 optimization Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 238000010205 computational analysis Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/23—Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗学习的有限元模型代理建模方法,具体步骤为:1)建立待分析结构的初始有限元模型;2)采用空间采样方法生成试验样本集,据此进行编码转换,转换成灰度图;3)采用试验样本训练判别器,提升判别器辨别输入图像真假的能力;4)利用试验样本训练生成器,增强生成器生成的灰度图的精度;5)重复步骤3、4直至生成器和判别器网络的损失函数收敛;6)对生成器输出的灰度图解码,转换为结构模态参数矩阵。本发明以结构特征参数与模态参数作为模型的输入与输出,建立深度人工神经网络的作为代理模型,采用双‑阶段生成对抗学习的方法,然后训练得到高精度的有限元代理模型,从而大幅度加快了有限元模型的修正速度。
Description
技术领域
本发明涉及一种基于生成对抗学习的有限元模型代理建模方法,可用于代替结构有限元模型,实现结构模态参数的低成本计算与有限元模型特征参数的快速优化。
技术背景
有限元计算是工程结构设计中重要的分析手段,但随着工程问题的复杂程度和设计人员对计算精度要求的不断提高,有限元模型计算越来越复杂、耗时,计算代价成本增长。另一方面,在对既有结构进行有限元模型分析时,模型参数与实际结构之间往往存在难以避免的差异,导致计算精度下降。因此,为降低有限元模型与实际结构之间的差异通常需要进行模型参数修正,而一般优化方法难以应对大型有限元模型优化中高维度、多目标的复杂情况,导致计算代价难以接受。
代理模型是处理复杂结构有限元分析中计算代价难题的有效方法。依据一定数量的试验样本,以黑盒子的形式建立起模型输入与输出间的映射关系,从而实现对结构作用效应的快速计算。目前常见的代理模型有Kriging模型、SVM模型、径向基函数模型与多项式回归模型等。Kriging模型在处理非线性问题时可以获得较好的计算效果;但该模型容易陷入局部最优问题,需要引入一个全局优化步骤来求解全局最优值,实际应用中难以构造和使用。SVM模型通过结构风险最小化原理来提高其全局性,在应对小样本、非线性与高维度问题时具有很好的优势;但SVM模型内部的核函数与惩罚因子需要人为挑选,对设计者的经验依赖程度较高,缺乏明确的理论与方法来合理的确定这些参数。径向基函数模型属于线性叠加模型,能够在计算效率与非线性近似精度间获得较好的平衡,但该模型在体系更新与精度评价上都还存在一定问题。多项式回归模型是一种基于最小二乘法的多项式拟合方法,该模型构造简单,目标明确;然而,在处理非线性问题时多项式回归模型难以获得理想的效果,且随着计算维度的增多,样本量也需要大幅增多。现有的模型都各有优点与不足,在应对不同的工程问题时其计算效果往往会表现出较大的不同,因此,代理模型的研究还需要不断推进。
生成对抗网络是近几年兴起一种深度学习方法,通过生成器与判别器两个网络间的相互博弈,依靠少量带标记训练样本便可以实现对复杂分布问题的半监督学习,从而生成足以以假乱真的图像。生成对抗网络为机器学习领域注入了新鲜血液,在众多行业得到了应用。将生成对抗网络引入代理模型,依靠生成对抗学习方法构建有限元模型输入输出的映射关系,利用生成对抗网络精度高、运算快的优点实现精准高效的有限元模型代理计算,对推进代理模型的研究进展与提高复杂结构的计算分析效率具有重要的现实意义。
发明内容
为了克服现有技术中的不足,提出了一种基于生成对抗学习的有限元模型代理建模方法,用于代替有限元模型进行结构模态参数计算。
为实现上述目的,本发明的技术方案如下:一种基于生成对抗学习的有限元模型代理建模方法,包括以下步骤:
第一步:建立待分析结构的初始有限元模型。依据待分析结构的几何尺寸、特征参数等建立初始的有限元分析模型,作为采集网络训练样本的试验模型;
第二步:采用空间采样方法生成试验样本集,据此进行编码转换,转换成灰度图。以影响结构作用效应的主要参数为变量,将各变量组成输入特征参数向量;根据拉丁立方采样原则在参数可能的变化区间采样,生成结构模态参数计算样本,形成模态参数矩阵,并将模态参数矩阵通过转换器转换为二值灰度图像用于网络训练;
第三步:采用试验样本训练判别器,提升判别器辨别输入图像真假的能力;
第四步:利用试验样本训练生成器,增强生成器生成的灰度图的精度;
第五步:重复第三步、第四步直至生成器和判别器网络的损失函数收敛;
第六步:对生成器输出的灰度图解码,转换为结构模态参数矩阵。利用解码器对生成对抗网络输出的灰度图解码,实现依靠生成对抗学习模型对结构模态参数的计算。
进一步的,所述转换器将结构模态参数矩阵编码为二进制数值矩阵,并进一步变换为包含模态参数信息的二值灰度图。
进一步的,所述的输入参数向量为结构主要构建的密度、弹性模量、转动惯量;所述模态参数矩阵为结构振型向量与各振型对应的频率组成的矩阵。
进一步的,所述的解码器将模型生成的二值灰度图转回二进制数值矩阵,并进一步将二进制数值矩阵解码回模态参数矩阵。
本发明的有益效果是:
(1)基于生成对抗学习建立了结构有限元计算代理模型,利用生成对抗网络依靠少量标识样本学习便可处理高维度的复杂分布问题的优点,实现对结构模态参数高效、精准的计算;
(1)将模态参数矩阵转换生成二值灰度图,利用生成对抗网络优异的图像仿真性能,实现对多目标参数的同步学习优化;
(2)本发明将对抗生成网络引入了有限元模型代理计算中,能够实现快速、低耗的结构模态参数计算,在结构优化设计与模型参数修正领域具有良好的应用前景。
附图说明
图1是基于生成对抗学习的有限元模型代理建模方法流程图;
图2是基于生成对抗学习的代理模型工作示意图;
图3是编码器与解码器工作流程示意图;
图4是编码原理示意图。
具体实施方式
以下结合附图对本发明的技术方案作进一步的详细说明。
如图1和图2所示,本发明主要包括以下步骤:
第一步:建立初始有限元模型。依据待分析结构的初始几何尺寸、特征参数等建立有限元分析模型,作为网络训练样本试验模型。
第二步:采集网络训练样本并对样本编码转换为灰度图。选取出对结构作用效应影响较大的参数作为试验变量,如构件材料的密度(D)、弹性模量(E)与转动惯量(I)等,并用各变量组成输入特征参数向量x;根据拉丁立方采样等空间采样方法在参数可能的变化区间采样,生成结构模态参数计算样本,形成模态参数矩阵,并将模态参数矩阵通过转换器转换为二值灰度图像m。在获取了足够的试验样本之后,便建立起了试验样本库{(xi,mi)}。
第三步:以试验样本训练判别器,判别输入图像的真假。判别器的本质是一个二分类器,针对分别来源于真实样本库Pr与生成样本库Pg的融合样本,判别器的训练目标是尽量给Pr高分,Pg低分,即其训练目标可表示为:
上式中D、G分别表示判别器与生成器。在训练判别器时,固定生成器,更新判别器参数。
第四步:利用试验样本训练生成器,生成器输出灰度图。在训练生成器时固定判别器,更新生成器参数。生成器在训练过程中不断进化生成更加接近真实样本的图像,减小生成图像与真实图像之间的差异。生成器训练的目标函数可表示为:
第五步:重复第三、第四步直至生成器与判别器收敛,确定网络结构参数。生成器与判别器交替训练,生成其与判别器间相互博弈不断进化,直至网络参数的全局最优。
第六步:通过输入结构特征参数向量,经生成对抗网络输出灰度图,然后将灰度图转换为结构模态参数矩阵,实现基于生成对抗学习的有限元模型代理建模计算。
如图3所示,编码器工作流程是首先将各模态参数进行整合,形成模态参数矩阵。在该矩阵中,第一行各元素分别表示各阶振动频率,其余各行按列分布表示各阶模态对应振型向量。图3中,m与n分别表示结构自由度与模态阶数。确定模态参数矩阵后,将各参数转换二进制数,并按照一定的规则重新编码,形成仅有0、1的二进制数值矩阵,然后利用二进制数值矩阵生成二值灰度图。当编码器逆向工作时便是解码器,实现灰度图向模态参数矩阵的反向转换。二值灰度图是一种特别的灰度图,其像素值仅由0和1组成。利用这一特点关联生成图像与模态特征参数矩阵,从而充分利用生成对抗网络优异的图像处理能力并避免模态参数矩阵内各参数尺度差异过大导致矩阵病态,难以拟合。
编码器的编码原理如图4所示,首先将十进制数转换为二进制数,然后用一各拥有20位元素的向量表示该二进制数。以一个大小为5.25的十进制数为例,其二进制表达为110.01,在二进制编码向量中,编码器用第一位元素表示该数的正负,0为负,1为正;用第二到第五位表示该数的小数位数,如有两位小数,则表示为0010,即十进制的2等于二进制的0010;用后15位表示该数的大小,去掉小数点由后往前填充,位数不够时补充为0,如110.01表示为000000000011001。则5.25经过编码在该二进制编码向量中表示为10010000000000011001。整合模态参数矩阵中所有的元素的编码向量,则形成了二进制数值矩阵。编码过程中,如十进制的数转换为二进制数后,其小数位数与数值大小位数分别超过了4位与15位,则按照尽量保证整数位完整,减去小数位的原则对二进制数取舍。同理,根据上述原则反向运算,便可实现对二值灰度图的解码。此外,通过在二进制编码向量设置不同数量的小数位元素与数值大小元素可以调节编码表达的精度,对应位置的元素位越多编码精度越高,从而适应不同的数值精度要求。
需要说明的是上述实施例仅仅是本发明的较佳实施例,并没有用来限定本发明的保护范围,在上述技术方案的技术上做出的等同替换或者替代均属于本发明的保护范围。
Claims (4)
1.基于生成对抗学习的有限元模型代理建模方法,其特征在于,所述方法包括以下步骤:
第一步:建立待分析结构的初始有限元模型,依据待分析结构的几何尺寸、特征参数在ANSYS等有限元分析平台建立初始的有限元分析模型,作为采集网络训练样本的试验模型;建模过程中,可根据实际情况建立实体模型或梁单元模型,从而适应不同结构的复杂程度与计算精度要求;
第二步:采用空间采样方法生成试验样本集,据此进行编码转换,转换成灰度图,以影响结构作用效应的主要参数为变量,以各变量组成输入特征参数向量;根据拉丁立方采样原则在参数可能的变化区间采样,生成结构模态参数计算样本,形成模态参数矩阵,并将模态参数矩阵通过转换器转换为二值灰度图像用于网络训练;
第三步:采用试验样本训练判别器,提升判别器辨别输入图像真假的能力;
第四步:利用试验样本训练生成器,增强生成器生成的灰度图的精度;
第五步:重复第三步、第四步直至生成器和判别器网络的损失函数收敛;
第六步:对生成器输出的灰度图解码,转换为结构模态参数矩阵,利用解码器对生成对抗网络输出的灰度图解码,依靠生成对抗学习模型对结构模态参数的计算。
2.根据权利要求1所述的基于生成对抗学习的有限元模型代理建模方法,其特征在于,第二步中,转换器将结构模态参数矩阵编码为二进制数值矩阵,并进一步变换为包含模态参数信息的二值灰度图。
3.权利要求1所述的基于生成对抗学习的有限元模型代理建模方法,其特征在于第二步中,输出特征参数向量为结构主要构建的密度、弹性模量、转动惯量;所述模态参数矩阵为结构振型向量与各振型对应的频率组成的矩阵。
4.权利要求1所述的基于生成对抗学习的有限元模型代理建模方法,其特征在于第六步中,解码器将模型生成的二值灰度图转回二进制数值矩阵,进一步将二进制数值矩阵解码回模态参数矩阵。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010394515.XA CN111695276B (zh) | 2020-05-11 | 2020-05-11 | 基于生成对抗学习的有限元模型代理建模方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010394515.XA CN111695276B (zh) | 2020-05-11 | 2020-05-11 | 基于生成对抗学习的有限元模型代理建模方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111695276A CN111695276A (zh) | 2020-09-22 |
CN111695276B true CN111695276B (zh) | 2022-11-15 |
Family
ID=72477580
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010394515.XA Active CN111695276B (zh) | 2020-05-11 | 2020-05-11 | 基于生成对抗学习的有限元模型代理建模方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111695276B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785542B (zh) * | 2021-02-07 | 2022-09-09 | 中国人民解放军国防科技大学 | 遥感影像转换网络地图方法、装置、计算机设备和介质 |
CN113516368A (zh) * | 2021-06-11 | 2021-10-19 | 北京大学 | 城市和社区不确定性风险的预测方法、装置、设备及介质 |
CN117973458A (zh) * | 2024-02-23 | 2024-05-03 | 北京航空航天大学 | 一种试验数据的非线性编辑方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334497A (zh) * | 2018-02-06 | 2018-07-27 | 北京航空航天大学 | 自动生成文本的方法和装置 |
CN110097103A (zh) * | 2019-04-22 | 2019-08-06 | 西安电子科技大学 | 基于生成对抗网络的半监督图像分类方法 |
CN110309861B (zh) * | 2019-06-10 | 2021-05-25 | 浙江大学 | 一种基于生成对抗网络的多模态人类活动识别方法 |
-
2020
- 2020-05-11 CN CN202010394515.XA patent/CN111695276B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111695276A (zh) | 2020-09-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695276B (zh) | 基于生成对抗学习的有限元模型代理建模方法 | |
Bethge et al. | Back to simplicity: How to train accurate bnns from scratch? | |
CN106897254A (zh) | 一种网络表示学习方法 | |
CN115311515A (zh) | 混合量子经典的生成对抗网络的训练方法及相关设备 | |
CN109190759A (zh) | 一种基于{-1,+1}编码的神经网络模型压缩与加速方法 | |
Chen et al. | Training full spike neural networks via auxiliary accumulation pathway | |
Chang et al. | Molecular Computing | |
CN116861250A (zh) | 一种故障诊断模型训练方法及装置 | |
CN113489620A (zh) | 一种基于transformer模型的网络协议识别方法 | |
CN116600119A (zh) | 视频编码、解码方法、装置、计算机设备和存储介质 | |
Simon et al. | Exact neural networks from inexact multipliers via fibonacci weight encoding | |
Murillo et al. | The effects of numerical precision in scientific applications | |
CN114254108A (zh) | 一种中文文本对抗样本生成的方法、系统及介质 | |
CN114118267A (zh) | 基于半监督生成对抗网络的文物感知数据缺失值插补方法 | |
CN117640144A (zh) | 基于图神经网络的高效跨架构物联网固件漏洞挖掘方法 | |
Chen et al. | A DNN optimization framework with unlabeled data for efficient and accurate reconfigurable hardware inference | |
CN105512249A (zh) | 一种基于紧凑进化算法的本体匹配方法 | |
Lu et al. | Understanding neural network binarization with forward and backward proximal quantizers | |
Kiyama et al. | Deep learning framework with arbitrary numerical precision | |
CN108256649A (zh) | 一种基于MaxSAT最优解的联盟结构形成方法 | |
CN110674335B (zh) | 一种基于多生成多对抗的哈希码与图像双向转换方法 | |
Tang et al. | OneSpike: Ultra-low latency spiking neural networks | |
CN118916714B (zh) | 一种基于图神经网络的代码相似性检测方法、设备及介质 | |
CN111563184A (zh) | 一种基于深度学习的视频哈希检索表征转换方法 | |
CN118153684B (zh) | 基于知识驱动的大模型情绪溯源及传播路径分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |