CN117350160A - 一种基于深度学习的单层网壳构件替换最优顺序确定方法 - Google Patents

一种基于深度学习的单层网壳构件替换最优顺序确定方法 Download PDF

Info

Publication number
CN117350160A
CN117350160A CN202311354678.5A CN202311354678A CN117350160A CN 117350160 A CN117350160 A CN 117350160A CN 202311354678 A CN202311354678 A CN 202311354678A CN 117350160 A CN117350160 A CN 117350160A
Authority
CN
China
Prior art keywords
layer
component
replacement
replaced
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311354678.5A
Other languages
English (en)
Other versions
CN117350160B (zh
Inventor
伞冰冰
任高科
俞凯翰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hohai University HHU
Original Assignee
Hohai University HHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hohai University HHU filed Critical Hohai University HHU
Priority to CN202311354678.5A priority Critical patent/CN117350160B/zh
Publication of CN117350160A publication Critical patent/CN117350160A/zh
Application granted granted Critical
Publication of CN117350160B publication Critical patent/CN117350160B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/23Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0499Feedforward networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2119/00Details relating to the type or aim of the analysis or the optimisation
    • G06F2119/02Reliability analysis or reliability optimisation; Failure analysis, e.g. worst case scenario performance, failure mode and effects analysis [FMEA]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于深度学习的单层网壳构件替换最优顺序确定方法。该方法首先通过搭建深度前馈神经网络模型,生成单层网壳预替换构件的特征参数与对应的构件重要性系数之间的非线性关系;再基于重要构件后替换的原则,对深度前馈神经网络输出的构件重要性系数由小到大排序,得出构件最优替换顺序。本发明基于深度学习强大的数值分析能力和拟合能力,计算速度快,计算结果精度高。

Description

一种基于深度学习的单层网壳构件替换最优顺序确定方法
技术领域
本发明涉及一种基于深度学习的单层网壳构件替换最优顺序确定方法。
背景技术
单层网壳结构作为一种空间杆系结构,因为其外形优美、结构形式丰富、质轻用材省等一系列优点,有广阔的发展前景。但是由于单层网壳结构冗余度低,对缺陷敏感度高,单根或多跟构件失效容易导致结构发生连续倒塌。已有结构连续倒塌研究按照构件拆除后剩余结构的应变能大小来判别构件重要性,即剩余结构应变能越大,结构在构件拆除之后越危险,构件的重要性越大。因此对单层网壳的腐蚀构件进行替换时,要制定合理的替换顺序,避免结构的重要构件拆除后,剩余结构因构件腐蚀导致网壳刚度及承载能力低于正常水平而发生连续倒塌。可以根据剩余结构应变能计算构件重要性系数,按照构件重要性系数由小到大的顺序对腐蚀构件进行替换,避免结构因单根构件拆除发生连续倒塌。
深度学习能通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布形式表示,因此可基于构件重要性系数由小到大的原则开发网壳结构构件替换最优顺序生成模型,形成安全可靠的构件替换最优顺序程序模块,保证网壳结构的替换构件过程中的抗连续倒塌能力。
发明内容
针对上述技术问题,本发明提出一种基于深度学习的网壳结构构件替换最优顺序确定方法。该方法基于多层神经网络的深度学习,分析预替换构件的特征参数与构件重要性系数的映射关系。搭建适用于拟合构件重要性系数与预替换构件特征参数之间的非线性关系的深度学习网络模型,对深度学习神经网络输出的预替换构件的构件重要性系数由小到大排序,得到构件最优替换顺序。
为了达成上述目的,本发明的解决方案是:
一种基于深度学习的单层网壳构件替换最优顺序确定方法,具体方法步骤如下:
步骤1,确定预替换构件的特征参数;
步骤2,建立深度前馈神经网络模型的数据集;
步骤3,搭建适用于生成预替换构件和对应的构件重要性系数的非线性关系的深度前馈神经网络模型;
步骤4,训练深度前馈神经网络模型;
步骤5,利用训练完成的深度前馈神经网络模型,获得预替换构件对应的构件重要性系数,根据构件重要性系数由小到大的顺序对预替换构件进行排序,得到预替换构件的最优替换顺序。
进一步地,所述步骤1中预替换构件的特征参数包括构件两端点坐标、构件长度、截面、构件类型以及与周围构件的连接方式。
进一步地,所述步骤2中深度前馈网络的数据集包括输入特征和标签数据,以预替换构件的特征参数作为输入特征,以预替换构件所对应的构件重要性系数为标签数据。
进一步地,所述步骤3中构件重要性系数通过对分别移除预替换构件后的剩余结构进行外荷载作用下的有限元分析后计算得到,具体做法为:在ANSYS有限元分析软件中,分别移除单根预替换构件,采用静力非线性方法分析剩余结构的应变能,并把剩余结构的应变能代入如下公式计算得出预替换构件对应的构件重要性系数:
式中,N为预替换构件总数;Yn为构件n的重要性系数;En为使用ANSYS分析出的构件n移除后剩余结构在外荷载作用下的应变能;Emax为E1,E2,E3…EN中的最大值;Emin为E1,E2,E3…EN中的最小值。
进一步地,所述步骤3具体为:
(3-1)设计单个神经元,神经元的活性值为:
其中,x1,x2…xD为神经元的输入,即预替换构件的特征参数,D为预替换构件的特征参数个数,w1,w2…wD为x1,x2…xD对应的权重,b是偏置,f(·)为激活函数;
(3-2)基于(3-1)中的神经元,设计包括输入层、隐藏层和输出层的深度前馈神经网络模型,所述深度前馈神经网络模型通过以下公式进行传播:
A(l)=fl(W(l)·A(l-1)+B(l))
其中,l=1,2…,L,L表示深度前馈神经网络的层数,A(l)表示第l层神经元的活性值向量,fl(·)表示第l层神经元的激活函数,m(l)表示第l层神经元的个数;W(l)表示第l-1层到第l层的权重矩阵,B(l)表示第l-1层到第l层的偏置向量;
(3-3)定义损失函数为平方损失函数
其中,y表示预替换构件的特征参数对应的构件重要性系数真实值,表示预替换构件的特征参数对应的构件重要性系数预测值。
进一步地,使用TensorFlow框架对深度前馈神经网络进行建模。
进一步地,所述步骤4采用反向误差算法对深度前馈神经网络模型进行训练,具体步骤如下:
第一步,前馈计算每一层神经元的净输入和活性值,直到最后一层;
第二步,反向传播计算每一层的误差项:
其中,δ(l)表示第l层的误差项,δ(l+1)表示第l+1层的误差项,fl ()表示对fl(·)求导,W(l+1)表示第l层到第l+1层的权重矩阵,⊙表示向量的点积运算;Z(l)表示第l层神经元的净输入向量;
第三步,通过以下公式更新权重矩阵和偏置为:
W(l)←W(l)-α(δ(l)(A(l-1))T+λW(l))
B(l)←B(l)-αδ(l)
其中,α为学习率,λ为正则化系数,A(l-1)表示第l-1层神经元的活性值向量;直到深度前馈神经网络模型满足预设收敛条件时,完成训练。
进一步地,第l层神经元的净输入为:
Z(l)=W(l)·fll-1(Z(l-1))+B(l)
其中,fl-1(·)表示第l-1层神经元的激活函数,Z(l-1)表示第l-层神经元的净输入向量。
进一步地,所述激活函数选用ReLU函数。
本发明还提供一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行如上所述的方法。
本发明还提供一种基于深度学习的单层网壳构件替换最优顺序确定设备,包括一个或多个处理器、一个或多个存储器以及一个或多个程序,其中一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行如上所述方法的指令。。
本发明与现有技术相比,其显著特点在于:
1.使用深度学习方法拟合构件重要性系数与预替换构件特征参数之间的非线性关系,考虑到的设计变量相对于有限元分析软件更多,得到的结果更准确;
2.网壳结构杆件数目众多,逐根分析构件的重要性工作量大,耗时较长,而深度学习具有强大的数值分析能力和自我学习能力,分析速度快;
3.现有技术分析单层网壳结构连续倒塌构件重要性时多采用通过理论分析和工程经验所得到的公式,计算结果相对保守,深度学习能够准确地拟合构件重要性系数,进而准确判别构件重要程度。
附图说明
图1为基于深度学习的单层网壳构件替换最优顺序确定方法流程图。
具体实施方法
下面结合具体实施方式对本发明做进一步的详细说明。
本发明针对单层网壳结构构件替换最优顺序确定的问题,如图1所示,提出了一种基于深度学习的单层网壳构件替换最优顺序确定方法。使用深度学习网络模型预测构件重要性系数,进而确定构件替换顺序,具有准确和快速的特点。
步骤1,确定预替换构件的特征参数。
预替换构件的特征参数主要有杆件长度、截面、类型、杆件两端点坐标及该构件与周围杆件的连接关系。
步骤2,建立深度神经网络的数据集,包括输入特征和标签数据。将上述预替换构件的特征参数作为深度学习的输入特征,将预替换构件所对应的构件重要性系数作为标签数据。
所述构件重要性系数通过对剩余结构进行外荷载作用下的有限元分析后计算得到,具体做法为:在ANSYS有限元分析软件中,分别移除单层网壳的单根构件,采用静力非线性方法分析剩余结构的应变能,并把剩余结构应变能代入如下公式计算得出构件重要性系数:
式中,N为预替换构件总数;Yn为构件n的重要性系数;En为使用ANSYS分析出的构件n移除后剩余结构在外荷载作用下的应变能;Emax为E1,E2,E3…EN中的最大值;Emin为E1,E2,E3…EN中的最小值。由此可知,构件重要性系数Yn的取值在0~1之间,Yn取值愈大,结构构件相对愈重要。
建立深度神经网络的数据集后,将数据集80%的数据作为训练集,训练深度学习网络模型,20%的数据作为测试集,检测搭建的深度学习网络模型的准确性。
步骤3,使用深度前馈神经网络搭建适用于生成单层网壳结构构件替换最优顺序确定方法的深度神经网络模型。深度前馈神经网络有很强的拟合能力,通过非线性函数的多次复合,实现从输入空间到输出空间的复杂映射,结构简单,易于实现。
(3-1)设计单个神经元
作为构成神经网络的基本单元,神经元的作用是接受一组输入信号并产生输出。假设一个神经元接受D个输入x1,x2…xD,令向量X=[x1,x2…xD]来表示这组输入,并用净输入表示一个神经元所获得的输入信号X的加权和:
其中是D维的权重向量,/>是偏置。
净输入z在经过一个非线性的激活函数f(·)后,得到神经元的活性值a,a=f(z)。
为了增强网络表示能力和学习能力,激活函数需要是:连续并可导的非线性函数;激活函数及其导函数要尽可能简单;激活函数的值域要在一个合适的区间内。
目前深层神经网络中经常使用的激活函数是ReLU函数,定义为:
ReLU为左饱和函数,且在x>0时导数为1,能在一定程度上缓解神经网络的梯度消失问题,加速梯度下降的收敛速度。ReLU函数有很好的稀疏性,大约50%的神经元会处于激活状态。
(3-2)神经网络的架构
由神经元组成的神经网络,最左边为输入层,其中的神经元称为输入神经元;最右边是输出层,包含输出神经元。由于中间层既不是输入也不是输出,因此称为隐藏层。前馈神经网络中,信息总是向前传播,从不反向回馈。前馈神经网络可以看作一个函数,通过简单非线性函数的多次复合,实现从预替换构件特征参数到构件重要性系数的复杂映射。
用以下的记号来描述一个前馈神经网络:
L:表示神经网络的层数;
m(l):表示第l层神经元的个数;
fl(·):表示第l层神经元的激活函数;
W(l):表示第l-1层到第l层的m(l)×m(l-1)维的权重矩阵;
B(l):表示第l-1层到第l层的偏置,是一个m(l)维的向量;
Z(l):表示第l层神经元的净输入(净活性值),是一个m(l)维的向量;
A(l):表示第l层神经元的输出(活性值),是一个m(l)维的向量。
前馈神经网络通过下面公式进行信息传播,
Z(l)=W(l)·A(l-1)+B(l)
A(l)=fl(Z(l))。
这两个公式可合并写为:
Z(l)=W(l)·fl-1(Z(l-1))+B(l)
或者
A(l)=fl(W(l)·A(l-1)+B(l))。
这样,前馈神经网络可以通过逐层的信息传递,得到网络最后的输入A(L)。整个网络可以看作一个复合函数φ(X;W,B),将向量X作为第一层的输入A(0),将第L层的输出A(L)作为整个函数的输出。
X=A(0)→Z(1)→A(1)→Z(2)→…→A(L-1)→Z(L)→A(L)=φ(X;W,B)
其中,W,B表示网络中所有层的连接权重矩阵和偏置向量。
(3-3)定义损失函数
采用常用的平方损失函数,
其中,X表示预替换构件的特征参数构成的向量,Y表示预替换构件的特征参数X对应的构件重要性系数真实值,表示X对应的构件重要性系数预测值。
(3-4)深度前馈网络设计
本发明使用TensorFlow框架对深度神经网络进行建模。TensorFlow深度学习框架集成了大量机器学习的算法,特别在数据量重组且对自动化要求较高的应用场景中,具有良好的性能。
步骤4,使用反向传播算法对深度神经网络进行训练,可以高效地计算梯度。假设采用随机梯度下降进行神经网络参数学习,给定一个样本(X,Y),将其输入到神经网络模型中,得到网络输出为要进行参数学习就需要计算损失函数/>关于每个参数的导数。
不失一般性,对第l层中的参数W(l)和b(l)计算偏导数。因为的计算涉及向量对矩阵的微分,十分繁琐,因此先计算/>关于W(l)中每个元素的偏导数/>wij (l)是权重矩阵W(l)第i行第j列的元素,i=1,2,…,m(l),j=1,2,…,m(l-1)。根据链式法则,
以上两个公式中,是目标函数关于第k层的神经元Z(l)的偏导数,成为误差项,可以一次计算得到。这样只需要计算三个偏导数,分别为/>和/>
(4-1)计算偏导数因Z(l)=W(l)·A(l-1)+B(l),偏导数
其中Wi: (l)为权重矩阵W(l)的第i行,IIi(aj (l-1))表示为第i个元素为aj (l-1),其余为0的行向量,zi (l)为Z(l)的第i个元素,aj (l-1)为A(l-1)的第j个元素。
(4-2)计算偏导数因为Z(l)和b(l)的函数关系为Z(l)=W(l)·A(l-1)+B(l),因此偏导数
为m(l)×m(l)的单位矩阵。
(4-3)计算误差项用δ(l)来定义第l行神经元的误差项:
误差δ(l)来表示第l行神经元对最终损失的影响,也反映了最终损失对第l层神经元的敏感程度。误差项也简介反映了不同神经元对网络能力的贡献程度,从而比较好地解决了“贡献度分配问题”。
根据Z(l+1)=W(l+1)·A(l)+B(l+1),有
根据A(l)=fl(Z(l)),其中fl(·)为按位计算的函数,因此有
根据链式法则,第l层的误差项为
其中⊙是向量的点积运算符,表示每个元素相乘。可以看出,第l层的误差项可以通过第l+1层的误差项计算得到,这就是误差的反向传播。
(4-4)基于误差反向传播算法训练前馈神经网络。
基于误差反向传播算法的前馈神经网络训练过程分为以下三步:
第一步,前馈计算每一层的净输入Z(l)和活性值A(l),直到最后一层;
第二步,反向传播计算每一层的误差项δ(l)
第三步,计算每一层参数的偏导数,并基于随机梯度下降算法更新参数:
关于第l层权重W(l)的梯度为:
进一步地,
同理,关于第l层偏置b(l)的梯度为
更新参数:
W(l)←W(l)-α(δ(l)(A(l-1))T+λW(l))
B(l)←B(l)-αδ(l)
直到神经网络模型在验证集v上的错误率不再下降,输出W,B。
深度网络模型的一轮训练就是训练集数据在模型中被完整地传输一次,对模型的泛化能力测试和模型预测结果的准确性评估要用到测试集数据。
步骤5,根据深度学习模型拟合出的预替换构件的特征参数和对应的构件重要性系数之间的非线性关系,并按由小到大的顺序对构件重要性系数进行排序,得到预替换构件的最优替换顺序。
步骤6,在ANSYS有限元分析软件中,分别移除预替换构件,采用静力非线性方法分析剩余结构的应变能,并根据剩余结构应变能计算得出对应的构件重要性系数;按照计算得到的构件重要性系数进行排序,与步骤5得到的最优替换顺序对比验证:若基于深度学习网络模型得出的构件替换顺序与有限元分析的结果一致,则确定为最优顺序;若结果不一致,则增大步骤2中的数据集进行重新训练,直至神经网络模型在验证集上的错误率不再下降(这里需要说明的是,理论上需要确保基于深度学习网络模型得出的构件替换顺序与有限元分析的结果一致,但实际在验证集/>上进行验证时,反复地训练可能并不能保证所有验证集样本都能达到结果一致的情况,因此,在实际应用时可以设置预设神经网络模型的收敛条件为在验证集/>上的错误率不再下降,或者是针对错误率进一步设定满足实际需求的阈值,而这里的错误率指的是基于深度学习网络模型得出的构件替换顺序相较有限元分析的结果的错误数占预替换构件总数的百分比)。
本发明方案所公开的技术手段不仅限于上述技术手段所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。
基于相同的技术方案,本发明还提供一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当由计算设备执行时,使得所述计算设备执行如上所述的基于深度学习的单层网壳构建替换最优顺序确定方法。
基于相同的技术方案,本发明还提供一种基于深度学习的单层网壳构建替换最优顺序确定设备,包括一个或多个处理器、一个或多个存储器以及一个或多个程序,其中一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行如上所述基于深度学习的单层网壳构建替换最优顺序确定方法的指令。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的包含还未之内,因此,本发明的保护范围应该以权力要求书的保护范围为准。

Claims (10)

1.一种基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,具体方法步骤如下:
步骤1,确定预替换构件的特征参数;
步骤2,建立深度前馈神经网络模型的数据集;
步骤3,搭建适用于生成预替换构件和对应的构件重要性系数的非线性关系的深度前馈神经网络模型;
步骤4,训练深度前馈神经网络模型;
步骤5,利用训练完成的深度前馈神经网络模型,获得预替换构件对应的构件重要性系数,根据构件重要性系数由小到大的顺序对预替换构件进行排序,得到预替换构件的最优替换顺序。
2.如权利要求1所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,所述步骤1中预替换构件的特征参数包括构件两端点坐标、构件长度、截面、构件类型以及与周围构件的连接方式。
3.如权利要求1所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,所述步骤2中深度前馈网络的数据集包括输入特征和标签数据,以预替换构件的特征参数作为输入特征,以预替换构件所对应的构件重要性系数为标签数据。
4.如权利要求1所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,所述步骤3中构件重要性系数通过对分别移除预替换构件后的剩余结构进行外荷载作用下的有限元分析后计算得到,具体做法为:在ANSYS有限元分析软件中,分别移除单根预替换构件,采用静力非线性方法分析剩余结构的应变能,并把剩余结构的应变能代入如下公式计算得出预替换构件对应的构件重要性系数:
式中,N为预替换构件总数;Yn为构件n的重要性系数;En为使用ANSYS分析出的构件n移除后剩余结构在外荷载作用下的应变能;Emax为E1,E2,E3…EN中的最大值;Emin为E1,E2,E3…EN中的最小值。
5.如权利要求1所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,所述步骤3具体为:
(3-1)设计单个神经元,神经元的活性值为:
其中,x1,x2…xD为神经元的输入,即预替换构件的特征参数,D为预替换构件的特征参数个数,w1,w2…wD为x1,x2…xD对应的权重,b是偏置,f(·)为激活函数;
(3-2)基于(3-1)中的神经元,设计包括输入层、隐藏层和输出层的深度前馈神经网络模型,所述深度前馈神经网络模型通过以下公式进行传播:
A(l)=fl(W(l)·A(l-1)+B(l))
其中,l=1,2…,L,L表示深度前馈神经网络的层数,A(l)表示第l层神经元的活性值向量,fl(·)表示第l层神经元的激活函数,m(l)表示第l层神经元的个数;W(l)表示第l-1层到第l层的权重矩阵,B(l)表示第l-1层到第l层的偏置向量;
(3-3)定义损失函数为平方损失函数
其中,Y表示预替换构件的特征参数对应的构件重要性系数真实值,表示预替换构件的特征参数对应的构件重要性系数预测值。
6.如权利要求5所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,使用TensorFlow框架对深度前馈神经网络进行建模。
7.如权利要求5所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,所述步骤4采用反向误差算法对深度前馈神经网络模型进行训练,具体步骤如下:
第一步,前馈计算每一层神经元的净输入和活性值,直到最后一层;
第二步,反向传播计算每一层的误差项:
其中,δ(l)表示第l层的误差项,δ(l+1)表示第l+1层的误差项,fl′()表示对fl(·)求导,W(l+1)表示第l层到第l+1层的权重矩阵,⊙表示向量的点积运算;Z(l)表示第l层神经元的净输入向量;
第三步,通过以下公式更新权重矩阵和偏置为:
W(l)←W(l)-α(δ(l)(A(l-1))T+λW(l))
B(l)←B(l)-αδ(l)
其中,α为学习率,λ为正则化系数,A(l-1)表示第l-1层神经元的活性值向量;直到深度前馈神经网络模型满足预设收敛条件时,完成训练。
8.如权利要求7所述的基于深度学习的单层网壳构件替换最优顺序确定方法,其特征在于,第l层神经元的净输入为:
Z(l)=W(l)·fl-1(Z(l-1))+B(l)
其中,fl-1(·)表示第l-1层神经元的激活函数,Z(l-1)表示第l-1层神经元的净输入向量。
9.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,其特征在于,所述指令当由计算设备执行时,使得所述计算设备执行如权利要求1至8中任一所述的方法。
10.基于深度学习的单层网壳构件替换最优顺序确定设备,其特征在于,包括一个或多个处理器、一个或多个存储器以及一个或多个程序,其中一个或多个程序存储在所述一个或多个存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行如权利要求1至8中任一所述方法的指令。
CN202311354678.5A 2023-10-18 2023-10-18 一种基于深度学习的单层网壳构件替换最优顺序确定方法 Active CN117350160B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311354678.5A CN117350160B (zh) 2023-10-18 2023-10-18 一种基于深度学习的单层网壳构件替换最优顺序确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311354678.5A CN117350160B (zh) 2023-10-18 2023-10-18 一种基于深度学习的单层网壳构件替换最优顺序确定方法

Publications (2)

Publication Number Publication Date
CN117350160A true CN117350160A (zh) 2024-01-05
CN117350160B CN117350160B (zh) 2024-04-26

Family

ID=89362746

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311354678.5A Active CN117350160B (zh) 2023-10-18 2023-10-18 一种基于深度学习的单层网壳构件替换最优顺序确定方法

Country Status (1)

Country Link
CN (1) CN117350160B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003239388A (ja) * 2003-02-05 2003-08-27 Hanya Sadahiko 単層ラチスシェル構造物の補剛部材配置設計方法
CN116738853A (zh) * 2023-06-25 2023-09-12 重庆大学 一种平面框架结构构件重要性系数评估方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003239388A (ja) * 2003-02-05 2003-08-27 Hanya Sadahiko 単層ラチスシェル構造物の補剛部材配置設計方法
CN116738853A (zh) * 2023-06-25 2023-09-12 重庆大学 一种平面框架结构构件重要性系数评估方法及系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
LI-MIN TIAN 等: "Method for evaluating the progressive collapse resistance of long-span single-layer spatial grid structures", ADVANCED STEEL CONSTRUCTION, 31 March 2019 (2019-03-31) *
伞冰冰 等: "高温下不锈钢工字形截面构件局部稳定性能研究", 湖南大学学报(自然科学版), 3 April 2023 (2023-04-03) *
栗云松 等: "基于应变能的网壳结构构件重要性分类方法", 华南理工大学学报(自然科学版), no. 05, 15 May 2020 (2020-05-15) *
高扬: "结构鲁棒性定量计算中的构件重要性系数", 中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑, 15 July 2010 (2010-07-15) *

Also Published As

Publication number Publication date
CN117350160B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
Giannakoglou et al. Aerodynamic shape design using evolutionary algorithms and new gradient-assisted metamodels
US9785886B1 (en) Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation
CN108647839A (zh) 基于代价敏感lstm循环神经网络的稳压器水位预测方法
CN110321603A (zh) 一种用于航空发动机气路故障诊断的深度计算模型
Do Koo et al. Nuclear reactor vessel water level prediction during severe accidents using deep neural networks
US11574093B2 (en) Neural reparameterization for optimization of physical designs
KR20170127430A (ko) 센서 오차를 검출, 분류 및/또는 완화하는 방법 및 시스템
CN111784061B (zh) 一种电网工程造价预测模型的训练方法、装置和设备
Mai et al. A robust physics-informed neural network approach for predicting structural instability
Kumar Remaining useful life prediction of aircraft engines using hybrid model based on artificial intelligence techniques
CN117250914A (zh) 制造过程捕获的测量数据训练机器学习模型的方法和系统
CN116595878A (zh) 基于改进神经网络模型的碳足迹预测方法、系统及介质
Lemaire et al. Synaptic activity and hardware footprint of spiking neural networks in digital neuromorphic systems
CN116822920A (zh) 一种基于循环神经网络的流程预测方法
CN114897277A (zh) 一种基于lstm的突发型滑坡位移预测方法
Li et al. Label free uncertainty quantification
Zobeiry et al. Theory-guided machine learning composites processing modelling for manufacturability assessment in preliminary design
CN111832693A (zh) 神经网络层运算、模型训练方法、装置及设备
Ramasamy et al. Application of artificial neural network for software reliability growth modeling with testing effort
CN118094977A (zh) 一种新能源汽车的翼子板结构强度评价方法及系统
CN117350160B (zh) 一种基于深度学习的单层网壳构件替换最优顺序确定方法
Kayim et al. Time series forecasting with volatility activation function
KR102031983B1 (ko) 복수의 lstm을 이용한 시계열적 자세 예측 장치
CN116992935A (zh) 基于改进随机配置算法的神经网络模型训练方法及系统
CN116484904A (zh) 一种基于人工智能深度学习的监管数据处理实现方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant