CN114912578A - 结构响应预测模型的训练方法、装置和计算机设备 - Google Patents
结构响应预测模型的训练方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN114912578A CN114912578A CN202210444155.9A CN202210444155A CN114912578A CN 114912578 A CN114912578 A CN 114912578A CN 202210444155 A CN202210444155 A CN 202210444155A CN 114912578 A CN114912578 A CN 114912578A
- Authority
- CN
- China
- Prior art keywords
- data
- sequence
- network
- response
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种结构响应预测模型的训练方法、装置、计算机设备、存储介质和计算机程序产品。方法包括:获取样本结构数据集;确定样本外部激励数据对应的外部激励序列、样本响应数据对应的样本响应序列,并根据样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量;将静态特征向量和外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将定长背景序列和样本响应序列输入动态特征网络中的解码器,得到预测结构响应;根据样本响应数据和预测结构响应,对动态特征网络和预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。这样,可以提高预测的准确性。
Description
技术领域
本申请涉及土木工程技术领域,特别是涉及一种结构响应预测模型的训练方法、装置和计算机设备。
背景技术
随着土木工程的发展,出现了工程结构的分析计算方法,这个分析计算方法适用于土木工程全周期的始终,分析计算得到的结构响应给工程师或者施工人员提供反馈与指导。
传统的分析计算方法通过构造结构响应预测模型,该结构相应预测模型可根据结构自身属性或者外部激励,确定结构响应,从而可以预测已知结构在给定的激励下的响应。
然而,目前的结构响应预测模型,在建模阶段的训练样本数据的类型单一,且模型结构简单,导致训练后的结构响应预测模型的预测准确性低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够根据结构属性数据和外部激励数据预测结构响应的结构响应预测模型的训练方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种结构响应预测模型的训练方法。所述方法包括:
获取样本结构数据集;所述样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与所述样本结构属性数据和所述样本外部激励数据对应的样本响应数据;
确定所述样本外部激励数据对应的外部激励序列、所述样本响应数据对应的样本响应序列,并根据所述样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量;
将所述静态特征向量和所述外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,得到预测结构响应;
根据所述样本响应数据和所述预测结构响应,对所述动态特征网络和所述预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。
在其中一个实施例中,所述将所述静态特征向量和所述外部激励序列,输入动态特征网络中的编码器,得到定长背景序列包括:
将所述静态特征向量和所述外部激励序列进行拼接,得到输入序列;
将所述输入序列输入所述动态特征网络中的编码器,并通过所述编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算所述输入序列对应的定长背景序列。
在其中一个实施例中,所述将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,得到预测结构响应包括:
将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,并通过所述解码器中的门控循环单元,计算与所述样本响应序列和所述定长背景序列对应的预测结构响应。
在其中一个实施例中,所述根据所述样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量包括:
在所述样本结构属性数据中,识别变长静态特征数据、以及初始定长静态特征数据,并对所述变长静态特征数据进行序列化,得到变长静态特征序列;
将所述变长静态特征序列输入预注意力深度与交叉网络中的预处理层,并通过所述预处理层中的多头注意力机制,计算所述变长静态特征序列对应的目标定长静态特征数据;
所述目标定长静态特征数据和所述初始定长静态特征数据在所述预处理层中进行拼接,输入所述预注意力深度与交叉网络中的深度与交叉网络层,得到静态特征向量。
在其中一个实施例中,所述根据所述样本响应数据和所述预测结构响应,对所述动态特征网络和所述预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型包括:
根据所述样本响应数据和所述预测结构响应,确定所述动态特征网络和所述预注意力深度与交叉网络的精度;
根据所述动态特征网络和所述预注意力深度与交叉网络的精度,采用梯度下降算法对所述动态特征网络和所述预注意力深度与交叉网络的参数进行更新;
根据验证数据集对所述动态特征网络和所述预注意力深度与交叉网络进行测试,所述验证数据集包括测试结构属性数据、测试外部激励数据、以及与所述测试结构属性数据和所述测试外部激励数据对应的测试响应数据;
根据测试结果对所述动态特征网络和所述预注意力深度与交叉网络的参数进行调整,以使调整后的动态特征网络、以及调整后的所述预注意力深度与交叉网络的精度达到预设精度条件,得到训练后的结构响应预测模型。
第二方面,本申请还提供了一种结构响应的预测方法。所述方法包括:
获取目标结构数据,所述目标结构数据包括结构属性数据和外部激励数据;
确定所述外部激励数据对应的目标外部激励序列,并根据所述目标外部激励序列、所述结构属性数据、以及训练后的结构响应预测模型,确定目标结构响应;
其中,所述训练后的结构响应预测模型通过第一方面所述的方法步骤确定。
在其中一个实施例中,所述根据所述目标外部激励序列、结构属性数据、以及所述训练后的结构响应预测模型,确定目标结构响应包括:
根据所述结构属性数据和训练后的结构响应预测模型中的预注意力深度与交叉网络,确定目标静态特征向量;
将所述目标静态特征向量和所述目标外部激励序列进行拼接,得到目标输入序列;
将所述目标输入序列输入所述训练后的结构响应预测模型中的动态特征网络中的编码器,并通过所述编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算所述目标输入序列对应的目标定长背景序列;
将所述目标定长背景序列输入所述训练后的结构响应预测模型中的动态特征网络中的解码器,并通过所述解码器中的门控循环单元,计算所述目标定长背景序列对应的目标结构响应。
第三方面,本申请还提供了一种结构响应预测模型的训练装置。所述装置包括:
获取模块,用于获取样本结构数据集;所述样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与所述样本结构属性数据和所述样本外部激励数据对应的样本响应数据;
确定模块,用于确定所述样本外部激励数据对应的外部激励序列、所述样本响应数据对应的样本响应序列,并根据所述样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量;
输入模块,用于将所述静态特征向量和所述外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,得到预测结构响应;
调整模块,用于根据所述样本响应数据和所述预测结构响应,对所述动态特征网络和所述预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。
在其中一个实施例中,所述输入模块,具体用于:
将所述静态特征向量和所述外部激励序列进行拼接,得到输入序列;
将所述输入序列输入所述动态特征网络中的编码器,并通过所述编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算所述输入序列对应的定长背景序列。
在其中一个实施例中,所述输入模块,具体用于:
将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,并通过所述解码器中的门控循环单元,计算与所述样本响应序列和所述定长背景序列对应的预测结构响应。
在其中一个实施例中,所述确定模块,具体用于:
在所述样本结构属性数据中,识别变长静态特征数据、以及初始定长静态特征数据,并对所述变长静态特征数据进行序列化,得到变长静态特征序列;
将所述变长静态特征序列输入预注意力深度与交叉网络中的预处理层,并通过所述预处理层中的多头注意力机制,计算所述变长静态特征序列对应的目标定长静态特征数据;
所述目标定长静态特征数据和所述初始定长静态特征数据在所述预处理层中进行拼接,输入所述预注意力深度与交叉网络中的深度与交叉网络层,得到静态特征向量。
在其中一个实施例中,所述调整模块,具体用于:
根据所述样本响应数据和所述预测结构响应,确定所述动态特征网络和所述预注意力深度与交叉网络的精度;
根据所述动态特征网络和所述预注意力深度与交叉网络的精度,采用梯度下降算法对所述动态特征网络和所述预注意力深度与交叉网络的参数进行更新;
根据验证数据集对所述动态特征网络和所述预注意力深度与交叉网络进行测试,所述验证数据集包括测试结构属性数据、测试外部激励数据、以及与所述测试结构属性数据和所述测试外部激励数据对应的测试响应数据;
根据测试结果对所述动态特征网络和所述预注意力深度与交叉网络的参数进行调整,以使调整后的动态特征网络、以及调整后的所述预注意力深度与交叉网络的精度达到预设精度条件,得到训练后的结构响应预测模型。
第四方面,本申请还提供了一种结构响应的预测装置。所述装置包括:
获取模块,用于获取目标结构数据,所述目标结构数据包括结构属性数据和外部激励数据;
确定模块,用于确定所述外部激励数据对应的目标外部激励序列,并根据所述目标外部激励序列、所述结构属性数据、以及训练后的结构响应预测模型,确定目标结构响应;
其中,所述训练后的结构响应预测模型通过第一方面所述的方法步骤确定。
在其中一个实施例中,所述确定模块,具体用于:
根据所述结构属性数据和训练后的结构响应预测模型中的预注意力深度与交叉网络,确定目标静态特征向量;
将所述目标静态特征向量和所述目标外部激励序列进行拼接,得到目标输入序列;
将所述目标输入序列输入所述训练后的结构响应预测模型中的动态特征网络中的编码器,并通过所述编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算所述目标输入序列对应的目标定长背景序列;
将所述目标定长背景序列输入所述训练后的结构响应预测模型中的动态特征网络中的解码器,并通过所述解码器中的门控循环单元,计算所述目标定长背景序列对应的目标结构响应。
第五方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以第一方面或者第二方面所述的步骤。
第六方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以第一方面或者第二方面所述的步骤。
第七方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以第一方面或者第二方面所述的步骤。
上述结构响应预测模型的训练方法、装置、计算机设备、存储介质和计算机程序产品,获取样本结构数据集;样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与样本结构属性数据和样本外部激励数据对应的样本响应数据;确定样本结构属性数据的静态特征数据,并根据静态特征数据和预注意力深度与交叉网络,确定静态特征向量;静态特征数据包括样本结构属性数据信息;根据静态特征向量和外部激励序列,输入动态特征网络中的编码器,得到定长背景序列;外部激励序列是包括外部激励数据信息;将定长背景序列和样本响应序列输入动态特征网络中的解码器,得到预测结构响应;样本响应序列是包括与样本结构属性数据和样本外部激励数据对应的样本响应数据信息;根据样本响应数据和预测结构响应,对动态特征网络和预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。通过上述方案,得到由预注意力深度与交叉网络和动态特征网络组成的复合型的结构响应预测模型,该结构响应预测模型可以实现同时处理结构的属性数据和外部激励数据,并根据上述两种数据去预测结构响应,而且该结构响应预测模型是由预注意力深度与交叉网络、以及动态特征网络组成,对输入数据有很好的筛选能力,所以基于该结构响应预测模型的结构响应的预测方法的准确性提高。
附图说明
图1为一个实施例中结构响应预测模型的训练方法的流程示意图;
图2为一个实施例中预注意力深度与交叉网络的结构示意图;
图3为一个实施例中动态特征网络的结构示意图;
图4为一个实施例中门控循环单元的流程示意图;
图5为一个实施例中确定静态特征向量方法的流程示意图;
图6为一个实施例中多头注意力机制的流程示意图;
图7为一个实施例中结构响应预测方法的流程示意图;
图8为一个实施例中计算目标结构响应方法的流程示意图;
图9为一个实施例中结构响应预测模型的训练装置的结构框图;
图10为一个实施例中结构响应的预测装置的结构框图;
图11为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种结构响应预测模型的训练方法,本实施例以该方法应用于终端进行举例说明,可以理解的是,该方法也可以应用于服务器,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。本实施例中,该方法包括以下步骤:
步骤102,获取样本结构数据集。
本申请实施例中,终端获取样本结构数据集。样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与样本结构属性数据和样本外部激励数据对应的样本响应数据。可选的,样本结构可以是钢板剪力墙结构,样本结构属性数据可以是某楼层内嵌钢板的宽度、某楼层内嵌钢板的厚度、某楼层内嵌钢板的极限应变值等等,样本外部激励数据可以是作用在结构上的荷载,对应的样本响应数据可以是该结构在荷载作用下发生的位移。其中,样本结构数据集中的数据都输入进带有数据类型字段的表中。可以理解,终端在识别数据时,可以根据数据库中的字段来确定数据类型。
步骤104,确定样本外部激励数据对应的外部激励序列、样本响应数据对应的样本响应序列,并根据样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量。
本申请实施例中,终端获取样本结构数据集中的样本外部激励数据和样本响应数据后,可以对该样本外部激励数据和该样本响应数据分别进行序列化处理,得到该样本外部激励数据对应的外部激励序列、以及该样本响应数据对应的样本响应序列。终端获取样本结构数据集中的样本结构属性数据,识别样本结构属性数据中的变长静态特征数据和初始定长静态特征数据,并对该变长静态特征数据进行序列化处理,得到变长静态特征序列。其中,结构属性数据包括变长静态特征数据和定长静态特征数据。工程结构中具有重复性的构成要素对应的结构属性数据是变长静态特征数据,构成部分中的构成要素不具有重复性的结构属性数据是定长静态特征数据。
终端将该变长静态特征序列和初始定长静态特征数据输入到预注意力深度与交叉网络,得到静态特征向量。预注意力深度与交叉网络的结构可以如图2示。其中,样本结构属性数据可以包括内嵌钢板的属性数据、开洞的属性数据、加劲肋的属性数据、框架柱的属性数据、以及框架上梁的属性数据。可以理解,由于样本结构属性数据在输入时带有对应数据类型的字段,终端可以根据对应数据类型的字段识别出初始定长静态特征数据、稀疏特征的数据、以及稠密特征的数据。类似的,针对其他数据,终端也可以根据对应数据类型的字段识别出来,这里就不在赘述。
参照图2,预注意力深度与交叉网络包括输入层、预处理层和深度与交叉网络层。预处理层包括嵌入层(Embedding)、归一化层和多头注意力机制、以及拼接层。深度与交叉网络层包括交叉网络部分、深度网络部分、拼接层和输出层。交叉网络部分包括多个用于进行特征交叉的交叉层;深度网络部分包括第一前馈神经网络(feedforward neuralnetwork,FFN);输出层包括第二前馈神经网络。
针对初始定长静态特征数据,终端通过预处理层识别初始定长静态特征数据是否包含具有稀疏特征的数据、以及稠密特征的数据。在初始定长静态特征数据包含具有稀疏特征的数据的情况下,终端将具有稀疏特征的数据输入至嵌入层,并将嵌入层的输出结果输入至拼接层。在初始定长静态特征数据包含具有稠密特征的数据的情况下,终端将具有稠密特征的数据直接输入至拼接层。
针对变长静态特征序列,终端通过预处理层识别变长静态特征序列是否包含具有稀疏特征的序列、以及稠密特征的序列。在变长静态特征序列包含具有稀疏特征的序列的情况下,终端将具有稀疏特征的序列输入至嵌入层,并将嵌入层的输出结果输入至多头注意力机制。在变长静态特征序列包含具有稠密特征的序列的情况下,终端将具有稠密特征的序列直接输入至多头注意力机制。终端还将该变长静态特征序列输入至归一化层,并将归一化层的输出结果输入至多头注意力机制。终端将多头注意力机制的输入在多头注意力机制中进行注意力运算,并将多头注意力机制的输出结果输入至拼接层。
其中,预处理层中的多头注意力机制的输出结果构成目标定长静态特征数据。结构特征数据(或序列)包括稀疏特征数据(或序列)和稠密特征数据(或序列)。不具有数值可比性与算术性的结构特征数据(或序列)是稀疏特征数据(或序列)。具有数值可比性与算术性的结构特征数据是稠密特征数据(或序列)。可选的,稀疏特征数据用于表示类别或者哑元特征。具体的,稀疏特征数据可以是钢板剪力墙结构的开洞形状。可选的,稠密特征数据可以是钢板剪力墙结构的开洞中心距该层内嵌钢板左下角点的水平方向距离。
终端通过拼接层,将输入至拼接层的各数据进行拼接处理,得到拼接结果(为了便于区分,可称为第一拼接结果)。
终端将第一拼接结果输入到深度与交叉网络层。其中,在交叉网络部分中,每一个交叉层的输出,为其下一交叉层的输入。类似的,深度网络部分中,前馈神经网络中的每一层的输出,为其下一层的输入。具体的,终端将该第一拼接结果分别输入至深度与交叉网络层中的交叉网络部分和深度网络部分,并将交叉网络部分的输出结果与深度网络部分的输出结果,输入至深度与交叉网络层的拼接层进行拼接处理,得到拼接结果(为了便于区分,可称为第二拼接结果)。进而,将第二拼接结果输入至深度与交叉网络层包含的输出层,得到深度与交叉网络层的输出结果,即静态特征向量。
具体的,终端将第一拼接结果、以及上一个交叉层的输出进行特征交叉,得到当前层的输出向量,如下公式(1)所示。
xl+1=x0xl Twl+bl+xl (1)
其中,xl+1是交叉网络部分第l+1层的输出向量,x0是第一拼接结果,xl是交叉网络部分第l层的输出向量,T表示向量转置,wl是第l层的权重,bl是第l层的偏置参数。
在深度网络部分,终端将第一拼接结果输入到第一前馈神经网络。前馈神经网络中的每一层的输出,为其下一层的输入,如下公式(2)所示。
hk+1=FFN(hk) (2)
其中,hk+1是深度网络部分第k+1层的输出向量,FFN是第一前馈神经网络的非线性函数,hk是深度网络部分第k层的输出向量。
终端将交叉网络部分的输出向量、以及深度网络部分输出向量输入至拼接层进行拼接,并将拼接层的输出结果输入至输出层中的第二前馈神经网络,得到静态特征向量。
步骤106,将静态特征向量和外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将定长背景序列和样本响应序列输入动态特征网络中的解码器,得到预测结构响应。
其中,如图3所示,动态特征网络包括编码器和解码器。编码器有N层相同结构的模块,每层模块包括两个子模块,分别为第一子模块和第二子模块。第一子模块包括层归一化层和基于正交随机特征的快速注意算法(Fast Attention Via Positive OrthogonalRandom Features,FAVOR+)的注意力机制。第二子模块包括层归一化层、前馈神经网络。第一子模块的输出和第一子模块的输入进行残差计算,第二子模块的输出也和第一模块的输入进行残差计算。在编码器中,每一层模块的输出,为其下一层模块的输入,编码器最后一层模块的输出会作为整个编码器的最终输出结果。编码器的最终输出结果将输入到解码器。编码器的最终输出结果是定长背景序列。可选的,动态特征网络中的前馈神经网络可以是两层前馈神经网络。
类似的,解码器有N层相同结构的模块,每层模块包括两个子模块,分别为第三子模块、层归一化层(为了便于区分,可称为第一层归一化层)和第四子模块。第三子模块包括层归一化层和门控循环单元(gated recurrent unit,GRU)。第四子模块包括拼接层和前馈神经网络。第三子模块的输出和第三子模块的输入进行残差计算,得到第一层归一化层的输入。第一层归一化层的输入和第四子模块的输出进行残差计算。在解码器中,每一层模块的输出,为其下一层模块的输入,解码器最后一层模块的输出会作为解码器的最终输出结果。解码器的最终输出结果是响应序列。在解码器的每一层模块的第四子模块的拼接层中,编码器的最终输出结果即定长背景序列都与第一层归一化层的输出进行拼接,并把拼接层的输出结果输入至前馈神经网络。
可选的,门控循环单元可以是多层堆叠的门控循环单元,前馈神经网络是两层前馈神经网络。在多层堆叠的门控循环单元中,每一层的输出,为其下一层的输入。
本申请实施例以编码器包含一层模块为例进行说明,包含多层的情况与之类似,不再赘述。终端将外部激励序列进行线性维度变换,并把线性维度变换的输出结果与静态特征向量进行拼接,得到拼接结果(为了便于区分,可称为第三拼接结果),并把第三拼接结果输入编码器。可以理解,图3中未示出静态特征向量。
在编码器的第一子模块中,终端将第三拼接结果(即第一子模块的输入)输入至层归一化层,将层归一化层的输出结果输入基于正交随机特征的快速注意算法的注意力机制,并将基于正交随机特征的快速注意算法的注意力机制是输出结果(即第一子模块的输出)与第一子模块的输入进行残差计算,得到残差计算后的输出结果。在编码器的第二子模块中,终端将残差计算后的输出结果输入至层归一化层,将层归一化层的输出结果输入前馈神经网络,并将前馈神经网络的输出结果(即第二子模块的输出)与第一子模块的输入进行残差计算,得到该层模块的输出。
可以理解,由于在编码器中,每一层模块的输出,为其下一层模块的输入,因此,经过N层结构相同的模块进行处理后,终端将编码器最后一层模块的输出作为整个编码器的最终输出结果,并将编码器的最终输出结果输入到解码器。其中,编码器的最终输出结果是定长背景序列。
本申请实施例以解码器包含两层模块为例进行说明,包含多层的情况与之类似,不再赘述。在解码器的第一层模块中,可以只包含第四子模块。终端将定长背景序列输入至第四子模块中的拼接层,将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出输入至线性层,将线性层的输出结果与样本响应序列进行拼接后进行线性维度变换,得到线性维度变换的输出结果。终端将线性维度变换的输出结果输入至解码器的第二层模块。在解码器的第二层模块中,终端将线性维度变换的输出结果(即第三子模块的输入)输入至第三子模块的层归一化层,将层归一化层的输出结果输入至多层堆叠的门控循环单元,然后将最后一层门控循环单元的输出(即第三子模块的输出)与第三子模块的输入进行残差计算,得到第一层归一化层的输入数据。终端将该输入数据输入至第一层归一化层,将第一层归一化层的输出结果输入至第四子模块中的拼接层。终端将定长背景序列输入至第四子模块中的拼接层,并将第一层归一化层的输出结果与定长背景序列进行拼接,得到拼接层的输出结果。终端将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出与第四子模块的输入进行残差计算,得到第二层编码器的输出。可选的,前馈神经网络可以是两层前馈神经网络。
可以理解,由于在解码器中,每一层模块的输出,为其下一层模块的输入,因此,经过N层结构相同的模块进行处理后,终端将解码器最后一层模块的输出作为整个解码器的最终输出结果。其中,解码器的最终输出结果是响应序列。终端根据响应序列,得到预测结构响应。
步骤108,根据样本响应数据和预测结构响应,对动态特征网络和预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。
其中,训练后的结构响应预测模型包括预注意力深度与交叉网络和动态特征网络。
本申请实施例中,终端根据样本响应数据、预测结构响应数据以及预设的损失函数,得到动态特征网络和预注意力深度与交叉网络的损失值。损失函数可以但不限于交叉熵损失函数和极大似然损失函数。终端根据该模型的损失值,确定模型的精度。终端根据确定出的精度,采用梯度下降算法对动态特征网络和预注意力深度与交叉网络中的参数进行更新,直到动态特征网络和预注意力深度与交叉网络的精度达到预设的精度条件,得到训练后的结构响应预测模型。
上述结构响应预测模型的训练方法中,可以通过样本结构数据集来训练预注意力深度与交叉网络和动态特征网络得到训练后的结构响应预测模型,通过上述方案,得到由预注意力深度与交叉网络和动态特征网络组成的复合型的结构响应预测模型,该结构响应预测模型可以实现同时处理结构的属性数据和外部激励数据,并根据上述两种数据去预测结构响应,所以基于该结构响应预测模型的结构响应的预测方法的准确性提高。由于对模型的输入数据只需要机器操作,并不依赖人为筛选,所以该结构响应的预测方法的运算效率高、可移植性强。
在一个实施例中,将静态特征向量和外部激励序列,输入动态特征网络中的编码器,得到定长背景序列包括:
将静态特征向量和外部激励序列进行拼接,得到输入序列;将输入序列输入动态特征网络中的编码器,并通过编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算输入序列对应的定长背景序列。
其中,编码器有N层相同结构的模块,每层模块包括两个子模块,分别为第一子模块和第二子模块。第一子模块包括层归一化层和基于正交随机特征的快速注意算法(FastAttention Via Positive Orthogonal Random Features,FAVOR+)的注意力机制。第二子模块包括层归一化层、和前馈神经网络。第一子模块的输出和第一子模块的输入进行残差计算,第二子模块的输出也和第一模块的输入进行残差计算。在编码器中,每一层模块的输出,为其下一层模块的输入,编码器最后一层模块的输出会作为整个编码器的最终输出结果,并将编码器的最终输出结果输入到解码器。编码器的最终输出结果是定长背景序列。
本申请实施例以编码器包含一层模块为例进行说明,包含多层的情况与之类似,不再赘述。终端将外部激励序列进行线性维度变换,并把线性维度变换的输出结果与静态特征向量进行拼接,得到拼接结果(为了便于区分,可称为第三拼接结果),并把第三拼接结果输入编码器。可以理解,图3中虽然没有画出上述把线性维度变换的输出结果与静态特征向量进行拼接的过程,但是终端在实际操作时,是有进行上述拼接过程。
在编码器的第一子模块中,终端将第三拼接结果(即第一子模块的输入)输入至层归一化层,将层归一化层的输出结果输入基于正交随机特征的快速注意算法的注意力机制,得到基于正交随机特征的快速注意算法的注意力机制的输出结果(即第一子模块的输出)。
具体的,终端将层归一化后的输出结果X输入至基于正交随机特征的快速注意算法的注意力机制进行线性变换,得到键张量K和价值张量V,如下公式(3)所示。终端将预设的序列进行线性变换,得到查询张量Q,如下公式(4)所示。其中,预设的序列是与注意力机制的输入进行注意力运算的序列。可选的,预设的序列可以是注意力机制的输入,也可以是其他预设的序列。
K/V=Linear(X) (3)
其中,K是键张量,V是价值张量,符号/表示或者,X是注意力机制的输入,Linear表示线性变换。
Qi=Linear(Yi) (4)
其中,Qi是查询张量中的第i个元素,Yi是预设的与注意力机制的输入序列进行注意力运算的序列。
终端将键张量、价值张量、以及查询张量进行注意力运算,得到第一子模块的输出,如下公式(5)所示。
其中,Attn是注意力机制运算,Attni是序列中第i个元素的注意力表示向量,Ais是注意力矩阵第i行第s列的元素,vs是价值张量中的第s行的行向量,qi是查询张量中的第i行的行向量,ks是键张量中的第s行的行向量,φ( )是随机特征映射函数,T表示向量转置。随机特征映射函数可以是归一化指数函数(Softmax函数)。
终端将基于正交随机特征的快速注意算法的注意力机制的输出结果(即第一子模块的输出)与第一子模块的输入进行残差计算,得到残差计算后的输出结果。在编码器的第二子模块中,终端将残差计算后的输出结果输入至层归一化层,将层归一化层的输出结果输入前馈神经网络,并将前馈神经网络的输出结果(即第二子模块的输出)与第一子模块的输入进行残差计算,得到该层模块的输出。
可以理解,由于在编码器中,每一层模块的输出,为其下一层模块的输入,因此,经过N层结构相同的模块进行处理后,终端将编码器最后一层模块的输出作为整个编码器的最终输出结果,并将编码器的最终输出结果输入到解码器。其中,编码器的最终输出结果是定长背景序列。
本实施例中,终端通过基于正交随机特征的快速注意算法的注意力机制,可以使动态特征网络中的编码器输出定长背景序列。由于经过该注意力机制的注意力运算,该定长背景序列所包含的特征向量有对应的权重。为后续动态特征网络中的解码器在处理该定长背景序列时,终端可以更好地选择性关注权重大的特征向量。而权重大的特征向量往往对预测结果影响更大,因此,可以提高终端在解码器计算结构响应的准确性。
在一个实施例中,将定长背景序列和样本响应序列输入动态特征网络中的解码器,得到预测结构响应,包括:
将定长背景序列和样本响应序列输入动态特征网络中的解码器,并通过解码器中的门控循环单元,计算与样本响应序列和定长背景序列对应的预测结构响应。
类似的,解码器有N层相同结构的模块,每层模块包括两个子模块,分别为第三子模块、层归一化层(为了便于区分,可称为第一层归一化层)和第四子模块。第三子模块包括层归一化层和门控循环单元(gated recurrent unit,GRU)。第四子模块包括拼接层和前馈神经网络。第三子模块的输出和第三子模块的输入进行残差计算,得到第一层归一化层的输入。第一层归一化层的输入和第四子模块的输出进行残差计算。在解码器中,每一层模块的输出,为其下一层模块的输入,解码器最后一层模块的输出会作为解码器的最终输出结果。解码器的最终输出结果是响应序列。在解码器的每一层模块的第四子模块的拼接层中,编码器的最终输出结果即定长背景序列都与第一层归一化层的输出进行拼接,并把拼接层的输出结果输入至前馈神经网络。可选的,门控循环单元可以是多层堆叠的门控循环单元,前馈神经网络是两层前馈神经网络。在多层堆叠的门控循环单元中,每一层的输出,为其下一层的输入。
本申请实施例以解码器包含两层模块为例进行说明,包含多层的情况与之类似,不再赘述。在解码器的第一层模块中,可以只包含第四子模块。终端将定长背景序列输入至第四子模块中的拼接层,将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出输入至线性层,将线性层的输出结果与样本响应序列进行拼接后进行线性维度变换,得到线性维度变换的输出结果。终端将线性维度变换的输出结果输入至解码器的第二层模块。在解码器的第二层模块中,终端将线性维度变换的输出结果(即第三子模块的输入)输入至第三子模块的层归一化层,将层归一化层的输出结果输入至多层堆叠的门控循环单元,然后将最后一层门控循环单元的输出(即第三子模块的输出)与第三子模块的输入进行残差计算,得到第一层归一化层的输入数据。终端将该输入数据输入至第一层归一化层,将第一层归一化层的输出结果输入至第四子模块中的拼接层。终端将定长背景序列输入至第四子模块中的拼接层,并将第一层归一化层的输出结果与定长背景序列进行拼接,得到拼接层的输出结果。终端将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出与第四子模块的输入进行残差计算,得到第二层编码器的输出。可选的,前馈神经网络可以是两层前馈神经网络。具体的,本申请实施例以门控循环单元包含一层为例进行说明,包含多层的情况与之类似,不再赘述。如图4所示,终端按照预设的时间步分别将将层归一化层的输出结果(即门控循环单元的输入序列)分别输入至门控循环单元的更新门和重置门。在重置门中,终端将门控循环单元的输入序列用sigmoid函数进行线性变换,得到重置门中间向量rk。终端将重置门中间向量rk用双曲正切函数(hyperbolic tangent function,tanh)进行线性变换,得到重置门输出向量ck。在更新门中,终端将门控循环单元的输入序列用sigmoid函数进行线性变换,得到更新门输出向量zk。终端确定上一个时间步的门控循环单元的输出向量hk-1与(1-zk)的点积,得到第一点积。终端确定当前时间步重置门输出向量ck与更新门输出向量zk的点积,得到第二点积。终端确定第一点积和第二点积的和,得到当前时间步门控循环单元的输出向量hk。终端按照预设的时间步读取门控循环单元的输入序列,直到读取结束,将每个时间步的门控循环单元的输出向量进行线性叠加,得到第三子模块的输出。
可以理解,由于在多层堆叠的门控循环单元,每一层的输出,为其下一层的输入,因此,经过错层结构相同的模块进行处理后,终端将门控循环单元最后一层的输出作为第三子模块的输出。
终端将第三子模块的输出与第三子模块的输入进行残差计算,得到第一层归一化层的输入结果。终端将该输入结果输入至第一层归一化层,将第一层归一化层的输出结果输入至第四子模块中的拼接层。终端将定长背景序列输入至第四子模块中的拼接层,并将层归一化层的输出结果与定长背景序列进行拼接,得到拼接层的输出结果。终端将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出与第四子模块的输入进行残差计算,得到第二层编码器的输出。
可以理解,由于在解码器中,每一层模块的输出,为其下一层模块的输入,因此,经过N层结构相同的模块进行处理后,终端将解码器最后一层模块的输出作为整个解码器的最终输出结果。其中,解码器的最终输出结果是响应序列。终端根据响应序列,得到对应的预测结构响应。
本实施例中,终端通过门控循环单元去处理样本响应序列和定长背景序列,得到对应的预测结构响应。由于门控制单元可以同时捕捉时间序列里时间距离较大的依赖关系、以及时间距离较短的依赖关系,提高了预测结果的准确度。
在一个实施例中,如图5所示,根据样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量,包括:
步骤502,在样本结构属性数据中,识别变长静态特征数据、以及初始定长静态特征数据,并对变长静态特征数据进行序列化,得到变长静态特征序列。
本申请实施例中,终端识别变长静态特征序列对应的稀疏变长静态特征序列、以及对应的稠密变长静态特征序列。终端识别初始定长静态特征数据对应的稀疏定长静态特征数据、以及对应的稠密定长静态特征数据。
步骤504,将变长静态特征序列输入预注意力深度与交叉网络中的预处理层,并通过预处理层中的多头注意力机制,计算变长静态特征序列对应的目标定长静态特征数据。
本申请实施例中,针对初始定长静态特征数据,终端通过预处理层识别初始定长静态特征数据是否包含具有稀疏特征的数据、以及稠密特征的数据。在初始定长静态特征数据包含具有稀疏特征的数据的情况下,终端将具有稀疏特征的数据输入至嵌入层,并将嵌入层的输出结果输入至拼接层。在初始定长静态特征数据包含具有稠密特征的数据的情况下,终端将具有稠密特征的数据直接输入至拼接层。针对变长静态特征序列,终端通过预处理层识别变长静态特征序列是否包含具有稀疏特征的序列、以及稠密特征的序列。在变长静态特征序列包含具有稀疏特征的序列的情况下,终端将具有稀疏特征的序列输入至嵌入层,并将嵌入层的输出结果输入至多头注意力机制。在变长静态特征序列包含具有稠密特征的序列的情况下,终端将具有稠密特征的序列直接输入至多头注意力机制。终端还将该变长静态特征序列输入至归一化层,并将归一化层的输出结果输入至多头注意力机制。终端将多头注意力机制的输入在多头注意力机制中进行注意力运算,并将多头注意力的机制输出结果输入至拼接层。预处理层中的多头注意力机制的输出结果构成目标定长静态特征数据。
如图6所示,具体的,终端将多注意力机制的输入X序列进行线性变换,得到键张量K和价值张量V,如下公式(3)所示。终端将预设的序列进行线性变换,得到查询张量Q,如下公式(4)所示。其中,预设的序列可以是注意力机制的输,也可以是预设的其他序列。
K/V=Linear(X) (3)
其中,K是键张量,V是价值张量,/是或者,X是注意力机制的输入,Linear表示线性变换。
Qi=Linear(Yi) (4)
其中,Qi是查询张量中的第i个元素,Yi是预设的与注意力机制的输入序列进行注意力运算的序列。
终端将键张量、价值张量、以及查询张量并行进行多头注意力运算,并进行平均池化操作,得到多个多头注意力机制的中间向量,如下公式(6)所示。可选的,多头注意力运算可以是放缩点积注意力运算。
终端对每个多头注意力机制的中间向量进行合并(或拼接),并在线性层进行线性变换,得到多头注意力机制输出结果,如下公式(7)所示。
步骤506,目标定长静态特征数据和初始定长静态特征数据在预处理层中进行拼接,输入预注意力深度与交叉网络中的深度与交叉网络层,得到静态特征向量。
终端通过拼接层,将输入至拼接层的各数据进行拼接处理,得到拼接结果(为了便于区分,可称为第一拼接结果)。其中,各数据包括目标定长静态特征数据和初始定长静态特征数据。
终端将第一拼接结果输入到深度与交叉网络层。其中,在交叉网络部分中,每一个交叉层的输出,为其下一交叉层的输入。类似的,深度网络部分中,前馈神经网络中的每一层的输出,为其下一层的输入。具体的,终端将该第一拼接结果分别输入至深度与交叉网络层中的交叉网络部分和深度网络部分,并将交叉网络部分的输出结果与深度网络部分的输出结果,输入至拼接层进行拼接处理,得到拼接结果(为了便于区分,可称为第二拼接结果)。进而,将第二拼接结果输入至深度与交叉网络层包含的输出层,得到深度与交叉网络层的输出结果,即静态特征向量。
具体的,终端将第一拼接结果、以及上一个交叉层的输出进行特征交叉,得到当前层的输出向量,如下公式(1)所示。
xl+1=x0xl Twl+bl+xl (1)
其中,xl+1是交叉网络部分第l+1层的输出向量,x0是第一拼接结果,xl是交叉网络部分第l层的输出向量,T表示向量转置,wl是第l层的权重,bl是第l层的偏置参数。
在深度网络部分,终端将第一拼接结果输入到第一前馈神经网络。前馈神经网络中的每一层的输出,为其下一层的输入,如下公式(2)所示。
hk+1=FFN(hk) (2)
其中,hk+1是深度网络部分第k+1层的输出向量,FFN是第一前馈神经网络的非线性函数,hk是深度网络部分第k层的输出向量。
终端将交叉网络部分的输出向量、以及深度网络部分输出向量输入至拼接层进行拼接,并将拼接层的输出结果输入至输出层中的第二前馈神经网络,得到静态特征向量。
本实施例中,终端将样本结构属性数据输入预注意力深度与交叉网络得到静态特征向量,不需要进行人工筛选,不因为主观原因导致丢失相关数据,从而提高预测准确性。并且本技术方案中处理样本结构属性数据的方法是一套规范化的执行方法,不同类型的结构问题之间对结构属性数据的处理具有可移植性。
在一个实施例中,步骤108包括:
根据样本响应数据和预测结构响应,确定动态特征网络和预注意力深度与交叉网络的精度;根据动态特征网络和预注意力深度与交叉网络的精度,采用梯度下降算法对动态特征网络和预注意力深度与交叉网络的参数进行更新;根据验证数据集对动态特征网络和预注意力深度与交叉网络进行测试;根据测试结果对动态特征网络和预注意力深度与交叉网络的参数进行调整,以使调整后的动态特征网络、以及调整后的预注意力深度与交叉网络的精度达到预设精度条件,得到训练后的结构响应预测模型。
其中,验证数据集包括测试结构属性数据、测试外部激励数据、以及与测试结构属性数据和测试外部激励数据对应的测试响应数据。
本申请实施例中,终端根据样本响应数据、预测结构响应数据以及损失函数,得到动态特征网络和预注意力深度与交叉网络的损失值。损失函数可以但不限于交叉熵损失函数、极大似然损失函数。终端根据该模型的损失值,确定模型的精度。终端根据动态特征网络和预注意力深度与交叉网络的精度,采用梯度下降算法对动态特征网络和预注意力深度与交叉网络的参数进行更新。可选的,梯度下降算法可以是自适应动量估计算法(AdaptiveMomentum Estimation,Adam)。终端将验证数据集中的测试结构属性数据、以及测试外部激励数据输入动态特征网络和预注意力深度与交叉网络,得到预测结构响应。终端根据该预测结构响应、测试响应数据以及损失函数,得到动态特征网络和预注意力深度与交叉网络的损失值。终端根据该模型的损失值,确定模型的精度。终端根据动态特征网络和预注意力深度与交叉网络的精度,采用梯度下降算法对动态特征网络和预注意力深度与交叉网络的参数进行更新。终端根据动态特征网络和预注意力深度与交叉网络的精度,采用梯度下降算法对动态特征网络和预注意力深度与交叉网络的参数进行更新,直到动态特征网络和预注意力深度与交叉网络确定出的精度达到预设的精度条件,得到训练后的结构响应预测模型。可选的,终端用测试数据集测试训练后的结构响应预测模型的泛化能力,得到训练后的结构响应预测模型泛化能力的评分。
本实施例中,终端根据样本结构属性数据、验证数据集数据、以及梯度下降算法对动态特征网络和预注意力深度与交叉网络进行训练以及验证,得到训练后的结构响应预测模型。通过上述方案,得到由预注意力深度与交叉网络和动态特征网络组成的复合型的结构响应预测模型,该结构响应预测模型可以实现同时处理结构的属性数据和外部激励数据,并根据上述两种数据去预测结构响应,所以基于该结构响应预测模型的结构响应的预测方法的准确性提高。由于对模型的输入数据只需要机器操作,并不依赖人为筛选,所以该结构响应的预测方法的运算效率高、可移植性强。
在一个实施例中,如图7所示,提供了一种结构响应的预测方法,以该方法应用于终端为例进行说明,包括以下步骤:
步骤702,获取目标结构数据。
本申请实施例中,终端获取目标结构数据。其中,目标结构数据包括结构属性数据和外部激励数据。
步骤704,确定外部激励数据对应的目标外部激励序列,并根据目标外部激励序列、结构属性数据、以及训练后的结构响应预测模型,确定目标结构响应。
其中,训练后的结构响应预测模型包括预注意力深度与交叉网络、以及动态特征网络。预注意力深度与交叉网络包括输入层、预处理层和深度与交叉网络层。预处理层包括嵌入层(Embedding)、归一化层和多头注意力机制、以及拼接层。深度与交叉网络层包括交叉网络部分、深度网络部分、拼接层和输出层。交叉网络部分包括多个用于进行特征交叉的交叉层;深度网络部分包括第一前馈神经网络(feedforward neural network,FFN);输出层包括第二前馈神经网络。动态特征网络包括编码器和解码器。编码器有N层相同结构的模块,每层模块包括两个子模块,分别为第一子模块和第二子模块。第一子模块包括层归一化层和基于正交随机特征的快速注意算法(Fast Attention Via Positive OrthogonalRandom Features,FAVOR+)的注意力机制。第二子模块包括层归一化层、和前馈神经网络。第一子模块的输出和第一子模块的输入进行残差计算,第二子模块的输出也和第一模块的输入进行残差计算。在编码器中,每一层模块的输出,为其下一层模块的输入,编码器最后一层模块的输出会作为整个编码器的最终输出结果,并将编码器的最终输出结果输入到解码器。编码器的最终输出结果是定长背景序列。类似的,解码器有N层相同结构的模块,每层模块包括两个子模块,分别为第三子模块、层归一化层(为了便于区分,可称为第一层归一化层)和第四子模块。第三子模块包括层归一化层和门控循环单元(gated recurrentunit,GRU)。第四子模块包括拼接层和前馈神经网络。第三子模块的输出和第三子模块的输入进行残差计算,得到第一层归一化层的输入。第一层归一化层的输入和第四子模块的输出进行残差计算。在解码器中,每一层模块的输出,为其下一层模块的输入,解码器最后一层模块的输出会作为解码器的最终输出结果。解码器的最终输出结果是响应序列。在解码器的每一层模块的第四子模块的拼接层中,编码器的最终输出结果即定长背景序列都与第一层归一化层的输出进行拼接,并把拼接层的输出结果输入至前馈神经网络。可选的,门控循环单元可以是多层堆叠的门控循环单元,前馈神经网络是两层前馈神经网络。在多层堆叠的门控循环单元中,每一层的输出,为其下一层的输入。
本申请实施例中,终端识别目标结构数据中结构属性数据和外部激励数据。终端对该外部激励数据进行序列化,得到对应的目标外部激励序列。终端将结构属性数据输入训练后的结构响应预测模型中的预注意力深度与交叉网络得到目标定长背景序列。然后,终端将该目标定长背景序列和外部激励序列输入训练后的结构响应预测模型中的动态特征网络,得到目标结构响应序列。终端根据目标结构响应序列,确定对应的目标结构响应。
本实施例中,终端通过获取结构属性数据和外部激励数据,并根据训练后的结构响应预测模型,得到目标结构响应。通过上述方案,得到由预注意力深度与交叉网络和动态特征网络组成的复合型的结构响应预测模型,该结构响应预测模型可以实现同时处理结构的属性数据和外部激励数据,并根据上述两种数据去预测结构响应,所以基于该结构响应预测模型的结构响应的预测方法的准确性提高。由于对模型的输入数据只需要机器操作,并不依赖人为筛选,所以该结构响应的预测方法的运算效率高、可移植性强。
在一个实施例中,如图8所示,步骤704包括:
步骤802,确定外部激励数据对应的目标外部激励序列,并根据结构属性数据和训练后的结构响应预测模型中的预注意力深度与交叉网络,确定目标静态特征向量。
本申请实施例中,终端对外部激励数据进行序列化处理,得到对应的目标外部激励序列。终端将该结构属性数据输入至训练后的结构响应预测模型中的预注意力深度与交叉网络,得到目标静态特征向量。
步骤804,将目标静态特征向量和目标外部激励序列进行拼接,得到目标输入序列。
本申请实施例中,终端将目标静态特征向量和目标外部激励序列进行拼接,得到目标输入序列。
步骤806,将目标输入序列输入训练后的结构响应预测模型中的动态特征网络中的编码器,并通过编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算目标输入序列对应的目标定长背景序列。
本申请实施例以编码器包含一层模块为例进行说明,包含多层的情况与之类似,不再赘述。终端将目标输入序列输入至训练后的结构响应预测模型中的动态特征网络中的编码器。在编码器的第一子模块中,终端将目标输入序列(即第一子模块的输入)输入至层归一化层,将层归一化层的输出结果输入基于正交随机特征的快速注意算法的注意力机制,得到基于正交随机特征的快速注意算法的注意力机制的输出结果(即第一子模块的输出)。终端将基于正交随机特征的快速注意算法的注意力机制的输出结果(即第一子模块的输出)与第一子模块的输入进行残差计算,得到残差计算后的输出结果。在编码器的第二子模块中,终端将残差计算后的输出结果输入至层归一化层,将层归一化层的输出结果输入前馈神经网络,并将前馈神经网络的输出结果(即第二子模块的输出)与第一子模块的输入进行残差计算,得到该层模块的输出。
可以理解,由于在编码器中,每一层模块的输出,为其下一层模块的输入,因此,经过N层结构相同的模块进行处理后,终端将编码器最后一层模块的输出作为整个编码器的最终输出结果,并将编码器的最终输出结果输入到解码器。其中,编码器的最终输出结果是目标定长背景序列。
步骤808,将目标定长背景序列输入训练后的结构响应预测模型中的动态特征网络中的解码器,并通过解码器中的门控循环单元,计算目标定长背景序列对应的目标结构响应。
本申请实施例以解码器包含两层模块为例进行说明,包含多层的情况与之类似,不再赘述。在解码器的第一层模块中,可以只包含第四子模块。终端将定长背景序列输入至第四子模块中的拼接层,将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出输入至线性层,将线性层的输出结果进行线性维度变换,得到线性维度变换的输出结果。终端将线性维度变换的输出结果输入至解码器的第二层模块。在解码器的第二层模块中,终端将线性维度变换的输出结果(即第三子模块的输入)输入至第三子模块的层归一化层,将层归一化层的输出结果输入至多层堆叠的门控循环单元,然后将最后一层门控循环单元的输出(即第三子模块的输出)与第三子模块的输入进行残差计算,得到第一层归一化层的输入数据。终端将该输入数据输入至第一层归一化层,将第一层归一化层的输出结果输入至第四子模块中的拼接层。终端将定长背景序列输入至第四子模块中的拼接层,并将第一层归一化层的输出结果与定长背景序列进行拼接,得到拼接层的输出结果。终端将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出与第四子模块的输入进行残差计算,得到第二层编码器的输出。可选的,门控循环单元可以是多层堆叠的门控循环单元,前馈神经网络是两层前馈神经网络。在多层堆叠的门控循环单元中,每一层的输出,为其下一层的输入。可以理解,在本实施例的门控循环单元中,终端对第三子模块的层归一化层的输出结果进行处理的情况与上述其他实施例的门控循环单元中终端对对第三子模块的层归一化层的输出结果进行处理的情况是类似的,不再赘述。
终端将第三子模块的输出与第三子模块的输入进行残差计算,得到第一层归一化层的输入结果。终端将该输入结果输入至第一层归一化层,将第一层归一化层的输出结果输入至第四子模块中的拼接层。终端将定长背景序列输入至第四子模块中的拼接层,并将层归一化层的输出结果与定长背景序列进行拼接,得到拼接层的输出结果。终端将拼接层的输出结果输入至前馈神经网络,得到第四子模块的输出。终端将第四子模块的输出与第四子模块的输入进行残差计算,得到第二层编码器的输出。
可以理解,由于在解码器中,每一层模块的输出,为其下一层模块的输入,因此,经过N层结构相同的模块进行处理后,终端将解码器最后一层模块的输出作为整个解码器的最终输出结果。其中,解码器的最终输出结果是目标响应序列。终端根据目标响应序列,得到目标定长背景序列对应的目标结构响应。
本实施例中,终端通过结构属性数据和外部激励数据,并根据训练后的结构响应预测模型,得到目标结构响应。通过上述方案,得到由预注意力深度与交叉网络和动态特征网络组成的复合型的结构响应预测模型,该结构响应预测模型可以实现同时处理结构的属性数据和外部激励数据,并根据上述两种数据去预测结构响应,所以基于该结构响应预测模型的结构响应的预测方法的准确性提高。由于对模型的输入数据只需要机器操作,并不依赖人为筛选,所以该结构响应的预测方法的运算效率高、可移植性强。
应该理解的是,虽然如上的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,还提供了一种用于实现上述所涉及的结构响应预测模型的训练方法的结构响应预测模型的训练装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个结构响应预测模型的训练装置实施例中的具体限定可以参见上文中对于结构响应预测模型的训练方法的限定,在此不再赘述。
在一个实施例中,如图9所示,提供了一种结构响应预测模型的训练装置,包括:
获取模块,用于获取样本结构数据集;样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与样本结构属性数据和样本外部激励数据对应的样本响应数据;
确定模块,用于确定样本外部激励数据对应的外部激励序列、样本响应数据对应的样本响应序列,并根据样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量;
输入模块,用于将静态特征向量和外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将定长背景序列和样本响应序列输入动态特征网络中的解码器,得到预测结构响应;
调整模块,用于根据样本响应数据和预测结构响应,对动态特征网络和预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。
在其中一个实施例中,输入模块,具体用于:
将静态特征向量和外部激励序列进行拼接,得到输入序列;
将输入序列输入动态特征网络中的编码器,并通过编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算输入序列对应的定长背景序列。
在其中一个实施例中,输入模块,具体用于:
将定长背景序列和样本响应序列输入动态特征网络中的解码器,并通过解码器中的门控循环单元,计算与样本响应序列和定长背景序列对应的预测结构响应。
在其中一个实施例中,确定模块,具体用于:
在样本结构属性数据中,识别变长静态特征数据、以及初始定长静态特征数据,并对变长静态特征数据进行序列化,得到变长静态特征序列;
将变长静态特征序列输入预注意力深度与交叉网络中的预处理层,并通过预处理层中的多头注意力机制,计算变长静态特征序列对应的目标定长静态特征数据;
目标定长静态特征数据和初始定长静态特征数据在预处理层中进行拼接,输入预注意力深度与交叉网络中的深度与交叉网络层,得到静态特征向量。
在其中一个实施例中,调整模块,具体用于:
根据样本响应数据和预测结构响应,确定动态特征网络和预注意力深度与交叉网络的精度;
根据动态特征网络和预注意力深度与交叉网络的精度,采用梯度下降算法对动态特征网络和预注意力深度与交叉网络的参数进行更新;
根据验证数据集对动态特征网络和预注意力深度与交叉网络进行测试,验证数据集包括测试结构属性数据、测试外部激励数据、以及与测试结构属性数据和测试外部激励数据对应的测试响应数据;
根据测试结果对动态特征网络和预注意力深度与交叉网络的参数进行调整,以使调整后的动态特征网络、以及调整后的预注意力深度与交叉网络的精度达到预设精度条件,得到训练后的结构响应预测模型。
在一个实施例中,如图10所示,提供一种结构响应的预测装置,包括:
获取模块,用于获取目标结构数据,目标结构数据包括结构属性数据和外部激励数据;
确定模块,用于确定外部激励数据对应的目标外部激励序列,并根据目标外部激励序列、结构属性数据、以及训练后的结构响应预测模型,确定目标结构响应;
其中,该训练后的结构响应预测模型通过上述结构响应的预测方法步骤确定。
在其中一个实施例中,确定模块,具体用于:
根据结构属性数据和训练后的结构响应预测模型中的预注意力深度与交叉网络,确定目标静态特征向量;
将目标静态特征向量和目标外部激励序列进行拼接,得到目标输入序列;
将目标输入序列输入训练后的结构响应预测模型中的动态特征网络中的编码器,并通过编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算目标输入序列对应的目标定长背景序列;
将目标定长背景序列输入训练后的结构响应预测模型中的动态特征网络中的解码器,并通过解码器中的门控循环单元,计算目标定长背景序列对应的目标结构响应。
上述结构响应预测模型的训练装置以及结构响应的预测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图11所示。该计算机设备包括通过系统总线连接的处理器、存储器、通信接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种结构响应预测模型的训练方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图11中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种结构响应预测模型的训练方法,其特征在于,所述方法包括:
获取样本结构数据集;所述样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与所述样本结构属性数据和所述样本外部激励数据对应的样本响应数据;
确定所述样本外部激励数据对应的外部激励序列、所述样本响应数据对应的样本响应序列,并根据所述样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量;
将所述静态特征向量和所述外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,得到预测结构响应;
根据所述样本响应数据和所述预测结构响应,对所述动态特征网络和所述预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。
2.根据权利要求1所述的方法,其特征在于,所述将所述静态特征向量和所述外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,包括:
将所述静态特征向量和所述外部激励序列进行拼接,得到输入序列;
将所述输入序列输入所述动态特征网络中的编码器,并通过所述编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算所述输入序列对应的定长背景序列。
3.根据权利要求1所述的方法,其特征在于,所述将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,得到预测结构响应,包括:
将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,并通过所述解码器中的门控循环单元,计算与所述样本响应序列和所述定长背景序列对应的预测结构响应。
4.根据权利要求1所述的方法,其特征在于,所述根据所述样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量,包括:
在所述样本结构属性数据中,识别变长静态特征数据、以及初始定长静态特征数据,并对所述变长静态特征数据进行序列化,得到变长静态特征序列;
将所述变长静态特征序列输入预注意力深度与交叉网络中的预处理层,并通过所述预处理层中的多头注意力机制,计算所述变长静态特征序列对应的目标定长静态特征数据;
所述目标定长静态特征数据和所述初始定长静态特征数据在所述预处理层中进行拼接,输入所述预注意力深度与交叉网络中的深度与交叉网络层,得到静态特征向量。
5.根据权利要求1所述的方法,其特征在于,所述根据所述样本响应数据和所述预测结构响应,对所述动态特征网络和所述预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型,包括:
根据所述样本响应数据和所述预测结构响应,确定所述动态特征网络和所述预注意力深度与交叉网络的精度;
根据所述动态特征网络和所述预注意力深度与交叉网络的精度,采用梯度下降算法对所述动态特征网络和所述预注意力深度与交叉网络的参数进行更新;
根据验证数据集对所述动态特征网络和所述预注意力深度与交叉网络进行测试,所述验证数据集包括测试结构属性数据、测试外部激励数据、以及与所述测试结构属性数据和所述测试外部激励数据对应的测试响应数据;
根据测试结果对所述动态特征网络和所述预注意力深度与交叉网络的参数进行调整,以使调整后的动态特征网络、以及调整后的所述预注意力深度与交叉网络的精度达到预设精度条件,得到训练后的结构响应预测模型。
6.一种结构响应的预测方法,其特征在于,所述方法包括:
获取目标结构数据,所述目标结构数据包括结构属性数据和外部激励数据;
确定所述外部激励数据对应的目标外部激励序列,并根据所述目标外部激励序列、所述结构属性数据、以及训练后的结构响应预测模型,确定目标结构响应;
其中,所述训练后的结构响应预测模型通过权利要求1~5任一所述的结构响应预测模型的训练方法确定。
7.根据权利要求6所述的方法,其特征在于,所述根据所述目标外部激励序列、所述结构属性数据、以及训练后的结构响应预测模型,确定目标结构响应,包括:
根据所述结构属性数据和训练后的结构响应预测模型中的预注意力深度与交叉网络,确定目标静态特征向量;
将所述目标静态特征向量和所述目标外部激励序列进行拼接,得到目标输入序列;
将所述目标输入序列输入所述训练后的结构响应预测模型中的动态特征网络中的编码器,并通过所述编码器中的多头注意力机制、以及正交随机特征的快速注意算法,计算所述目标输入序列对应的目标定长背景序列;
将所述目标定长背景序列输入所述训练后的结构响应预测模型中的动态特征网络中的解码器,并通过所述解码器中的门控循环单元,计算所述目标定长背景序列对应的目标结构响应。
8.一种结构响应预测模型的训练装置,其特征在于,所述装置包括:
获取模块,用于获取样本结构数据集;所述样本结构数据集包含样本结构属性数据、样本外部激励数据、以及与所述样本结构属性数据和所述样本外部激励数据对应的样本响应数据;
确定模块,用于确定所述样本外部激励数据对应的外部激励序列、所述样本响应数据对应的样本响应序列,并根据所述样本结构属性数据和预注意力深度与交叉网络,确定静态特征向量;
输入模块,用于将所述静态特征向量和所述外部激励序列,输入动态特征网络中的编码器,得到定长背景序列,将所述定长背景序列和所述样本响应序列输入所述动态特征网络中的解码器,得到预测结构响应;
调整模块,用于根据所述样本响应数据和所述预测结构响应,对所述动态特征网络和所述预注意力深度与交叉网络中的参数进行调整,得到训练后的结构响应预测模型。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5或者6至7中任一项所述的方法的步骤。
10.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至5或者6至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210444155.9A CN114912578B (zh) | 2022-04-26 | 2022-04-26 | 结构响应预测模型的训练方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210444155.9A CN114912578B (zh) | 2022-04-26 | 2022-04-26 | 结构响应预测模型的训练方法、装置和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114912578A true CN114912578A (zh) | 2022-08-16 |
CN114912578B CN114912578B (zh) | 2023-08-11 |
Family
ID=82764456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210444155.9A Active CN114912578B (zh) | 2022-04-26 | 2022-04-26 | 结构响应预测模型的训练方法、装置和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114912578B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116305461A (zh) * | 2023-03-13 | 2023-06-23 | 清华大学 | 结构响应计算方法、装置、电子设备及存储介质 |
CN116305995A (zh) * | 2023-03-27 | 2023-06-23 | 清华大学 | 结构体系的非线性分析方法及装置、设备及介质 |
CN116597364A (zh) * | 2023-03-29 | 2023-08-15 | 阿里巴巴(中国)有限公司 | 图像处理方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444311A (zh) * | 2020-02-26 | 2020-07-24 | 平安科技(深圳)有限公司 | 语义理解模型训练方法、装置、计算机设备和存储介质 |
CN114330863A (zh) * | 2021-12-23 | 2022-04-12 | 中国电信股份有限公司 | 时间序列预测处理方法、装置、存储介质及电子装置 |
-
2022
- 2022-04-26 CN CN202210444155.9A patent/CN114912578B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111444311A (zh) * | 2020-02-26 | 2020-07-24 | 平安科技(深圳)有限公司 | 语义理解模型训练方法、装置、计算机设备和存储介质 |
CN114330863A (zh) * | 2021-12-23 | 2022-04-12 | 中国电信股份有限公司 | 时间序列预测处理方法、装置、存储介质及电子装置 |
Non-Patent Citations (3)
Title |
---|
CHEN WANG 等: "End-to-End Structural analysis in civil engineering based on deep learning", pages 1 - 6 * |
王琛 等: "具有历史依赖效应的材料及结构响应预测通用深度学习模型 MechPerformer" * |
王琛 等: "基于深度学习的土木工程结构全过程响应智能计算框架" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116305461A (zh) * | 2023-03-13 | 2023-06-23 | 清华大学 | 结构响应计算方法、装置、电子设备及存储介质 |
CN116305461B (zh) * | 2023-03-13 | 2023-10-13 | 清华大学 | 结构响应计算方法、装置、电子设备及存储介质 |
CN116305995A (zh) * | 2023-03-27 | 2023-06-23 | 清华大学 | 结构体系的非线性分析方法及装置、设备及介质 |
CN116305995B (zh) * | 2023-03-27 | 2023-11-07 | 清华大学 | 结构体系的非线性分析方法及装置、设备及介质 |
CN116597364A (zh) * | 2023-03-29 | 2023-08-15 | 阿里巴巴(中国)有限公司 | 图像处理方法及装置 |
CN116597364B (zh) * | 2023-03-29 | 2024-03-29 | 阿里巴巴(中国)有限公司 | 图像处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN114912578B (zh) | 2023-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114912578B (zh) | 结构响应预测模型的训练方法、装置和计算机设备 | |
US20220101090A1 (en) | Neural Architecture Search with Factorized Hierarchical Search Space | |
CN108182259B (zh) | 基于深度长短期记忆神经网络对多变量时间序列分类方法 | |
KR101880901B1 (ko) | 기계 학습 방법 및 장치 | |
Johari et al. | Modelling the mechanical behaviour of unsaturated soils using a genetic algorithm-based neural network | |
Im et al. | Surrogate modeling of elasto-plastic problems via long short-term memory neural networks and proper orthogonal decomposition | |
CN108985335B (zh) | 核反应堆包壳材料辐照肿胀的集成学习预测方法 | |
CN109242223B (zh) | 城市公共建筑火灾风险的量子支持向量机评估与预测方法 | |
CN113762486B (zh) | 换流阀故障诊断模型的构建方法、装置和计算机设备 | |
WO2019240911A1 (en) | System and method for implementing a neural network | |
CN109313720A (zh) | 具有稀疏访问的外部存储器的增强神经网络 | |
KR20210032140A (ko) | 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치 | |
WO2022105108A1 (zh) | 一种网络数据分类方法、装置、设备及可读存储介质 | |
Felix et al. | Analysis of training parameters in the ANN learning process to mapping the concrete carbonation depth | |
Zhou et al. | Efficient reliability analysis based on deep learning-enhanced surrogate modelling and probability density evolution method | |
Evermann et al. | XES tensorflow-Process prediction using the tensorflow deep-learning framework | |
Mohanty et al. | Settlement of shallow foundations on cohesionless soils based on SPT value using multi-objective feature selection | |
Wang et al. | A deep learning-aided seismic fragility analysis method for bridges | |
CN114510870B (zh) | 一种城市轨道交通地下结构的剩余寿命预测方法及装置 | |
Stöcker et al. | A novel self-adversarial training scheme for enhanced robustness of inelastic constitutive descriptions by neural networks | |
Rocha et al. | Machine learning of evolving physics-based material models for multiscale solid mechanics | |
US20230268035A1 (en) | Method and apparatus for generating chemical structure using neural network | |
CN116011071A (zh) | 基于主动学习的空中造楼机结构可靠性分析方法及系统 | |
CN115081856A (zh) | 一种企业知识管理绩效评价装置及方法 | |
CN116805384A (zh) | 自动搜索方法、自动搜索的性能预测模型训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |