CN114118405A - 内嵌物理知识的神经网络的损失函数自适应平衡方法 - Google Patents
内嵌物理知识的神经网络的损失函数自适应平衡方法 Download PDFInfo
- Publication number
- CN114118405A CN114118405A CN202111246155.XA CN202111246155A CN114118405A CN 114118405 A CN114118405 A CN 114118405A CN 202111246155 A CN202111246155 A CN 202111246155A CN 114118405 A CN114118405 A CN 114118405A
- Authority
- CN
- China
- Prior art keywords
- neural network
- loss
- loss function
- follows
- physical knowledge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/13—Differential equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/28—Design optimisation, verification or simulation using fluid dynamics, e.g. using Navier-Stokes equations or computational fluid dynamics [CFD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2113/00—Details relating to the application field
- G06F2113/08—Fluids
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Optimization (AREA)
- Computing Systems (AREA)
- Mathematical Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Mathematics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Algebra (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Operations Research (AREA)
- Databases & Information Systems (AREA)
- Fluid Mechanics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种内嵌物理知识的神经网络的损失函数自适应平衡方法,该方法用于计算流体力学,包括:步骤S1:构建神经网络;步骤S2:基于Navier‑Stokes方程建立流体力学模型,确定待求解的偏微分方程,初始化所述神经网络的参数,构造内嵌物理知识的损失函数;步骤S3:通过考虑每个损失函数的随机不确定性权衡多个损失函数,实现自动加权;步骤S4:获取最优矩阵参数和最优权重参数,得到所述流体力学模型的神经网络。由此,利用深度学习中的多任务学习似然方法,根据每个损失的随机不确定性平衡多个损失函数,实现训练过程中损失权重自适应,最后找到最优损失权重配置使得神经网络模型性能达到最优,以高效快速求解流体力学模型对应的偏微分方程。
Description
技术领域
本发明涉及神经网络技术领域,尤其涉及一种内嵌物理知识的神经网络的损失函数自适应平衡方法。
背景技术
神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。神经网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的,随着神经网络学习技术的不断发展,近年来,神经网络在各个领域取得显著成绩,例如,自然语言处理、计算视觉以及基因学等。
在最近的研究中,为了能够有效地求解偏微分方程,研究人员提出了一种内嵌物理信息神经网络(physical informed neural network,简称PINN),其可以作为一种用于求解偏微分方程正逆问题的通用框架,该神经网络可以将已有的物理先验信息编码到损失函数中进行训练优化,建立满足物理规律的代理模型。相对于传统数值方法,例如有限元方法、有限差分,内嵌物理知识神经网络避免了网格建立的复杂繁琐过程和可能出现的维度爆炸问题,节约了求解时间和计算成本,并且能够对整个定义域进行准确预测。
该神经网络中的损失函数一般由偏微分方程损失、边值条件损失、初值条件损失和真值条件损失进行加权线性求和定义,其中,其模型性能对各项损失权重选择即为敏感,模型收敛程度及学习效果很大程度上取决于每个损失权重的选择。例如,在求解流体力学模型中流体的速度场和压力场时,各项损失函数权重的选择是一个复杂的问题,简单的神经网络可以依据经验设置或者手动寻找最佳权重,对于大型神经网络模型,手动寻找最佳权重成本昂贵且费时。
发明内容
为至少部分地解决上述现有技术中存在的技术问题,本发明提供一种内嵌物理知识的神经网络的损失函数自适应平衡方法。
本发明的技术方案如下:
一种内嵌物理知识的神经网络的损失函数自适应平衡方法,所述方法用于计算流体力学,所述方法包括:
步骤S1:构建神经网络;
步骤S2:基于Navier-Stokes方程建立流体力学模型,确定待求解的偏微分方程,初始化所述神经网络的参数,构造内嵌物理知识的损失函数;
步骤S3:通过考虑每个损失函数的随机不确定性权衡多个损失函数,实现自动加权;
步骤S4:获取最优矩阵参数和最优权重参数,得到所述流体力学模型的神经网络。
可选地,在所述步骤S1中,包括:设定所述神经网络的层数为L,定义所述神经网络为NN(x,t;θ),则所述神经网络NN(x,t;θ)表示如下:
可选地,在所述步骤S1中,所述隐藏层中的激活函数包括Sigmoid,Tanh和Relu中的至少一种。
可选地,在所述步骤S2中,包括:所述待求解的偏微分方程定义如下:
其中,u(x)为所述流体力学模型的目标函数,λ为NS方程中的雷诺数Re,自变量x为流体速度场和压力场的计算域,自变量x∈Ω,t∈[0,T],B(u,x)为边界条件。
可选地,在所述步骤S2中,包括:将所述损失函数定义为偏微分方程损失LPDE(θ;Tf)、边界条件损失LBC(θ;Tb)、初值条件损失LIC(θ;Ti)和真值条件损失LData(θ;Tdata)的加权总和,具体描述如下:所述损失函数L(θ;T)=ωfLPDE(θ;Tf)+ωbLBC(θ;Tb)+ωiLIC(θ;Ti)+ωdLdata(θ;Tdata),
其中,
在上述公式中,ωf,ωb,ωi,ωd为各损失的权重参数,T=Tf∪Tb∪Ti∪Tdata,Tf,Tb,Ti,Tdata为来自偏微分方程,边界条件,初值条件及真值采样数据点的集合。
可选地,在所述步骤S3中,通过考虑每个损失函数的随机不确定性权衡多个损失函数,实现自动加权,包括:令fθ(x)表示网络参数为θ的神经网络输入为x对应的输出值,定义对应的高斯似然如下:p(y|fθ(x))=N(fθ(x),ε2);
其中,fθ(x)为均值,ε2为速度场和压力场的噪声,
优化可得:
其中,L1(θ)表示损失函数。
可选地,在所述步骤S3中,还包括:设定具有足够训练量得到对应于流体力学模型中速度场和压力场的多输出y1,…,yk,得到似然如下:
负对数似然描述如下:
由此,神经网络的损失函数设置如下:
其中,εf,εb,εi,εd分别表示为控制偏微分损失,边界损失,初值损失和真值残差的权重,参数ε=[εf,εb,εi,εd]。
可选地,在所述步骤S3中,还包括:通过最小化损失函数L(ε;θ;T)获取最优矩阵参数θ*和最优权重参数ε*。
本发明技术方案的主要优点如下:
本发明的内嵌物理知识的神经网络的损失函数自适应平衡方法,利用深度学习中的多任务学习似然方法,在神经网络中,根据每个损失的随机不确定性平衡多个损失函数,实现训练过程中损失权重自适应,最后找到最优损失权重配置使得模型性能达到最优,实现高效快速求解偏微分方程的正、逆问题并且提升预测准确性,在实际应用时,能更高效准确地求解流体力学模型对应的非线性偏微分方程,提高计算精度。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本发明的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
在附图中:
图1为根据本发明的一个实施方式中的内嵌物理知识的神经网络的损失函数自适应平衡方法的结构原理图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
随着可用数据和计算资源的爆炸性增长,深度学习已在包括图像识别,自然语言处理等领域取得较大发展。通过深度学习求解偏微分方程已经成为科学机器学习的潜在新领域,由于科学计算领域数据获取成本高昂,在小样本体制下大多数神经网络无法保证结果收敛。深度学习解决偏微分方程的关键步骤是通过约束神经网络使损失函数最小化。而深度学习中的多任务学习似然方法,通过任务不确定性捕获任务之间的相对置信度,对不同的任务损失进行加权,在任务之间共享信息提高了方法的通用性。若将该方法应用于内嵌物理知识神经网络中,就能提高各项损失函数之间的关联性,实现模型训练过程中各项损失权重的自适应,降低模型对初始权重配置的依赖,以更快的收敛速度得到更高的收敛精度。
在本实施方式的方法中,利用深度学习中的多任务学习似然方法,根据每个损失的随机不确定性平衡多个损失函数,实现训练过程中损失权重自适应,最后找到最优损失权重配置使得模型性能达到最优,实现高效快速求解偏微分方程的正、逆问题并且提升预测准确性。
本发明中的神经网络的损失函数自适应平衡方法可以用于计算流体力学,通过神经网络模拟以获得某种流体在特定条件下的目标信息。
为了更明确的说明本发明的方案,以下将以一般形式参数化的非线性微分方程为例在本实施方式中进行具体说明。
在本实施方式中,该非线性微分方程可以描述为:
ut+N[u]=0,x∈Ω,t∈[0,T]。
在本实施方式中,可以利用神经网络模拟Navier Stokes(纳维叶-斯托克斯)方程相关的二维稳定Kovasznay流。
具体地,通过神经网络构建模型用以输出预定区域内流体的速度场和压力场,例如,输出长方形区域[-0.5,1]×[-0.5,1.5]内流体的速度场和压力场。
在本实施方式的损失函数自适应平衡方法中,具体实施步骤为:
步骤S1:构建神经网络;
具体地,在步骤S1中,设定神经网络的层数为L,该神经网络可以表示为NN(x,t;θ),或者也可以设定该神经网络具有L-1个隐藏层,则所述神经网络NN(x,t;θ)表示如下:
进一步地,在步骤S1中,隐藏层中的激活函数σ包括Sigmoid,Tanh和Relu中的至少一种。
步骤S2:基于Navier-Stokes方程建立流体力学模型,确定待求解的偏微分方程,初始化所述神经网络的参数,构造内嵌物理知识的损失函数;
示例性地,本实施方式中可以基于Navier-Stokes方程连接流体力学模型。具体地,该流体力学模型可以为:
其中,u为速度场,p为压力场,Re为雷诺数。
用于预测的神经网络模型为L=4层网络与每层Nl=50个神经元完全连接,并选用tanh函数作为激活函数。
在本实施方式中,待求解的非线性偏微分方程(Partial differentialequation,简称PDE)的定义可以表示为如下:
其中u(x)为流体力学模型的目标函数,λ为NS方程(Navier Stokes方程)中的雷诺数Re,自变量x为流体速度场和压力场的计算域,自变量x∈Ω,t∈[0,T]。存在边界条件B(u,x)可以是Dirichlet,Neumann和Robin。
在本实施方式中,正问题即求解微分方程,逆问题即恢复控制方程中的未知参数λ。
此外,初始化神经网络中的神经网络参数,通过构造内嵌物理知识的损失函数对所述神经网络进行物理限制。将损失函数定义为偏微分方程损失LPDE(θ;Tf)、边界条件损失LBC(θ;Tb)、初值条件损失LIC(θ;Ti)和真值条件损失LData(θ;Tdata)的加权总和,具体描述如下:L(θ;T)=ωfLPDE(θ;Tf)+ωbLBC(θ;Tb)+ωiLIC(θ;Ti)+ωdLdata(θ;Tdata),
其中,
在上述公式中,ωf,ωb,ωi,ωd为各损失的权重参数,T=Tf∪Tb∪Ti∪Tdata,Tf,Tb,Ti,Tdata为来自偏微分方程,边界条件,初值条件及真值采样数据点的集合。
步骤S3:通过考虑每个损失函数的随机不确定性权衡多个损失函数,实现自动加权;
具体地,令fθ(x)表示网络参数为θ的神经网络输入为x对应的输出值,本实施方式中神经网络求解偏微分方程是回归任务,定义对应的高斯似然如下:p(y|fθ(x))=N(fθ(x),ε2),
其中,fθ(x)为均值,ε2为速度场和压力场的噪声。
训练模型的优化目标为最小化负对数似然找到最优矩阵参数θ和标准差ε,优化可得:
其中,L1(θ)表示损失函数,在上式中,随着ε增加,L1(θ)权重减小。
由此,在步骤S3中,设定具有足够训练量得到对应于流体力学模型中速度场和压力场的多输出y1,…,yk,得到似然如下:
负对数似然描述如下:
神经网络的损失函数可以设置为如下:
其中,εf,εb,εi,εd分别为控制偏微分损失,边界损失,初值损失和真值残差的权重,参数ε=[εf,εb,εi,εd]。
步骤S4:获取最优矩阵参数和最优权重参数,得到所述流体力学模型的神经网络。
之后,通过最小化损失函数L(ε;θ;T)获取最优矩阵参数θ*和最优权重参数ε*,其中,可以采用随机梯度下降(stochastic gradient decent,简称SGD)或自适应动量估计(Adaptive Moment Estimation,简称Adam)算法对损失函数进行优化。其具体原理图如图1所示。
在最小化损失函数L(ε;θ;T)得到最优矩阵参数θ*和最优权重参数ε*之后,将其代入神经网络中,从而得到可以求解流体力学模型中流体的速度场和压力场的神经网络,借助该神经网络可以快速求解与该流体力学模型对应的偏微分方程。
在一个具体的实施例中,神经网络自适应损失函数由参数ε=[εf,εb]组合偏微分方程损失LPDE(θ;Tf)、边界条件损失LBC(θ;Tb)进行定义,试验选择数据量为Tb=101,Tf=2601。使用Adam优化器以0.001的学习率,通过最小化自适应损失函数,迭代10000次训练该神经网络,得到该计算域内流体的速度场和压力场,对比真实解误差为6.411×10-4±4.320×10-5,低于基准神经网络的最终误差4.435×10-3±2.872×10-3。
由此,在本实施方式的损失函数自适应平衡方法中,利用深度学习中的多任务学习似然方法,在神经网络中,根据每个损失的随机不确定性平衡多个损失函数,实现训练过程中损失权重自适应,最后找到最优损失权重配置使得模型性能达到最优,实现高效快速求解流体力学模型对应的偏微分方程的正、逆问题并且提升预测准确性,在实际应用时,能更高效准确地求解非线性偏微分方程,提高计算精度。
需要说明的是,在本文中,诸如“第一”和“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。此外,本文中“前”、“后”、“左”、“右”、“上”、“下”均以附图中表示的放置状态为参照。
最后应说明的是:以上实施例仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (8)
1.一种内嵌物理知识的神经网络的损失函数自适应平衡方法,其特征在于,所述方法用于计算流体力学,所述方法包括:
步骤S1:构建神经网络;
步骤S2:基于Navier-Stokes方程建立流体力学模型,确定待求解的偏微分方程,初始化所述神经网络的参数,构造内嵌物理知识的损失函数;
步骤S3:通过考虑每个损失函数的随机不确定性权衡多个损失函数,实现自动加权;
步骤S4:获取最优矩阵参数和最优权重参数,得到所述流体力学模型的神经网络。
3.根据权利要求2中所述的内嵌物理知识的神经网络的损失函数自适应平衡方法,其特征在于,在所述步骤S1中,所述隐藏层中的激活函数σ包括Sigmoid,Tanh和Relu中的至少一种。
5.根据权利要求4中所述的内嵌物理知识的神经网络的损失函数自适应平衡方法,其特征在于,在所述步骤S2中,包括:将所述损失函数定义为偏微分方程损失LPDE(θ;Tf)、边界条件损失LBC(θ;Tb)、初值条件损失LIC(θ;Ti)和真值条件损失LData(θ;Tdata)的加权总和,具体描述如下:所述损失函数L(θ;T)=ωfLPDE(θ;Tf)+ωbLBC(θ;Tb)+ωiLIC(θ;Ti)+ωdLdata(θ;Tdata),
其中,
在上述公式中,ωf,ωb,ωi,ωd为各损失的权重参数,T=Tf∪Tb∪Ti∪Tdata,Tf,Tb,Ti,Tdata为来自偏微分方程,边界条件,初值条件及真值采样数据点的集合。
8.根据权利要求7中所述的内嵌物理知识的神经网络的损失函数自适应平衡方法,其特征在于,在所述步骤S3中,还包括:通过最小化损失函数L(ε;θ;T)获取最优矩阵参数θ*和最优权重参数ε*。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111246155.XA CN114118405A (zh) | 2021-10-26 | 2021-10-26 | 内嵌物理知识的神经网络的损失函数自适应平衡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111246155.XA CN114118405A (zh) | 2021-10-26 | 2021-10-26 | 内嵌物理知识的神经网络的损失函数自适应平衡方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114118405A true CN114118405A (zh) | 2022-03-01 |
Family
ID=80376836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111246155.XA Pending CN114118405A (zh) | 2021-10-26 | 2021-10-26 | 内嵌物理知识的神经网络的损失函数自适应平衡方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114118405A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115238579A (zh) * | 2022-07-21 | 2022-10-25 | 中国核动力研究设计院 | 基于物理指引下机器学习算法的本构模型构建方法及装置 |
CN115687859A (zh) * | 2022-09-09 | 2023-02-03 | 郑州航空工业管理学院 | 一种偏微分方程数值求解系统 |
CN116050247A (zh) * | 2022-12-06 | 2023-05-02 | 大连理工大学 | 用于求解未知外部驱动力作用下的有界振动杆位移分布的耦合物理信息神经网络 |
CN116172598A (zh) * | 2023-02-22 | 2023-05-30 | 北京医准智能科技有限公司 | 一种血流储备分数确定方法、装置、电子设备及存储介质 |
WO2023202511A1 (zh) * | 2022-04-20 | 2023-10-26 | 华为技术有限公司 | 一种数据的处理方法、神经网络的训练方法以及相关设备 |
WO2024031525A1 (en) * | 2022-08-11 | 2024-02-15 | Robert Bosch Gmbh | Method and apparatus for bi-level physics-informed neural networks for pde constrained optimization |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297534A (zh) * | 2021-07-12 | 2021-08-24 | 东南大学 | 一种基于双神经网络框架的等离子体方程数值计算方法 |
-
2021
- 2021-10-26 CN CN202111246155.XA patent/CN114118405A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113297534A (zh) * | 2021-07-12 | 2021-08-24 | 东南大学 | 一种基于双神经网络框架的等离子体方程数值计算方法 |
Non-Patent Citations (3)
Title |
---|
LU LU等: "DeepXDE: A Deep LearningLibrary for Solving DifferentialEquations", 《SIAM REVIEW》, vol. 63, no. 1, pages 211 * |
XU LIU等: "A novel meta-learning initialization method for physics-informed neural networks", 《ARXIV-MACHINE LEARNING》, pages 6 * |
ZIXUE XIANG等: "Self-adaptive loss balanced Physics-informed neural networks for the incompressible Navier-Stokes equations", 《ARXIV-FLUID DYNAMICS》, pages 1 - 12 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023202511A1 (zh) * | 2022-04-20 | 2023-10-26 | 华为技术有限公司 | 一种数据的处理方法、神经网络的训练方法以及相关设备 |
CN115238579A (zh) * | 2022-07-21 | 2022-10-25 | 中国核动力研究设计院 | 基于物理指引下机器学习算法的本构模型构建方法及装置 |
WO2024031525A1 (en) * | 2022-08-11 | 2024-02-15 | Robert Bosch Gmbh | Method and apparatus for bi-level physics-informed neural networks for pde constrained optimization |
CN115687859A (zh) * | 2022-09-09 | 2023-02-03 | 郑州航空工业管理学院 | 一种偏微分方程数值求解系统 |
CN116050247A (zh) * | 2022-12-06 | 2023-05-02 | 大连理工大学 | 用于求解未知外部驱动力作用下的有界振动杆位移分布的耦合物理信息神经网络 |
CN116172598A (zh) * | 2023-02-22 | 2023-05-30 | 北京医准智能科技有限公司 | 一种血流储备分数确定方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114118405A (zh) | 内嵌物理知识的神经网络的损失函数自适应平衡方法 | |
Jagtap et al. | Locally adaptive activation functions with slope recovery for deep and physics-informed neural networks | |
Han et al. | An improved evolutionary extreme learning machine based on particle swarm optimization | |
CN112288086B (zh) | 一种神经网络的训练方法、装置以及计算机设备 | |
Yao et al. | Prediction and identification of discrete-time dynamic nonlinear systems based on adaptive echo state network | |
JP6092477B2 (ja) | ニューラルダイナミクスを修正するための自動化された方法 | |
CN109034228B (zh) | 一种基于差分隐私和层级相关性传播的图像分类方法 | |
Leung et al. | On the selection of weight decay parameter for faulty networks | |
Luo et al. | Bayesian deep learning with hierarchical prior: Predictions from limited and noisy data | |
Barman et al. | Transfer learning for small dataset | |
CN113902131B (zh) | 抵抗联邦学习中歧视传播的节点模型的更新方法 | |
US20210192111A1 (en) | Neural Reparameterization for Optimization of Physical Designs | |
Liu et al. | Further results on H∞ state estimation of static neural networks with time-varying delay | |
Nannan et al. | Adaptive online time series prediction based on a novel dynamic fuzzy cognitive map | |
CN114358197A (zh) | 分类模型的训练方法及装置、电子设备、存储介质 | |
Anochi et al. | Self-configuring two types of neural networks by mpca | |
AU2019100352A4 (en) | A Flower-Image Search System Based on Deep Learning | |
CN113011487B (zh) | 一种基于联合学习与知识迁移的开放集图像分类方法 | |
CN113191434A (zh) | 训练风险识别模型的方法和装置 | |
Bisong et al. | Training a Neural Network | |
CN114723989A (zh) | 多任务学习方法、装置及电子设备 | |
CN114417497A (zh) | 基于元学习的内嵌物理知识的神经网络初始化设计方法 | |
Xue et al. | An improved extreme learning machine based on variable-length particle swarm optimization | |
WO2022077345A1 (en) | Method and apparatus for neural network based on energy-based latent variable models | |
Jaworska | Image segment classification using CNN |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |