CN118246349B - 基于深度学习的自适应尺度的微磁学模拟方法 - Google Patents
基于深度学习的自适应尺度的微磁学模拟方法 Download PDFInfo
- Publication number
- CN118246349B CN118246349B CN202410670504.8A CN202410670504A CN118246349B CN 118246349 B CN118246349 B CN 118246349B CN 202410670504 A CN202410670504 A CN 202410670504A CN 118246349 B CN118246349 B CN 118246349B
- Authority
- CN
- China
- Prior art keywords
- layer
- field
- magnetic
- neural network
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004088 simulation Methods 0.000 title claims abstract description 55
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000013135 deep learning Methods 0.000 title claims abstract description 45
- 238000003062 neural network model Methods 0.000 claims abstract description 55
- 238000005070 sampling Methods 0.000 claims abstract description 20
- 239000000463 material Substances 0.000 claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 9
- 230000003044 adaptive effect Effects 0.000 claims description 38
- 238000012549 training Methods 0.000 claims description 20
- 238000010606 normalization Methods 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 10
- 230000008014 freezing Effects 0.000 claims description 3
- 238000007710 freezing Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 238000004590 computer program Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 239000000696 magnetic material Substances 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000013078 crystal Substances 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000035699 permeability Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000005381 magnetic domain Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及深度学习技术领域,尤其涉及一种基于深度学习的自适应尺度的微磁学模拟方法。所述方法包括:基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,改进Unet神经网络模型除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,反卷积用于上采样恢复图像尺度;获取微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的退磁场、外部磁场、交换场和各向异性场,计算微小磁性体积元的有效磁场;基于有效磁场对微小磁性体积元进行稳态预测。旨在解决如何降低磁动力学过程模拟时间的问题。
Description
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于深度学习的自适应尺度的微磁学模拟方法。
背景技术
近年来,深度学习的空前普及和成功将人工智能(AI,Artificial Intelligence)确立为人类探索机器智能的前沿领域。随着人工智能的发展,数据存储技术向更高记录密度的发展,对磁性材料的微磁学模拟提出了前所未有的挑战。传统的微磁学模拟方法,包括有限差分法(FDM)和有限元法(FEM),虽然在小尺度上有着不错的表现,但面对大规模和复杂磁性材料系统时,计算资源的巨大需求成为限制其应用的主要障碍。特别是,当模拟需要达到高记录密度硬盘制造过程中磁性材料性能优化的需求时,现有方法的计算复杂度显得尤为突出。
微磁学模拟中的退磁场计算(静磁相互作用产生的磁场)是时间占比最多的一部分,相关技术方案中常采用快速傅里叶变换(FFT)进行退磁场计算,但在处理大尺度系统时,仍然会占用较大的计算资源;并且传统的计算方式每更换一个尺度进行预测就需要重新开始计算。因此,存在磁动力学过程模拟时间较长的问题。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
本发明的主要目的在于提供一种基于深度学习的自适应尺度的微磁学模拟方法,旨在解决如何降低磁动力学过程模拟时间的问题。
为实现上述目的,本发明提供的一种基于深度学习的自适应尺度的微磁学模拟方法,所述方法包括:
基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,所述改进Unet神经网络模型除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;
基于所述有效磁场对所述微小磁性体积元进行稳态预测。
可选地,所述基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场的步骤之前,还包括:
构建尺度为[32n,32n,3]的自旋磁矩和对应的退磁场的仿真数据集;
对所述仿真数据集进行归一化处理后,添加高斯噪声,得到预训练数据集;
将所述仿真数据集中尺度满足[32,32,3]的第一目标数据作为模型的输入和标签对带有Unet架构的神经网络模型进行预训练;
在预训练完成后,冻结所述神经网络模型中的除第一层和最后一层以外的所有层的参数;
从所述预训练数据集中随机选择预设数量的第二目标数据进行微调,得到训练好的所述神经网络模型,所述第二目标数据的尺度满足[32n,32n,3],n≥1;
将所述训练好的神经网络模型嵌入到预设物理模型中,得到所述改进Unet神经网络模型。
可选地,所述仿真数据集中的数据从初始随机自选状态演化到自选磁稳态,每个尺度的数据均模拟运行10000*Δt周期,其中Δt为预设的更新自旋状态的时间步长。
可选地,所述改进Unet神经网络模型中编码器的第一个下采样模块由一个二维卷积层构成,其中,所述二维卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。
可选地,所述改进Unet神经网络模型中编码器的其余下采样模块中的二维卷积层的参数配置为kernel为4×4,padding为1,stride为2。
可选地,所述改进Unet神经网络模型中解码器的上采样块使用二维反卷积层进行上采样,且配置参数与对应的下采样模块中的二维卷积层一致。
此外,为实现上述目的,本发明还提供一种融合模型,所述融合模型包括:
改进Unet神经网络模型,用于基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
物理模型,用于获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;以及用于基于所述有效磁场对所述微小磁性体积元进行稳态预测。
可选地,所述改进Unet神经网络模型包括:
编码器,所述编码器的第一个下采样模块由一个二维卷积层构成,所述二维卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1,其余下采样模块中的二维卷积层的参数配置为kernel为4×4,padding为1,stride为2;
解码器,所述解码器的上采样块使用二维反卷积层进行上采样,且配置参数与对应的下采样模块中的二维卷积层一致。
此外,为实现上述目的,本发明还提供一种基于深度学习的自适应尺度的微磁学模拟系统,所述基于深度学习的自适应尺度的微磁学模拟系统包括:融合模型、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于深度学习的自适应尺度的微磁学模拟程序,所述基于深度学习的自适应尺度的微磁学模拟程序被所述处理器执行时实现如上所述的基于深度学习的自适应尺度的微磁学模拟方法的步骤。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有基于深度学习的自适应尺度的微磁学模拟程序,所述基于深度学习的自适应尺度的微磁学模拟程序被处理器执行时实现如上所述的基于深度学习的自适应尺度的微磁学模拟方法的步骤。
本发明至少具备以下技术效果:
1、使用Unet神经网络预测退磁场,取代传统的退磁场计算方式FFT,算法的时间复
杂度从计算变为计算O(logN),达到加速计算的目的;
2、与传统Unet网络架构相比,提出的改进Unet神经网络模型,在模型首层采用了动态设计。即,在模型训练完成后,除首尾层之外的所有层参数被冻结,而首层参数保持可调。通过这种设计,在预测阶段,仅需对首层进行少量数据集的预调整,便可使其参数自动适配目标尺度,从而在减少计算量和模型参数的同时,保持学习到的规律不变,确保预测的准确性;
3、在处理大尺度系统的问题上,引入自适应尺度的模型结构和训练方法,解决传统计算方式在面对大尺度计算时指数爆炸的问题。
附图说明
图1为本发明实施例涉及的基于深度学习的自适应尺度的微磁学模拟系统的硬件运行环境的架构示意图;
图2为本发明基于深度学习的自适应尺度的微磁学模拟方法的第一实施例的流程示意图;
图3为本发明实施例涉及的实验结果RGB图像示意图;
图4为本发明实施例涉及的实验结果的矢量图展示示意图;
图5为本发明实施例涉及的输入、输出以及真实的矢量图对比示意图;
图6为本发明实施例涉及的融合模型的执行流程示意图;
图7为本发明基于深度学习的自适应尺度的微磁学模拟方法的第二实施例的流程示意图;
图8为本发明实施例涉及的融合模型的架构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图作进一步说明。
具体实施方式
为了更好地理解上述技术方案,下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整地传达给本领域的技术人员。
作为一种实现方案,图1为本发明实施例方案涉及的基于深度学习的自适应尺度的微磁学模拟系统的硬件运行环境的架构示意图。
如图1所示,该基于深度学习的自适应尺度的微磁学模拟系统可以包括:处理器1001,例如CPU,存储器1005,用户接口1003,网络接口1004,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的基于深度学习的自适应尺度的微磁学模拟系统架构并不构成对基于深度学习的自适应尺度的微磁学模拟系统的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及基于深度学习的自适应尺度的微磁学模拟程序。其中,操作系统是管理和控制基于深度学习的自适应尺度的微磁学模拟系统的硬件和软件资源的程序,基于深度学习的自适应尺度的微磁学模拟程序以及其他软件或程序的运行。
在图1所示的基于深度学习的自适应尺度的微磁学模拟系统中,用户接口1003主要用于连接终端,与终端进行数据通信;网络接口1004主要用于后台服务器,与后台服务器进行数据通信;处理器1001可以用于调用存储器1005中存储的基于深度学习的自适应尺度的微磁学模拟程序。
在本实施例中,基于深度学习的自适应尺度的微磁学模拟系统包括:存储器1005、处理器1001及存储在所述存储器上并可在所述处理器上运行的基于深度学习的自适应尺度的微磁学模拟程序,其中:
处理器1001调用存储器1005中存储的基于深度学习的自适应尺度的微磁学模拟程序时,执行以下操作:
基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,所述改进Unet神经网络模型除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;
基于所述有效磁场对所述微小磁性体积元进行稳态预测。
基于上述深度学习技术的基于深度学习的自适应尺度的微磁学模拟系统的硬件架构,提出本发明基于深度学习的自适应尺度的微磁学模拟方法的实施例。
第一实施例
微磁学中的主要方程是微磁学方程(Micromagnetic Equation),通常是通过对麦克斯韦方程组的适当缩减和近似推导得到的。其中,微磁学中最为重要和广泛应用的方程之一是Landau-Lifshitz-Gilbert (LLG) 方程。
LLG方程是描述磁矩在外部磁场和磁相互作用力下演化的微分方程。一般形式的LLG方程可以写作:
其中:为朗道因子,是磁矩与自旋角动量之比;为有效磁场;为吉尔伯特
耗散参数。
本实施例针对加速有效磁场的计算展开。
有效磁场是由外部磁场(),交换场(),各向异性场(),退磁场()组成。即:
其中,外磁场()指的是施加在磁性材料上的外部磁场,通常是实验中通过磁铁
或电磁铁产生的;
交换场()指的是源自电子自旋之间的交换相互作用;
各向异性场()指的是磁这个场来源于材料内部的晶体结构,某些晶体方向
上的磁能较低,使得磁矩倾向于沿这些易磁化轴(称为磁各向异性轴)排列;
退磁场()指的是退磁场或偶极-偶极相互作用,是由磁矩产生的磁场在空
间中的分布;
其中,各个场的计算公式如下:
①,其中,是各向异性能常数,是各向异性轴方向,是第
个磁矩的自旋。
②,其中 是交换积分,和分别是近邻磁矩的自旋。
③,其中是真空磁导率,是磁矩之间的位矢。
对于的计算,由于需要与周边所有的磁化单元都进行一遍计算,算法的时
间复杂度较大,所以的计算量占整个LLG方程计算的绝大部分,FFT的引入虽在一定
程度上缓解了这一问题,但在处理大尺度系统时,计算资源仍是一大挑战。
参照图2,在第一实施例中,所述基于深度学习的自适应尺度的微磁学模拟方法包括以下步骤:
步骤S10,基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,所述改进Unet神经网络模型除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
在本实施例中,将材料分割成微小磁性体积元,然后基于预训练好的改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场。
区别于传统的Unet架构,针对大尺度计算难题和不同尺度数据的适用性问题,并采用自适应尺度数据进行微调。特别地本实施例中的改进Unet神经网络模型除首尾层之外的所有层参数被冻结,且首层参数保持可调,此外,首层和尾层均设计为动态卷积和反卷积,动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,反卷积用于上采样恢复图像尺度。
需要说明的是,通过这种设计,在预测阶段,仅需对首层进行少量数据集的预调整,便可使其参数自动适配目标尺度,从而在减少计算量和模型参数的同时,保持学习到的规律不变,确保预测的准确性。
可选地,在本实施例中,改进Unet神经网络模型中的编码器的第一个下采样模块由一个二维卷积层构成,其中,所述二维卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。编码器的其余下采样模块中的二维卷积层的参数配置为kernel为4×4,padding为1,stride为2。紧接着是批量归一化层和激活层(采用LeakyReLU,斜率α=0.2)。
需要说明的是,下采样的主要目的是逐渐减小图像的空间维度(即尺寸),同时增加特征通道的数量,从而允许模型捕获更高层次的抽象特征。批量归一化和LeakyReLU的使用有助于减少模型对输入数据的依赖,提高模型的泛化能力和稳定性,防止过拟合。
可选地,改进Unet神经网络模型中解码器的上采样块使用二维反卷积层进行上采样,且配置参数与对应的下采样模块中的二维卷积层一致。
在本实施例中,解码器的上采样块采用与编码器末端相反的构造方式,使用二维反卷积层(Conv2DTranspose)进行上采样,参数设置与对应的下采样模块保持一致,以确保能够正确重建图像的尺寸。紧随其后的是批量归一化层和ReLU激活层。上采样的目标是逐步恢复图像的空间维度,从而重建图像或特征图的全尺寸版本。通过反卷积操作增加图像的尺寸,同时减少特征通道的数量,以适配原始输入图像的尺寸和深度。批量归一化和ReLU激活层的使用有助于维持数据的稳定性和非线性,促进了详细特征的精确恢复。
对于二维图像,卷积操作可以表示为输入图像与卷积核之间的操作。给定一个输
入图像 I和一个卷积核,卷积操作的输出在位置(x,y)可以表示为:
其中,m和n分别是卷积核 K在x和 y方向上的偏移量,a和b是卷积核 K尺寸的一半。这里假设卷积核K的中心位于 (0,0)。代入到网络中
ints: 输入数据的宽度或高度;
ks: 卷积核或池化窗口的宽度或高度;
pad:对输入数据边缘的填充量,用于控制输出尺寸;
stride: 卷积核或池化窗口滑动的步长;
outs: 经过操作后的输出数据的宽度或高度。
ReLU(Rectified Linear Unit)激活函数是深度学习中最常用的非线性激活函数
之一,主要用于增加网络的非线性特性而不影响卷积层内部的稀疏表示能力。ReLU的数学
表达式定义为:
步骤S20,获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;
步骤S30,基于所述有效磁场对所述微小磁性体积元进行稳态预测。
在本实施例中,微小磁性体积元的退磁场为基于深度学习得到的预测值,而用于计算有效磁场的外部磁场、交换场和各向异性场,均与常规计算方式无异,具体计算公式参看前述部分。获取微小磁性体积元的外部磁场、交换场和各向异性场,将预测的退磁场,与外部磁场、交换场和各向异性场进行相加,即可得到微小磁性体积元的有效磁场,根据计算得到的有效磁场进行后续的稳态预测,从而实现微磁学模拟。
示例性地,为了验证上述架构模型的具体实施效果,下面给出一具体实施方式中的实验数据进行验证:
实验一:通过RGB三通道的色彩显色原理对数据进行了归一化处理,从而得到了如图3所示的实验结果RGB图像示意图。本实验随机选取了10个不同尺度的数据进行测试。结果展示分为三行:第一行展示的是不同尺度的磁矩(spin)输入数据;第二行显示的是与第一行磁矩相对应的Hd(退磁场)的真实值标签;第三行则是我们的模型对Hd的预测结果。从结果中可以明显看出,我们的模型在Hd的预测上与真实值高度一致,几乎无法辨识出任何差异。
实验二:参照图4示出的关于实验结果的矢量图展示示意图,每个表示点都是由一个小箭头构成,这些小箭头的指向代表了磁场的真实方向,与RGB图像结果相同,实验数据同样分为三行展示:第一行为不同尺度的磁矩(spin)输入(即图中标出的input1-9);第二行为这些磁矩输入对应的Hd真实值标签(即图中标出的output1-9);第三行则展示了我们模型的Hd预测结果(即图中标出的Lable1-9),这种高度精确的模拟效果证明了我们模型在预测Hd值方面的出色性能,预测值与真实值之间的差异几乎不可见。
实验三:参照图5示出的输入(input)、输出(output)以及真实(label)的矢量图对比示意图。在第一列,我们看到的是未经归一化的原始矢量图,显示了input、output和label的初始状态。第二列是相应矢量图经过归一化处理后的结果,通过归一化,数据的局部极值得到抑制,增强了整体的鲁棒性。最右侧的第三列展示了经过归一化的数据的热图,深色区域表示归一化前后差异较小,相似度较高,而亮色区域则突显出数据特征较为显著的位置,可以看到,模型在预测Hd值方面的出色性能,预测值与真实值之间的差异几乎不可见。
示例性地,参照图6示出的融合模型的执行流程示意图,为磁矩,有效磁场由外
部磁场(),交换场(),各向异性场(),退磁场()组成。即:
其中,外磁场()指的是施加在磁性材料上的外部磁场,通常是实验中通过磁铁
或电磁铁产生的,其他各个场的计算公式如下:
①,其中,是各向异性能常数,是各向异性轴方向,是第
个磁矩的自旋。
②,其中 是交换积分,和分别是近邻磁矩的自旋。
③,其中是真空磁导率,是磁矩之间的位矢。
对于的计算,由于需要与周边所有的磁化单元都进行一遍计算,所以的计算量占整个LLG方程计算的绝大部分,因此引入自适应尺度的Unet神经网络(即
Adapt Unet)来替换传统的FFT计算,从而减少整个磁动力学过程模拟所花的时间。
在得到有效磁场之后,将磁矩和有效磁场代入函数中,得到 ,
接下来计算,其中d是对时间的微分,是时刻t的微磁学自旋模拟状态。
计算与的差来判断是否达到阈值,若没达到则继续输入融合模型,直至达到稳态。
第二实施例
参照图7,基于第一实施例,在本实施例中,在步骤S10之前,本实施例中给出一种对改进Unet神经网络模型进行预训练的方法,具体包括:
步骤S100,构建尺度为[32n,32n,3]的自旋磁矩和对应的退磁场的仿真数据集;
在本实施例中,为了训练具有泛化性的模型,划分了尺度为 32 的数据集用于预训练模型。验证数据集用于在训练期间评估模型在未见数据上的性能,以确保模型可以通过学习数据结构中的全局概念来泛化,并且不会过度拟合到训练数据集。
步骤S200,对所述仿真数据集进行归一化处理后,添加高斯噪声,得到预训练数据集;
在本实施例中,对生成的数据进行了归一化处理,以确保模型的稳定性和收敛性。此外,为了增加模型的鲁棒性和泛化能力,我们还向输入数据中添加了高斯噪声。这种噪声模拟了实际环境中存在的各种干扰和噪声,使模型能够更好地适应不同的数据分布和噪声条件。
添加高斯噪声的公式为:
其中,是添加了高斯噪声后的输入数据,是原始输入数据,是来自高斯分
布的随机噪声。
步骤S300,将所述仿真数据集中尺度满足[32,32,3]的第一目标数据作为模型的输入和标签对带有Unet架构的神经网络模型进行预训练;
在本实施例中,使用小尺度的[32,32,3]的第一目标数据作为模型的输入和标签进行训练。通过对模型进行多轮迭代的训练,我们使其逐渐学习并优化其参数,以最小化预测值与实际值之间的误差。同时,我们使用验证集对模型进行验证,以评估其泛化能力和性能,并及时调整模型的超参数以提高其准确性和鲁棒性。
步骤S400,在预训练完成后,冻结所述神经网络模型中的除第一层和最后一层以外的所有层的参数;
步骤S500,从所述预训练数据集中随机选择预设数量的第二目标数据进行微调,得到训练好的所述神经网络模型,所述第二目标数据的尺度满足[32n,32n,3],n≥1;
在本实施例中,冻结除神经网络模型的第一层和最后一层以外的所有层的参数。这样做是为了保持模型的底层特征提取能力不变,同时允许模型在新尺度下进行微调。
通过在这些数据上进行微调,我们使得模型能够适应目标尺度的自旋数据,并调整模型的参数以最大程度地提高预测准确性和泛化能力。
步骤S600,将所述训练好的神经网络模型嵌入到预设物理模型中,得到所述改进Unet神经网络模型。
最后,将训练好的神经网络模型嵌入到物理模型中,构建了一个融合模型,得到改进Unet神经网络模型。这个融合模型综合了神经网络模型和传统物理模型的优势,能够更准确地预测微磁学中的磁畴结构和行为。
示例性地,参照图8,图8示出本实施例涉及的融合模型的架构示意图,该架构中,采用微磁学传统方法生成了一个覆盖不同尺度自旋状态的仿真数据集,该仿真数据集的尺度范围从32开始,以32的倍数递增,每个尺度的数据在对应的下采样层或上采样层中模拟运行10000*Δt周期,其中Δt为预设的更新自旋状态的时间步长,在该架构中,冻结除神经网络模型的第一层和最后一层的上/下采样层以外的所有层的参数,以保持模型的底层特征提取能力不变,同时允许模型在新尺度下进行微调。
然后,我们从目标尺度的自旋数据中随机选择了预设数量为5对的数据用于微调。这些数据对应着不同尺度下的自旋状态和退磁场情况。
进一步的,在该架构还包括下采样模块和上采样模块,下采样模块包括线性整流激活ReLU(Rectified Linear Unit)函数、2D卷积层和批量归一化2D层。其中,ReLU函数用于增加网络的非线性特性而不影响卷积层内部的稀疏表示能力。ReLU的斜率α=0.2;
第一层2D卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。其余下采样模块中的2D卷积层的参数配置为kernel为4×4,padding为1,stride为2。紧接着是批量归一化层。
上采样模块包括:线性整流激活ReLU(Rectified Linear Unit)函数、2D反卷积层、批量归一化2D层和随机失活层。
其中,2D反卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。下采样模块中的其他2D反卷积层的参数配置为kernel为4×4,padding为1,stride为2。
第三实施例
此外,基于上述任一实施例,本实施例中还提出一种融合模型,所述融合模型包括:
改进Unet神经网络模型,用于基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
物理模型,用于获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;以及用于基于所述有效磁场对所述微小磁性体积元进行稳态预测。
可选地,所述改进Unet神经网络模型包括编码器,所述编码器的第一个下采样模块由一个二维卷积层构成,所述二维卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1,其余下采样模块中的二维卷积层的参数配置为kernel为4×4,padding为1,stride为2;
可选地,所述改进Unet神经网络模型包括解码器,所述解码器的上采样块使用二维反卷积层进行上采样,且配置参数与对应的下采样模块中的二维卷积层一致。
示例性地,参照图8,图8示出本实施例涉及的融合模型的架构示意图,该架构中,采用微磁学传统方法生成了一个覆盖不同尺度自旋状态的仿真数据集,该仿真数据集的尺度范围从32开始,以32的倍数递增,每个尺度的数据在对应的下采样层或上采样层中模拟运行10000*Δt周期,其中Δt为预设的更新自旋状态的时间步长,在该架构中,冻结除神经网络模型的第一层和最后一层的上/下采样层以外的所有层的参数,以保持模型的底层特征提取能力不变,同时允许模型在新尺度下进行微调。
然后,我们从目标尺度的自旋数据中随机选择了预设数量为5对的数据用于微调。这些数据对应着不同尺度下的自旋状态和退磁场情况。
进一步的,在该架构还包括下采样模块和上采样模块,下采样模块包括线性整流激活ReLU(Rectified Linear Unit)函数、2D卷积层和批量归一化2D层。其中,ReLU函数用于增加网络的非线性特性而不影响卷积层内部的稀疏表示能力。ReLU的斜率α=0.2;
第一层2D卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。其余下采样模块中的2D卷积层的参数配置为kernel为4×4,padding为1,stride为2。紧接着是批量归一化层。
上采样模块包括:线性整流激活ReLU(Rectified Linear Unit)函数、2D反卷积层、批量归一化2D层和随机失活层。
其中,2D反卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。下采样模块中的其他2D反卷积层的参数配置为kernel为4×4,padding为1,stride为2。
此外,本领域普通技术人员可以理解的是实现上述实施例的方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成。该计算机程序包括程序指令,计算机程序可以存储于一存储介质中,该存储介质为计算机可读存储介质。该程序指令被基于深度学习的自适应尺度的微磁学模拟系统中的至少一个处理器执行,以实现上述方法的实施例的流程步骤。
因此,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质存储有基于深度学习的自适应尺度的微磁学模拟程序,所述基于深度学习的自适应尺度的微磁学模拟程序被处理器执行时实现如上实施例所述的基于深度学习的自适应尺度的微磁学模拟方法的各个步骤。
其中,所述计算机可读存储介质可以是U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、磁碟或者光盘等各种可以存储程序代码的计算机可读存储介质。
需要说明的是,由于本申请实施例提供的存储介质,为实施本申请实施例的方法所采用的存储介质,故而基于本申请实施例所介绍的方法,本领域所属人员能够了解该存储介质的具体结构及变形,故而在此不再赘述。凡是本申请实施例的方法所采用的存储介质都属于本申请所欲保护的范围。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框,以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一,第二,以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变形在内。
Claims (10)
1.一种基于深度学习的自适应尺度的微磁学模拟方法,其特征在于,所述方法包括以下步骤:
基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,所述改进Unet神经网络模型除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;
基于所述有效磁场对所述微小磁性体积元进行稳态预测。
2.如权利要求1所述的方法,其特征在于,所述基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场的步骤之前,还包括:
构建尺度为[32n,32n,3]的自旋磁矩和对应的退磁场的仿真数据集;
对所述仿真数据集进行归一化处理后,添加高斯噪声,得到预训练数据集;
将所述仿真数据集中尺度满足[32,32,3]的第一目标数据作为模型的输入和标签对带有Unet架构的神经网络模型进行预训练;
在预训练完成后,冻结所述神经网络模型中的除第一层和最后一层以外的所有层的参数;
从所述预训练数据集中随机选择预设数量的第二目标数据进行微调,得到训练好的所述神经网络模型,所述第二目标数据的尺度满足[32n,32n,3],n≥1;
将所述训练好的神经网络模型嵌入到预设物理模型中,得到所述改进Unet神经网络模型。
3.如权利要求2所述的方法,其特征在于,所述仿真数据集中的数据从初始随机自选状态演化到自选磁稳态,每个尺度的数据均模拟运行10000*Δt周期,其中Δt为预设的更新自旋状态的时间步长。
4.如权利要求1或3所述的方法,其特征在于,所述改进Unet神经网络模型中编码器的第一个下采样模块由一个二维卷积层构成,其中,所述二维卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1。
5.如权利要求4所述的方法,其特征在于,所述改进Unet神经网络模型中编码器的其余下采样模块中的二维卷积层的参数配置为kernel为4×4,padding为1,stride为2。
6.如权利要求5所述的方法,其特征在于,所述改进Unet神经网络模型中解码器的上采样块使用二维反卷积层进行上采样,且配置参数与对应的下采样模块中的二维卷积层一致。
7.一种融合模型,其特征在于,所述融合模型包括:
改进Unet神经网络模型,用于基于改进Unet神经网络模型,预测被材料分割得到的微小磁性体积元的退磁场,其中,除首尾层之外的所有层参数被冻结,且首层参数保持可调,首层和尾层均设计为动态卷积和反卷积,所述动态卷积用于动态调整参数和步长来增强模型的感受野同时保留边缘信息,所述反卷积用于上采样恢复图像尺度;
物理模型,用于获取所述微小磁性体积元的外部磁场、交换场和各向异性场,并基于预测的所述退磁场、所述外部磁场、所述交换场和所述各向异性场,计算所述微小磁性体积元的有效磁场;以及用于基于所述有效磁场对所述微小磁性体积元进行稳态预测。
8.如权利要求7所述的融合模型,其特征在于,所述改进Unet神经网络模型包括:
编码器,所述编码器的第一个下采样模块由一个二维卷积层构成,所述二维卷积层的参数配置为:kernel为2*n+2,stride为2*n,以及padding为1,其余下采样模块中的二维卷积层的参数配置为kernel为4×4,padding为1,stride为2;
解码器,所述解码器的上采样块使用二维反卷积层进行上采样,且配置参数与对应的下采样模块中的二维卷积层一致。
9.一种基于深度学习的自适应尺度的微磁学模拟系统,其特征在于,所述基于深度学习的自适应尺度的微磁学模拟系统包括:融合模型、存储器、处理器及存储在所述存储器上并可在所述处理器上运行的基于深度学习的自适应尺度的微磁学模拟程序,所述基于深度学习的自适应尺度的微磁学模拟程序被所述处理器执行时实现如权利要求1至6中任一项所述的基于深度学习的自适应尺度的微磁学模拟方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有基于深度学习的自适应尺度的微磁学模拟程序,所述基于深度学习的自适应尺度的微磁学模拟程序被处理器执行时实现如权利要求1至6中任一项所述的基于深度学习的自适应尺度的微磁学模拟方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410670504.8A CN118246349B (zh) | 2024-05-28 | 2024-05-28 | 基于深度学习的自适应尺度的微磁学模拟方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410670504.8A CN118246349B (zh) | 2024-05-28 | 2024-05-28 | 基于深度学习的自适应尺度的微磁学模拟方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118246349A CN118246349A (zh) | 2024-06-25 |
CN118246349B true CN118246349B (zh) | 2024-07-19 |
Family
ID=91559211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410670504.8A Active CN118246349B (zh) | 2024-05-28 | 2024-05-28 | 基于深度学习的自适应尺度的微磁学模拟方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118246349B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112582530A (zh) * | 2019-09-30 | 2021-03-30 | 中国科学院苏州纳米技术与纳米仿生研究所 | 基于磁性隧道结的神经元器件 |
CN113505509A (zh) * | 2021-07-08 | 2021-10-15 | 河北工业大学 | 基于改进U-net的电机磁场高精度预测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5556882B2 (ja) * | 2010-03-18 | 2014-07-23 | 富士通株式会社 | 磁性体のシミュレーション方法及びプログラム |
CN117406146A (zh) * | 2023-09-25 | 2024-01-16 | 杭州电子科技大学 | 一种基于深度学习的磁场检测方法 |
-
2024
- 2024-05-28 CN CN202410670504.8A patent/CN118246349B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112582530A (zh) * | 2019-09-30 | 2021-03-30 | 中国科学院苏州纳米技术与纳米仿生研究所 | 基于磁性隧道结的神经元器件 |
CN113505509A (zh) * | 2021-07-08 | 2021-10-15 | 河北工业大学 | 基于改进U-net的电机磁场高精度预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN118246349A (zh) | 2024-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111386536B (zh) | 语义一致的图像样式转换的方法和系统 | |
CN102156875B (zh) | 基于多任务ksvd字典学习的图像超分辨率重构方法 | |
WO2020113355A1 (en) | A content adaptive attention model for neural network-based image and video encoders | |
CN111833237B (zh) | 基于卷积神经网络和局部单应性变换的图像配准方法 | |
US20200210755A1 (en) | Method of classification of images among different classes | |
He et al. | Diff-font: Diffusion model for robust one-shot font generation | |
CN111680162B (zh) | 基于张量分解的知识图谱嵌入方法、系统及设备 | |
Wang et al. | Building correlations between filters in convolutional neural networks | |
CN116883545A (zh) | 基于扩散模型的图片数据集扩充方法、介质及设备 | |
CN114913436A (zh) | 基于多尺度注意力机制的地物分类方法、装置、电子设备及介质 | |
CN114820303A (zh) | 低清图像重建超分辨率人脸图像的方法、系统及存储介质 | |
CN113962192B (zh) | 汉字字体生成模型的生成方法、汉字字体生成方法及装置 | |
CN117493486B (zh) | 基于数据重放的可持续金融事件抽取系统及方法 | |
CN118246349B (zh) | 基于深度学习的自适应尺度的微磁学模拟方法 | |
CN117392293A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN107818327A (zh) | 分类器训练方法及装置 | |
US20240211725A1 (en) | A Quantum Neural Network for Noisy Intermediate Scale Quantum Devices | |
CN114170276A (zh) | 一种磁共振脑图像海马配准方法 | |
US9818167B2 (en) | Multi-grid method and apparatus using V cycle | |
CN111209674B (zh) | 一种河道砂建模方法、设备及可读存储介质 | |
CN107622037A (zh) | 一种提高图形处理单元的矩阵乘计算性能的方法和装置 | |
CN114140317A (zh) | 一种基于级联生成对抗网络的图像动漫化方法 | |
Li et al. | Algorithm for Generating Tire Defect Images Based on RS-GAN | |
Liu et al. | Stylized image resolution enhancement scheme based on an improved convolutional neural network in cyber‐physical systems | |
Haisheng et al. | QR Code Style Transfer Method Based on Conditional Instance Regularization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |