CN117829048A - 基于神经网络的数据插值方法、系统、设备及介质 - Google Patents
基于神经网络的数据插值方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN117829048A CN117829048A CN202311780603.3A CN202311780603A CN117829048A CN 117829048 A CN117829048 A CN 117829048A CN 202311780603 A CN202311780603 A CN 202311780603A CN 117829048 A CN117829048 A CN 117829048A
- Authority
- CN
- China
- Prior art keywords
- neural network
- data
- network model
- training
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 33
- 238000003062 neural network model Methods 0.000 claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 66
- 239000011159 matrix material Substances 0.000 claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000003860 storage Methods 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 10
- 230000006399 behavior Effects 0.000 claims description 9
- 238000003491 array Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000005669 field effect Effects 0.000 description 2
- 230000005477 standard model Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011960 computer-aided design Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000012212 insulator Substances 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/32—Circuit design at the digital level
- G06F30/33—Design verification, e.g. functional simulation or model checking
- G06F30/3308—Design verification, e.g. functional simulation or model checking using simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Complex Calculations (AREA)
Abstract
本发明公开一种基于神经网络的数据插值方法、系统、设备及介质,所述方法包括以下步骤:获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,得到训练好的神经网络模型;基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势,提高模型精度和效率。
Description
技术领域
本发明属于集成电路计算机辅助设计技术领域,尤其涉及一种基于神经网络的数据插值方法、系统、设备及介质。
背景技术
在器件模型参数提取过程中,器件(device)数据可能是非满阵分布,为了获取平滑的目标趋势(targettrend),需要利用数据插值方法来处理数据点缺失或者稀疏的情况。数据插值是利用已知数据点之间的关系来估计缺失数据点的值,传统的数据插值方法如线性插值在处理较为复杂或非线性的数据时效果不佳,存在精度低,效率不高等问题。
发明内容
本发明的目的是提供一种基于神经网络的数据插值方法、系统、设备及介质,解决传统数据插值方法所具有的精度低,复杂性高的缺陷,并且可适用于不同厂商的不同工艺线下的多种数据类型,同时还可加入器件模型的物理约束,使得插值结果更加合理,从而获取更加符合物理的目标趋势。
本发明提供了一种基于神经网络的数据插值方法,包括以下步骤:
获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;
构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;
将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;
根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;
基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势。
作为优选地,每个器件包含自身的长和宽(L,W),两个或两个以上的不同L和不同W构成WL平面上的阵列,A个L,B个W构成A*B的WL阵列对应于A*B个不同的W、L组合所述器件的满阵状态;非满阵状态则指不同组合位置上数据存在缺失或稀疏。
作为优选地,所述目标数据集是基于满阵器件电学特征量和器件尺寸构建形成的数据集。
作为优选地,当满阵器件有K*J个不同的WL尺寸组合,N个不同的器件电学特征量,则所述目标数据集的样本总数量为K*J*N。
作为优选地,所述目标数据集包括但不限于:器件的阈值电压、最大跨导、线性区漏/端电流、饱和区漏/端电流、关态电流及描述不同器件性能的电学特征量。
作为优选地,所述获取目标数据集作为训练样本进一步包括:将获取到的原始数据集进行数据预处理操作以提高训练结果的正确性,所述数据预处理操作至少包括数据清洗和归一化操作。
作为优选地,所述得到训练好的神经网络模型之前包括:
输入训练集并基于梯度下降/随机梯度下降算法对神经网络模型进行第一次优化训练,得到一次优化后的神经网络模型;
基于梯度下降/随机梯度下降算法对神经网络模型进行第n次优化训练,迭代更新得到n次优化后的神经网络模型;
将验证集输入到优化后的神经网络模型中调整模型的隐含层层数,并通过计算可靠度数据的均方根误差来评估优化后的神经网络模型并进一步优化更新;
将测试集输入经训练和验证的优化后的神经网络模型中进行可靠度预测,并进行误差比对,评估模型的预测能力;
其中,所述目标数据集按预设比例划分为训练集、测试集和验证集。
本发明提供了一种基于神经网络的数据插值系统,包括:
数据获取模块,用于获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;
模型构建模块,用于构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;
矩阵划分模块,用于将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;
模型训练模块,用于根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;
插值处理模块,用于基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势。
基于相同的构思,本发明还提供一种电子设备,其特征在于,包括:存储器,所述存储器用于存储处理程序;处理器,所述处理器执行所述处理程序时实现上述任意一项所述的基于神经网络的数据插值方法。
基于相同的构思,本发明还提供一种可读存储介质,其特征在于,所述可读存储介质上存储有处理程序,所述处理程序被处理器执行时实现上述任意一项所述的基于神经网络的数据插值方法。
与现有技术相比,本申请具有如下的有益效果:
本所提供的基于神经网络的数据插值方法通过训练神经网络模型来学习不同器件的目标数据点之间的关系,并利用该神经网络模型对器件缺失或稀疏的器件对应的目标数据点进行插值,最终获得更符合器件物理行为和工艺特征的目标趋势。具体包括如下优点:
1、提高插值的准确性:通过训练神经网络模型,能够学习device(器件)数据点之间的复杂关系,从而提高插值的合理性。
2、适应性强:神经网络能够自动适应不同厂商的不同工艺线下的多种数据类型,具有较强的泛化能力。
3、计算效率高:对于大量的数据插值操作,可通过并行计算和优化算法,提高效率。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细说明,其中:
图1为本发明实施例中基于神经网络的数据插值方法流程图;
图2为本发明实施例中神经网络模型示例图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少区域地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如图1所示,本实施例提供本申请所提供的技术方案为:一种基于神经网络的数据插值方法,可以用于各种集成电路器件和对应的器件模型。在一些实施例中,集成电路器件是选自下述组中的一种器件:MOSFET晶体管、SOI(绝缘体上硅)晶体管、FinFET(鳍式场效应晶体管)晶体管、BJT(双极性)晶体管、HBT(异质结)晶体管、TFT(薄膜晶体管)晶体管、MESFET(金属半导体接触场效应晶体管)晶体管、二极管、电阻或电感等;器件模型可以是选自下述组中的一种器件模型:BSIM3、BSIM4、BSIM6、BSIM-CMG、BSIM-IMG、BSIMSOI、UTSOI、HiSIM2、HiSIM_HV、PSP、GP-BJT或RPITFT。例如,对于MOSFET晶体管,其对应的器件模型可以是BSIM3、BSIM4、BSIM6或其他已知的标准模型或非标准模型。其中,上述器件模型仅仅是示例性的,在实际应用中,可以根据需要选择与集成电路器件对应的模型。
MOSFET晶体管是集成电路中最常用的器件之一,因此在本申请下面的实施例中,均以集成电路器件为MOSFET晶体管为例进行说明。但是本领域技术人员可以理解,本申请的应用并不限于此。
本发明实施例在选取确定适用的器件模型之后,对基于神经网络的数据插值方法包括以下步骤:
S1:获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;所述目标数据集是基于满阵器件电学特征量和器件尺寸构建形成的数据集。将获取到的原始数据集进行数据预处理操作以提高训练结果的正确性,所述数据预处理操作至少包括数据清洗和归一化操作。所述目标数据集包括但不限于:器件的阈值电压、最大跨导、线性区漏/端电流、饱和区漏/端电流、关态电流及描述不同器件性能的电学特征量。
S2:构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;构建合适的神经网络模型,首先设置神经网络层数,包括输入层、隐藏层和输出层,如下图2所示,然后设定模型采用的寻解方法,即优化器,并指定计算资源。
S3:将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;例如,数据网格划分:将维度m*n的满阵样本切分为(m-2)*(n-2)的3*3小矩阵。
S4:根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;例如以3*3小矩阵为单元,分别对每个目标数据训练神经网络,拟合目标数据趋势特征,由于插点的数量和位置不统一,每种数量或位置单独训练一个网络。不满阵状态下的器件预测时,在切分3*3小矩阵后,根据规则由易到难,逐渐预测填充。以2*2阵列为例:阵列的满阵状态是四个不同的WL组合,那么缺失越多的情况越难处理,最容易处理的情况是:只缺一个组合位置上的数据。依此类推,2*3、3*3乃至m*n阵列也是类似方法。在一个复杂的阵列中,内部每个WL组合都可以看作是一个阵列的节点。有以下几种情况:A四个角上的节点只属于其所在的单位阵列,如2*2的情况;B外围四条边上的节点,即四个角除外分属于相邻两个单位阵列;C内部节点,即除边角位置以外都是分属于四个相邻的单位阵列。
S5:基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势,提高插值的准确性。本实施基于神经网络模型去预测不同厂商的不同工艺线下的多种数据类型,提高插值结果的合理性。
本实施所提供的基于神经网络的数据插值方法,通过训练神经网络模型来学习不同器件的目标数据点之间的关系,并利用该神经网络模型对器件缺失或稀疏的器件中对应的目标数据点进行插值,最终获得更符合器件物理行为和工艺特征的目标趋势。
具体地,每个器件包含自身的长和宽(L,W),两个或两个以上的不同L和不同W构成WL平面上的阵列,A个L,B个W构成A*B的WL阵列对应于A*B个不同的W、L组合所述器件的满阵状态;非满阵状态则指不同组合位置上数据存在缺失或稀疏。比如2个L,2个W就可以构成2*2的WL阵列对应于四个不同的W、L组合,即本实施例所述的满阵状态,也就是要对每种W、L组合都有一个器件;如果有缺失,就是不满阵。以2*2WL阵列为例,我们最少只需要两个器件就可以决定阵列的规模/满阵时的全部WL组合。
一种实施例中,当满阵器件有K*J个不同的WL尺寸组合,N个不同的器件电学特征量,则所述目标数据集的样本总数量为K*J*N。基于不同的器件电学特征量即不同类型的目标以及器件尺寸构建数据集。如满阵K*J个不同的WL尺寸组合,两个不同的器件电学特征量,如阈值电压、饱和漏电流等,那么数据集规模就会有K*J*2。
一种实施例中,所述得到训练好的神经网络模型之前包括:
输入训练集并基于梯度下降/随机梯度下降算法对神经网络模型进行第一次优化训练,得到一次优化后的神经网络模型;
基于梯度下降/随机梯度下降算法对神经网络模型进行第n次优化训练,迭代更新得到n次优化后的神经网络模型;
将验证集输入到优化后的神经网络模型中调整模型的隐含层层数,并通过计算可靠度数据的均方根误差来评估优化后的神经网络模型并进一步优化更新;
将测试集输入经训练和验证的优化后的神经网络模型中进行可靠度预测,并进行误差比对,评估模型的预测能力;
其中,所述目标数据集按预设比例划分为训练集、测试集和验证集。
本申请的多种实施例中,具体步骤包括:1、改变小矩阵单元维度,训练神经网络模型。2、改变神经网络模型,如前馈神经网络,卷积神经网络、循环神经网络等。3、改变神经网络训练算法,如梯度下降、随机梯度下降算法等。4、针对不同的目标(target)使用不同的loss(损失)函数。5、利用神经网络模型对model参数进行插值。
另一种实施例中,在器件模型参数提取过程中,使用神经网络方法进行数据插值。使用相同的神经网络训练模型,对目标数据,如model、device数据和target数据等进行训练用于数据插值。
基于相同的构思,本发明还提供一种基于神经网络的数据插值系统,包括:数据获取模块,用于获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;模型构建模块,用于构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;矩阵划分模块,用于将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;模型训练模块,用于根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;插值处理模块,用于基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势。
基于相同的构思,本发明还提供一种电子设备,包括:存储器,所述存储器用于存储处理程序;处理器,所述处理器执行所述处理程序时实现上述任意一项所述的基于神经网络的数据插值方法。其中,存储器可以是短暂存储或持久存储。存储在存储介质的程序可以包括一个或一个以上模块,每个模块可以包括对电子设备中的一系列指令操作。更进一步地,处理器可以设置为与存储介质通信,在计算机设备上执行存储介质中的一系列指令操作。
电子设备还可以包括一个或一个以上电源,一个或一个以上有线或无线网络接口,一个或一个以上输入输出接口,和/或,一个或一个以上操作系统,例如WindowsServe,MacOSX,Unix,Linux,FreeBSD等等。
所述计算机可读指令被所述处理器执行时,使得所述处理器执行所述计算机可读指令时实现以下步骤:获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势。
基于相同的构思,在一个实施例中,本发明提出了一种可读存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述,具体步骤在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-onlymemory,ROM)、随机存取存储器(randomaccessmemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
所属领域的技术人员可以清楚地了解到,为描述得方便和简洁,上述描述的系统及设备的具体执行的识别内容,可以参考前述方法实施例中的对应过程。
上面结合附图对本发明的实施方式作了详细说明,但是本发明并不限于上述实施方式。即使对本发明作出各种变化,倘若这些变化属于本发明权利要求及其等同技术的范围之内,则仍落入在本发明的保护范围之中。
Claims (10)
1.一种基于神经网络的数据插值方法,其特征在于,包括以下步骤:
获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;
构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;
将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;
根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;
基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势。
2.根据权利要求1所述的基于神经网络的数据插值方法,其特征在于,每个器件包含自身的长和宽(L,W),两个或两个以上的不同L和不同W构成WL平面上的阵列,A个L,B个W构成A*B的WL阵列对应于A*B个不同的W、L组合所述器件的满阵状态;非满阵状态则指不同组合位置上数据存在缺失或稀疏。
3.根据权利要求1所述的基于神经网络的数据插值方法,其特征在于,所述目标数据集是基于满阵器件电学特征量和器件尺寸构建形成的数据集。
4.根据权利要求1所述的基于神经网络的数据插值方法,其特征在于,当满阵器件有K*J个不同的WL尺寸组合,N个不同的器件电学特征量,则所述目标数据集的样本总数量为K*J*N。
5.根据权利要求1所述的基于神经网络的数据插值方法,其特征在于,所述目标数据集包括但不限于:器件的阈值电压、最大跨导、线性区漏/端电流、饱和区漏/端电流、关态电流及描述不同器件性能的电学特征量。
6.根据权利要求1所述的基于神经网络的数据插值方法,其特征在于,所述获取目标数据集作为训练样本进一步包括:将获取到的原始数据集进行数据预处理操作以提高训练结果的正确性,所述数据预处理操作至少包括数据清洗和归一化操作。
7.根据权利要求1所述的基于神经网络的数据插值方法,其特征在于,所述得到训练好的神经网络模型之前包括:
输入训练集并基于梯度下降/随机梯度下降算法对神经网络模型进行第一次优化训练,得到一次优化后的神经网络模型;
基于梯度下降/随机梯度下降算法对神经网络模型进行第n次优化训练,迭代更新得到n次优化后的神经网络模型;
将验证集输入到优化后的神经网络模型中调整模型的隐含层层数,并通过计算可靠度数据的均方根误差来评估优化后的神经网络模型并进一步优化更新;
将测试集输入经训练和验证的优化后的神经网络模型中进行可靠度预测,并进行误差比对,评估模型的预测能力;
其中,所述目标数据集按预设比例划分为训练集、测试集和验证集。
8.一种基于神经网络的数据插值系统,其特征在于,包括:
数据获取模块,用于获取目标数据集作为训练样本,所述训练样本为维度m*n的满阵状态样本;
模型构建模块,用于构建包含有输入层、隐藏层和输出层依次相连接的神经网络模型;
矩阵划分模块,用于将所述训练样本按照自适应尺度网格划分映射到网格空间中,并对包含所述训练样本的网格进行划分以调整维度,得到划分后的矩阵数据;
模型训练模块,用于根据所述矩阵数据对应的矩阵单元维度对神经网络模型进行训练,拟合目标数据对应的目标趋势特征,获取不同器件的目标数据点之间的关系,得到训练好的神经网络模型;
插值处理模块,用于基于训练好的神经网络模型分别对非满阵状态的器件中对应的目标数据缺失的数据点进行插值操作,最终获得更符合器件物理行为和工艺特征的目标趋势。
9.一种电子设备,其特征在于,包括:
存储器,所述存储器用于存储处理程序;
处理器,所述处理器执行所述处理程序时实现如权利要求1至7中任意一项所述的基于神经网络的数据插值方法。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有处理程序,所述处理程序被处理器执行时实现如权利要求1至7中任意一项所述的集成电路器件模型参数提取的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311780603.3A CN117829048A (zh) | 2023-12-22 | 2023-12-22 | 基于神经网络的数据插值方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311780603.3A CN117829048A (zh) | 2023-12-22 | 2023-12-22 | 基于神经网络的数据插值方法、系统、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117829048A true CN117829048A (zh) | 2024-04-05 |
Family
ID=90507071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311780603.3A Pending CN117829048A (zh) | 2023-12-22 | 2023-12-22 | 基于神经网络的数据插值方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117829048A (zh) |
-
2023
- 2023-12-22 CN CN202311780603.3A patent/CN117829048A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10902173B2 (en) | System for designing integrated circuit using extracted model parameter and method of manufacturing integrated circuit using the same | |
KR102580012B1 (ko) | 충진 분율 복셀 데이터 (fill-fraction voxel data) 로부터 복수 재료 메시 생성을 위한 시스템 및 방법 | |
US10909293B1 (en) | Sampling selection for enhanced high yield estimation in circuit designs | |
US9160280B1 (en) | Memory polynomial based digital predistorter | |
CN112418431A (zh) | 用于混合模型的方法和系统 | |
WO2023207184A1 (zh) | 集成电路器件模型提取参数的数据选取方法、系统及装置 | |
CN111339724A (zh) | 用于生成数据处理模型和版图的方法、设备和存储介质 | |
CN115455745A (zh) | 自适应频点采样的扫频方法、系统及相关设备 | |
CN115017819A (zh) | 一种基于混合模型的发动机剩余使用寿命预测方法及装置 | |
US20220121800A1 (en) | Methods of generating circuit models and manufacturing integrated circuits using the same | |
US8645883B2 (en) | Integrated circuit simulation using fundamental and derivative circuit runs | |
WO2000004469A1 (en) | A method and apparatus for improvement of sparse matrix evaluation performance | |
CN117829048A (zh) | 基于神经网络的数据插值方法、系统、设备及介质 | |
WO2024060454A1 (zh) | 参数计算辅助方法、系统、设备及存储介质 | |
JP2016018230A (ja) | 制御パラメータ適合方法及び制御パラメータ適合支援装置 | |
CN114417653B (zh) | 基于不确定性的卫星组件电路板热可靠性分析方法 | |
CN110866370A (zh) | 一种电路可靠性逻辑仿真方法、装置、设备及存储介质 | |
US20180082005A1 (en) | Efficient deployment of table lookup (tlu) in an enterprise-level scalable circuit simulation architecture | |
US6192330B1 (en) | Method and apparatus for string model simulation of a physical semiconductor process including use of specific depth angles and segment list with removal of redundant segments | |
CN113536567A (zh) | 一种用于多目标矢量拟合的方法 | |
CN108304663B (zh) | 射频晶体管射频参数模型建立方法 | |
JPH1065159A (ja) | 回路シミュレーション用モデルパラメータ最適化装置 | |
WO2023245626A1 (zh) | 用于电子设计自动化的方法和设备 | |
CN115983127A (zh) | 基于深度学习的模型参数提取方法、系统、设备及介质 | |
CN117972924A (zh) | 基于双模型策略构造高精度电机性能数据库的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |