CN116071516A - 用于三维建模的方法和系统 - Google Patents
用于三维建模的方法和系统 Download PDFInfo
- Publication number
- CN116071516A CN116071516A CN202211357538.9A CN202211357538A CN116071516A CN 116071516 A CN116071516 A CN 116071516A CN 202211357538 A CN202211357538 A CN 202211357538A CN 116071516 A CN116071516 A CN 116071516A
- Authority
- CN
- China
- Prior art keywords
- data
- generating
- mesh
- downsampled
- grid
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000010801 machine learning Methods 0.000 claims abstract description 37
- 238000007781 pre-processing Methods 0.000 claims abstract description 15
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 36
- 230000015654 memory Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 10
- 238000012805 post-processing Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 27
- 239000004065 semiconductor Substances 0.000 description 20
- 238000004088 simulation Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000011176 pooling Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 239000007943 implant Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000002019 doping agent Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/30—Circuit design
- G06F30/39—Circuit design at the physical level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/10—Geometric CAD
- G06F30/17—Mechanical parametric or variational design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/23—Design optimisation, verification or simulation using finite element methods [FEM] or finite difference methods [FDM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computer Graphics (AREA)
- Pure & Applied Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
一种三维(3D)建模方法,包括:获得表示3D结构的几何数据和包括确定3D结构的属性的因素的输入参数;根据几何数据来生成网格数据;根据网格数据来顺序地生成至少一条经下采样的数据;对输入参数进行预处理来生成3D特征图;以及基于分别与至少一个级相对应的至少一个机器学习模型,根据至少一条经下采样的网格数据和3D特征图来生成属性简档数据,该属性简档数据表示3D结构中的属性的简档。
Description
相关申请的交叉引用
本专利申请基于2021年11月2日向韩国知识产权局提交的第10-2021-0149022号韩国专利申请,并要求其优先权,该韩国申请的公开内容通过引用整体结合于此。
技术领域
本文描述的发明构思涉及三维建模,并且更具体地,涉及对三维结构进行建模的方法和系统。
背景技术
基于三维结构的模拟可能导致高成本。例如,在模拟在半导体工艺的条件下形成的器件的属性(attribute)或者模拟器件在预定环境中的状态时,可能需要用于执行各种物理解释的高计算资源,并且可能需要很长时间来完成模拟。此外,由于模拟器的性能或各种因素,模拟结果的准确性可能会降低。
发明内容
本文描述的发明构思提供了一种用于以低成本、高准确性对三维结构进行建模的方法和系统。
根据本公开的一个方面,一种3D建模(三维建模)方法,包括获得表示3D结构的几何数据和包括确定3D结构的属性的因素的输入参数,根据几何数据来生成网格数据,根据网格数据来顺序地生成至少一条经下采样的数据,通过对输入参数进行预处理来生成3D特征图(map),以及基于分别与至少一个级(stage)相对应的至少一个机器学习模型,根据至少一条经下采样的网格数据和3D特征图来生成属性简档数据,该属性简档数据表示3D结构中的属性的简档。
根据本公开的另一个方面,一种3D建模(三维建模)方法,包括获得表示3D结构的属性的简档的属性简档数据和表示3D结构的环境的输入参数,根据几何数据来生成网格数据,根据网格数据来顺序地生成至少一条经下采样的数据,基于分别与至少一个第一级相对应的至少一个第一机器学习模型,根据网格数据、至少一条经下采样的数据和输入参数来生成3D特征图;以及通过对3D特征图进行后处理来生成表示3D结构在环境中的状态的状态数据。
根据本公开的另一个方面,提供了一种系统,包括至少一个处理器和被配置为存储指令的非暂时性存储介质,当指令被至少一个处理器运行时,该指令允许至少一个处理器执行3D建模方法。
根据本公开的另一个方面,提供了一种包括指令的非暂时性计算机可读存储介质,当指令被至少一个处理器运行时,该指令允许至少一个处理器执行3D建模方法。
附图说明
根据以下结合附图的详细说明,将更清楚地理解本公开的实施例,其中:
图1是示出根据实施例的三维建模的图;
图2A和图2B是示出根据实施例的网格数据的示例的图;
图3是示出根据实施例的预处理的图;
图4是示出根据实施例的基于上采样的模型的图;
图5是示出根据实施例的基于上采样的模型的图;
图6是示出根据实施例的残差块的图;
图7是示出根据实施例的三维建模的图;
图8是示出根据实施例的三维建模的图;
图9是示出根据实施例的基于下采样的模型的图;
图10是示出根据实施例的基于下采样的模型的图;
图11是示出根据实施例的后处理的图;
图12A、图12B和图12C是示出根据实施例的三维建模的示例的流程图;
图13是示出根据实施例的用于三维建模的方法的流程图;
图14是示出根据实施例的用于三维建模的方法的流程图;
图15是示出根据实施例的用于三维建模的方法的流程图;
图16是示出根据实施例的计算机系统的框图;以及
图17是示出根据实施例的系统的框图。
具体实施方式
图1是示出根据实施例的3D建模10(三维建模)的图。3D建模10可以处理表示3D结构的几何数据D11和包括确定3D结构的属性的因素的输入参数D15。可以执行3D建模10中的处理,以生成表示3D结构(诸如集成电路器件)的属性的简档(profile)的属性简档数据D17。这里,掺杂浓度和通过半导体工艺形成的器件将被描述为属性和3D结构的示例,但是实施例不限于此。如图1所示,3D建模10可以包括和/或涉及内插12、下采样14、预处理16和至少一个基于上采样的模型18。
在一些实施例中,图1的3D建模10可以由如下文参考图16和图17所述的计算机系统来执行。例如,图1中示出的块中的每一个都可以对应于包括在计算机系统中的硬件、软件或硬件和软件的组合。硬件可以包括可编程组件(诸如中央处理单元(CPU)、数字信号处理器(DSP)或图形处理单元(GPU))、可重新配置组件(诸如现场可编程门阵列(FPGA))以及提供固定功能的组件(诸如IP块(知识产权块))中的至少一个。IP块可以包括可以作为知识产权被单独保护或可以被保护的独特电路。软件可以包括可由可编程组件运行的一系列指令和可由编译器转换为一系列指令的代码中的至少一种,并且可以存储在非暂时性存储介质中。
几何数据D11可以表示用于建模或模拟的3D结构。例如,几何数据D11可以是用于通过使用模拟器来模拟3D结构的属性的表示3D结构的数据。如图1所示,几何数据D11可以基于非均匀网格表示3D结构。
内插12可以根据几何数据D11来生成网格数据D12。为了由机器学习模型(例如,由下面描述的至少一个基于上采样的模型18)学习或推断,被提供给至少一个基于上采样的模型18的网格数据D12可以是基于均匀网格的。均匀网格可以在元素之间具有恒定的间隔(即,在一个或多个维度中或贯穿一个或多个维度,可以在相邻交叉点之间具有相同的间隔)。如上所述,几何数据D11可以是基于非均匀网格的,并且因此,可以对几何数据D11的网格进行内插,从而可以生成具有均匀网格的网格数据D12。在一些实施例中,网格数据D12的网格中的间隔可以对应于几何数据D11的网格中的最小间隔。此外,在一些实施例中,网格数据D12可以是基于笛卡尔坐标系的,并且可以包括分别与X、Y和Z方向相对应的值。下面将参考图2A和图2B描述网格数据D12的示例。
在下采样14中,可以对网格数据D12进行下采样。如下所述,根据输入参数D15生成的3D特征图D16可能具有低分辨率。因此,根据网格数据D12生成的多条经下采样的网格数据D13和D14可以被提供给至少一个基于上采样的模型18。在一些实施例中,网格数据D12可以被提供给网络(例如,卷积神经网络)以生成多条经下采样的网格数据D13和D14。此外,在一些实施例中,下采样14可以是基于最大池化和平均池化的。
输入参数D15可以包括用于确定3D结构的属性的因素(factor)。例如,输入参数D15可以包括用于确定半导体器件的掺杂简档的工艺参数,并且例如可以包括掺杂剂(dopant)、剂量(dose)、注入倾斜(implantation tilt)、注入能量和温度。在一些实施例中,输入参数D15可以与被提供给模拟器的参数相同。
预处理16可以根据输入参数D15来生成3D特征图。输入参数D15可以是一系列值,并且可以对应于一维(1D)数据。3D特征图D16可以根据输入参数D15来生成,并且与包括关于3D结构的几何信息的网格数据D12以及根据网格数据D12生成的经下采样的网格数据D13和D14一起被提供给基于上采样的模型。下面将参考图3描述预处理16的示例。
至少一个基于上采样的模型18可以接收网格数据D12、经下采样的网格数据D13和D14以及3D特征图D16,并且可以输出属性简档数据D17。至少一个基于上采样的模型18中的每一个都可以是机器学习模型,并且可以被训练为输出网格数据和3D特征图。如下参考图4所述的,至少一个基于上采样的模型18可以包括一系列级(stage),并且这些级中的每一个可以包括具有相同结构的基于上采样的模型。3D特征图的分辨率可以随着传递通过级(passing through a stage)的操作的数量的增加而逐渐增加。例如,在图1的图示中,接收3D特征图D16的级(或基于上采样的模型)可以接收由下采样14提供的具有最低分辨率的网格数据,并且最终级可以接收具有最高分辨率的网格数据以及前一级的输出(即,3D特征图)。下面将参考图4描述至少一个基于上采样的模型18的示例。
例如,可以通过经由对第一网格数据(例如,网格数据D12)进行下采样以生成第二网格数据(例如,经下采样的网格数据D13和D14)来顺序地生成来自下采样14的至少一条经下采样的数据。第一机器学习模型(例如,至少一个基于上采样的模型18之一)可以基于前一级的输出数据、第一网格数据和第二网格数据来运行。可以运行第一机器学习模型来生成属性简档数据D17。如下所述,第一机器学习模型的运行可以包括串接(concatenate)前一第一级的输出数据与第一网格数据,基于串接的数据运行卷积层,对卷积层的输出数据进行下采样,以及基于经下采样的数据和第二网格数据运行一系列残差块。
其中,机器学习模型可以具有任意的可训练结构。例如,机器学习模型可以包括人工神经网络、决策树、支持向量机、贝叶斯网络和/或遗传算法。在下文中,将参考人工神经网络来描述机器学习模型,但是实施例不限于此。作为非限制性示例,人工神经网络可以包括卷积神经网络(CNN)、具有卷积神经网络的区域(R-CNN)、区域提议网络(RPN)、循环神经网络(RNN)、基于堆叠的深度神经网络(S-DNN)、状态空间动态神经网络(S-SDNN)、去卷积网络、深度置信网络(DBN)、受限玻尔兹曼机(RBM)、完全卷积网络、长短期记忆(LSTM)网络和分类网络。其中,机器学习模型可以被简称为模型。
根据实验结果,图1的3D建模10可以生成几乎类似于模拟器的结果(即,属性简档数据D17),但3D建模10所花费的时间可以对应于模拟器的执行时间的约1/100000。因此,可以通过使用很少的资源在相对短的时间内准确地模拟3D结构,此外,如下面参考图7所述的,可以将属性简档数据D17转换为与模拟器兼容的格式,从而可以相对快速地完成基于属性简档数据D17的模拟和/或建模。作为结果,可以容易地完成3D结构的验证,并且可以显著地缩短包括3D结构的产品的上市时间(time-to-market,TTM)。
图2A和图2B是示出根据实施例的网格数据的示例的图。具体地,图2A和图2B示出了通过半导体工艺形成的晶体管和用于限定作为3D结构的示例的晶体管结构的网格。如上参考图1所述的,图2A的网格数据20a和图2B的网格数据20b可以通过对表示3D结构的几何数据D11进行内插来生成。在下文中,将参考图1描述图2A和图2B。
图2A的网格数据20a和图2B的网格数据20b中的每一个可以包括与具有均匀间隔的网格相对应的值。例如,图2A的网格数据20a中的网格可以具有第一间隔S1,且图2B的网格数据20b中的网格可以具有第二间隔S2。图2A的网格数据20a可以表示具有第一长度L1的晶体管,且图2A的网格数据20b可以表示具有第二长度L2的晶体管,该第二长度L2长于第一长度L1(L2>L1)。
上文参考图1描述的通过预处理16生成的3D特征图D16可以具有特定尺寸。因此,内插12可以独立于由几何数据D11表示的3D结构的特定尺寸生成具有特定数量的网格的网格数据D12,使得被提供给至少一个基于上采样的模型18的网格数据D12具有特定尺寸。因此,图2B的第二间隔S2可以大于图2A的第一间隔S1(S2>S1)。
在一些实施例中,可以考虑3D结构的部分(例如,少于3D结构的全部)的属性。例如,如图2A和图2B所示的,可以考虑晶体管的基底SUB中的掺杂浓度。这里,作为图2A和图2B的基底,3D结构中需要属性的部分可以被称为感兴趣区域(ROI)。在一些实施例中,内插12可以将与3D结构中除ROI之外的区域相对应的值掩蔽为特定值。例如,网格数据D12中与3D结构中除ROI之外的区域相对应的值可以在内插12中被设置为零。3D建模方法可以包括通过将与3D结构中除ROI之外的区域相对应的值设置为零来根据几何数据生成网格数据的步骤。
图3是示出根据实施例的预处理30的图。如上参考图1所述的,可以预处理包括用于确定3D结构的属性的因素的输入参数D31,并且可以生成3D特征图D32。
在一些实施例中,预处理30可以包括和/或涉及网络,并可以包括至少一个层。例如,如图3所示的,预处理30可以包括和/或涉及第一层L1至第m层Lm(其中m是大于1的整数),并且第一层L1至第m层Lm可以处理输入参数D31或前一层的输出。在一些实施例中,第一层L1至第m层Lm中的每一个都可以是完全连接层或密集层。可以与图1的至少一个基于上采样的模型18一起训练预处理30。如上参考图1所述的,通过对输入参数D31进行预处理而生成的3D特征图D32可能具有低分辨率。
图4是示出根据实施例的基于上采样的模型的图。具体地,图4示出了图1的至少一个基于上采样的模型18的示例。如上参考图1所述的,3D特征图D41、网格数据D42和多条经下采样的网格数据D43至D45可以被提供给至少一个基于上采样的模型40,并且可以从至少一个基于上采样的模型40生成属性简档数据D46。
参考图4,至少一个基于上采样的模型40可以包括一系列基于上采样的模型,包括第一基于上采样的模型41、第二基于上采样的模型42和第三基于上采样的模型43,并且第一基于上采样的模型41、第二基于上采样的模型42和第三基于上采样的模型43中的每一个可以具有相同的结构。例如,第一级的第一基于上采样的模型41可以接收3D特征图D41和网格数据D43,并且可以接收从网格数据D43下采样出的网格数据D42。第二级的第二基于上采样的模型42可以接收网格数据D44和从第一级的第一基于上采样的模型41输出的3D特征图,并且可以接收从网格数据D44下采样出的网格数据D43。最终级的第三基于上采样的模型43可以接收网格数据D45和从前一级的基于上采样的模型输出的3D特征图,并且可以接收从网格数据D45下采样出的网格数据。由最终级的第三基于上采样的模型43接收到的网格数据D45可以具有最高分辨率,并且可以对应于通过图1的内插12根据几何数据D11生成的网格数据D12。
每个级中基于上采样的模型(例如,41)可以基于具有相对更低分辨率的网格数据D42和具有相对更高分辨率的网格数据D43来输出分辨率高于输入3D特征图(例如,D41)的3D特征图。因此,可以通过使用一系列基于上采样的模型根据通过预处理图1的输入参数D15而生成的3D特征图D41来生成表示3D结构的属性简档的属性简档数据D46。如下参考图5所述的,基于上采样的模型可以包括至少一个残差块RB。因此,包括在基于上采样的模型中的至少一个残差块RB可以被称为基于上采样的残差块RB。
图5是示出根据实施例的基于上采样的模型50的图。具体地,图5示出了图4的至少一个基于上采样的模型40中包括的级中的第i级中包括的基于上采样的模型50(其中i是大于0的整数)。如上参考图4所述的,基于上采样的模型50可以接收具有更低分辨率的3D特征图Xi、具有更低分辨率的网格数据D52和具有更高分辨率的网格数据D51,并且可以输出具有更高分辨率的3D特征图Xi+1。
在下文中,具有更低分辨率的3D特征图Xi可以被称为输入特征图Xi,具有更高分辨率的3D特征图Xi+1可以被称为输出特征图Xi+1。此外,具有更高分辨率的网格数据D51可以被称为第一网格数据D51,而具有更低分辨率的网格数据D52可以被称为第二网格数据D52。输入特征图Xi可以是通过对输入参数D15进行预处理而生成的3D特征图(例如,图4的D41)或者是从前一级输出的特征图。此外,输出特征图Xi+1可以是属性简档数据(例如,图4的D46)或被提供给下一级的特征图。
参考图5,基于上采样的模型50可以包括串接51、卷积53、上采样55和一系列残差块57和59。在串接51中,输入特征图Xi的值可以与第二网格数据D52的值串接。如上参考图1和图4所述的,第二网格数据D52可以从第一网格数据D51被下采样出,以具有与输入特征图Xi的分辨率相同的分辨率,因此,输入特征图Xi可以与第二网格数据D52串接。
串接51的结果可以被提供给卷积53(或卷积层),并且卷积53的结果可以被提供给上采样55(或上采样层)。可以基于任意方案来执行上采样55,并且例如,可以将值复制到添加的网格。因此,上采样55的结果可以具有比输入特征图Xi和第二网格数据D52中的每一个的分辨率更高的分辨率。上采样55的结果可以被提供给一系列残差块57和59。深度学习中由深度网络引起的高复杂度可能需要大量资源,并且网络的深度可能不与网络的性能成比例。为了解决这样的问题,可以使用残差学习。残差学习可以表示将低分辨率数据添加到高分辨率数据,并且学习两条数据之间的差值。例如,在论文“Deep Residual Learning forImage Recognition(用于图像辨识的深度残差学习)”中提出的ResNet中,网络可以被划分为多个残差块,以便更稳定地训练深度网络,并且多个残差块可以通过跳跃连接(skipconnection)彼此连接,并且因此,可以更容易地优化滤波器参数。如图5所示的,残差块57和59中的每一个可以接收第一网格数据D51以及前一残差块的输出。下面将参考图6描述残差块57和59中的每一个的示例。
作为基于上述图4和图5的实施例的示例实现方式,第一基于上采样的模型41可以是第一级的,第二基于上采样的模型42可以是第二级的,第三基于上采样的模型43可以是第三级(即最终级)的。运行第一机器学习模型(例如,第二级的第二基于上采样的模型42)可以包括串接第一级的输出数据和第二网格数据D52。在这些实施例中运行第一机器学习模型还可以包括基于串接的数据来运行卷积层(或卷积53),通过上采样55对卷积层(或卷积53)的输出数据进行上采样,以及基于经上采样的数据和第一网格数据来运行一系列残差块57和59。
图6是示出根据实施例的残差块60的图。如上文参考图5所述的,基于上采样的模型可以包括一系列残差块,并且在一些实施例中,残差块中的每一个可以具有与图6的残差块60相同的结构。在下文中,将参考图5描述图6。
参考图6,残差块60可以接收输入Yj和网格数据D60,并且可以生成输出Yj+1。输入Yj可以是前一残差块的输出或者图5的上采样55的输出。输出Yj+1可以被提供给下一个残差块、或者可以是包括残差块60的基于上采样的模型50的输出Xi+1。如图6所示的,残差块60可以包括第一串接61、第二串接63和第三串接65、第一卷积62、第二卷积64和第三卷积66以及加法器67。
在第一串接61中,输入Yj的值可以与网格数据D60的值串接,并且第一串接61的结果可以被提供给第一卷积62。在一些实施例中,第一卷积62中的滤波器可以具有1x1尺寸,并且第一卷积62可以包括与第三卷积66中包括的滤波器数量的1/4相对应的滤波器。在一些实施例中,如图6所示的,可以归一化和激活第一卷积62的结果,并且归一化和激活的结果可以被提供给第二串接63。
在第二串接63中,第一卷积62的结果可以与网格数据D60的值串接,并且第二串接63的结果可以被提供给第二卷积64。在一些实施例中,第二卷积64中的滤波器可以具有3x3尺寸,并且第二卷积64可以包括与第三卷积66中包括的滤波器数量的1/4相对应的滤波器。在一些实施例中,如图6所示的,可以归一化和激活第二卷积64的结果,并且归一化和激活的结果可以被提供给第三串接65。
在第三串接65中,第二卷积64的结果可以与网格数据D60的值串接,并且第三连接65的结果可以被提供给第三卷积66。在一些实施例中,第三卷积66可以包括多个滤波器,并且多个滤波器中的每一个都可以具有1x1的尺寸。在一些实施例中,如图6所示的,可以归一化和激活第三卷积66的结果,并且归一化和激活的结果可以被提供给加法器67。
加法器67可以将输入Yj与第三卷积66的输出相加。在一些实施例中,如图6所示的,可以归一化和激活加法器67的结果,并且归一化和激活的结果可以被生成为输出Yj+1。
图7是示出根据实施例的三维建模的图。具体地,图7示出了通过处理由图1的3D建模生成的属性简档数据D71来生成与模拟器兼容的属性简档数据D73的操作。在下文中,通过3D建模生成的属性简档数据D71可以被称为第一简档数据D71,并且与模拟器兼容的属性简档数据D73可以被称为第二简档数据D73。
如上文参考图1所述的,可以根据表示3D结构的几何数据D72生成具有均匀网格的网格数据D12。表示3D结构的属性的简档数据可以用于基于条件对3D结构的状态进行模拟或建模。为此,简档数据可能需要具有模拟器所需的格式,并且例如,可能需要具有与几何数据D72相同的网格。因此,基于几何数据D72,内插70中具有均匀网格的第一简档数据D71可以被转换为具有与几何数据D72相同网格的第二简档数据D73。在一些实施例中,当第一简档数据D71的网格对应于几何数据D72的最小网格时,可以在内插70中执行下采样。作为结果,图1的3D建模可以代替模拟3D结构的属性的模拟器,因此,可以显著地降低验证3D结构的状态和属性的成本。
图8是示出根据实施例的3D建模80的图。3D建模80可以处理表示3D结构的属性的属性简档数据D81和包括确定3D结构的状态的因素的输入参数D85,以生成状态数据D87和表示3D结构的属性的状态的状态简档数据D88。如图8所示,3D建模80可以包括内插81、下采样83、至少一个基于下采样的模型85、后处理87和至少一个基于上采样的模型89。在下文中,在描述图8时,省略了与图1的描述相同的描述。
在一些实施例中,图8的3D建模80可以由如下文参考图16和图17所述的计算机系统来执行。例如,图8中示出的块中的每一个可以对应于包括在计算机系统中的硬件、软件或硬件和软件的组合。硬件可以包括诸如CPU、DSP或GPU的可编程组件、诸如FPGA的可重新配置组件以及诸如IP块的提供固定功能的组件中的至少一种。软件可以包括可由可编程组件运行的一系列指令和可由编译器转换为一系列指令的代码中的至少一个,并且可以存储在非暂时性存储介质中。
属性简档数据D81可以三维地表示3D结构的属性。例如,如上参考图7所述的,属性简档数据D81可以通过图1的3D建模10和内插70生成、或者可以由模拟3D结构的属性的模拟器生成。如图8所示的,属性简档数据D81可以基于非均匀网格来三维地表示属性。
内插81可以根据属性简档数据D81来生成网格数据D82。被提供给至少一个基于下采样的模型85的网格数据D82可以是基于均匀网格的,以便由下面描述的至少一个基于下采样的模型85学习或推断。如上所述,属性简档数据D81可以是基于非均匀网格的。因此,可以对属性简档数据D81的网格进行内插,由此可以生成具有均匀网格的网格数据D82。与仅具有与坐标相对应的值的图1的网格数据D12不同,除了与坐标相对应的值之外,图8的网格数据D82还可以包括表示对应坐标中的属性的值。
在下采样83中,可以对网格数据D82进行下采样。如下所述,在至少一个基于下采样的模型85中生成的3D特征图D86可以具有低分辨率。因此,从网格数据D82下采样出的网格数据D83和D84可以被提供给至少一个基于下采样的模型85。在一些实施例中,网格数据D82可以传递通过网络(例如,CNN)来生成经下采样的网格数据D83和D84。此外,在一些实施例中,下采样83可以基于最大池化、平均池化等来执行。
输入参数D85可以包括用于确定3D结构的状态的因素。例如,输入参数D85可以包括表示3D结构的环境(诸如各自被提供给半导体器件的电压和温度)的参数。在一些实施例中,输入参数D85可以与被提供给模拟器的参数相同。当属性简档数据D81表示晶体管的掺杂简档并且输入参数D85表示施加到晶体管的电压时,状态数据D87可以表示电流特性(例如,电压-电流图(graph)),并且状态简档数据D88可以表示晶体管中的电子和/或空穴的密度。
至少一个基于下采样的模型85可以接收网格数据D82、经下采样的网格数据D83和D84以及输入参数D85,并且可以输出3D特征图D16。至少一个基于下采样的模型85中的每一个可以是机器学习模型,并且可以被训练为输出网格数据和3D特征图。如上参考图9所述的,至少一个基于下采样的模型85可以包括一系列级,并且这些级中的每一个可以包括具有相同结构的基于下采样的模型。随着传递通过级的操作的数量的增加,3D特征图的分辨率会逐渐降低。下面将参考图9描述至少一个基于下采样的模型85的示例。
基于后处理87,可以根据三维特征图D86来生成状态数据D87。状态数据D86可以表示在与输入参数D85相对应的条件下具有属性简档数据D81的属性的3D结构的状态。将在下面参考图11描述后处理87的示例。
至少一个基于上采样的模型89可以根据三维特征图D86来输出状态简档数据D88。例如,至少一个基于上采样的模型89可以具有与图4的至少一个基于上采样的模型40相同的结构,并且此外,可以接收网格数据D82和经下采样的网格数据D83和D84以及3D特征图D86。3D特征图D86可以包括表示3D结构在预定条件下的状态的信息。基于网格数据,至少一个基于上采样的模型89可以逐渐增加3D特征图D86的分辨率,以生成状态简档数据D88。
与模拟器相比,图1的三维建模10和图8的三维建模10可以提供各种益处。例如,3D建模10和80可以带来低于模拟器的成本的成本(例如,资源和时间)。3D建模10和80可以基于低成本容易地在角点条件(corner condition)下验证3D结构,并且因此,可以容易地检测由3D结构造成的缺陷。此外,模拟器可能在计算结果时失败,但是3D建模10和80可以总是输出结果。此外,3D建模10和80可以使用与模拟器兼容的输入和输出,并且可以提供准确的结果。
图9是示出根据实施例的基于下采样的模型的图。具体地,图9示出了图8的至少一个基于下采样的模型85的示例。如上参考图8所述的,输入参数D91、网格数据D92和多条经下采样的网格数据D93至D95可以被提供给图9的至少一个基于下采样的模型90,并且可以从至少一个基于下采样的模型90生成3D特征图D96。
参考图9,至少一个基于下采样的模型90可以包括一系列基于下采样的模型,包括第一基于下采样的模型91、第二基于下采样的模型92和第三基于下采样的模型93,并且第一基于下采样的模型91、第二基于下采样的模型92和第三基于下采样的模型93中的每一个可以具有相同的结构。例如,第一级的第一基于下采样的模型91可以接收输入参数D91和网格数据D92,并且可以接收从网格数据D92下采样出的网格数据D93。在第一级中接收到的网格数据D92可以具有最高分辨率,并且可以对应于图8的通过内插根据属性简档数据D81生成的网格数据D82。第二级的第二基于下采样的模型92可以接收网格数据D93和从第一级的第一基于下采样的模型91输出的3D特征图,并且可以接收从网格数据D93下采样出的网格数据D94。最终级的第三基于下采样的模型93可以接收网格数据D95和从前一级的基于下采样的模型输出的3D特征图。
每个级中基于下采样的模型(例如,第一基于下采样的模型91)可以基于具有更高分辨率的网格数据D92和具有更低分辨率的网格数据D93来输出分辨率高于输入数据(例如,D91)的3D特征图。因此,可以通过一系列基于下采样的模型来生成表示根据输入参数D91的3D结构的状态的3D特征图D96。如下参考图10所述的,基于下采样的模型可以包括至少一个残差块RB。因此,包括在基于下采样的模型中的至少一个残差块RB可以被称为基于下采样的残差块RB。
图10是示出根据实施例的基于下采样的模型100的图。具体地,图10示出了图9的至少一个基于下采样的模型90中包括的级中的第k级中包括的基于下采样的模型100(其中k是大于0的整数)。如上参考图9所述的,基于下采样的模型100可以接收具有更高分辨率的3D特征图Zk、具有更高分辨率的网格数据D101和具有更低分辨率的网格数据D102,并且可以输出具有更低分辨率的3D特征图Zk+1。
在下文中,具有更高分辨率的3D特征图Zk可以被称为输入特征图Zk,具有更低分辨率的3D特征图Zk+1可以被称为输出特征图Zk+1。此外,具有更高分辨率的网格数据D101可以被称为第一网格数据D101,而具有更低分辨率的网格数据D102可以被称为第二网格数据D102。参考图10,基于下采样的模型100可以包括串接101、卷积103、下采样105和一系列残差块107和109。
在串接101中,输入特征图Zk的值可以与第一网格数据D101的值串接。当基于下采样的模型100包括在第一级中时,输入特征图Zk可以是1D输入参数D91,并且输入参数D91的值可以分别与第一网格数据D101的值串接。
串接101的结果可以被提供给卷积103(或卷积层),并且卷积103的结果可以被提供给下采样105(或下采样层)。下采样105可以基于任意方案来执行,并且例如可以是基于最大池化、平均池化和(卷积)神经网络的。因此,下采样105的结果可以具有低于输入特征图Zk和第一网格数据D101中的每一个的分辨率。
下采样105的结果可以被提供给一系列残差块107和109。如图10所示的,残差块107和109中的每一个都可以接收第二网格数据D102以及前一残差块的输出。在一些实施例中,残差块107和109中的每一个可以具有与以上参考图6描述的残差块60相同的结构。
图11是示出根据实施例的后处理的图。如上文参考图8所述的,可以通过后处理110来根据3D特征图D111生成状态数据D112。如图11所示的,后处理110可以包括展平111和网络112。
3D特征图D111可以包括关于3D结构的状态的信息,并且可以通过展平111被转换为1D数据,以被提供给网络112。网络112可以包括第一层L1至第n层Ln(其中n是大于1的整数),第一层L1至第n层Ln可以处理经展平的数据或前一层的输出。在一些实施例中,第一层L1至第n层Ln中的每一个可以是完全连接层或密集层。可以与图8的至少一个基于下采样的模型85一起训练网络112。如上参考图8所述的,状态数据D112可以表示3D结构在预定条件下的状态(例如,电流的特性)。
图12A、图12B和图12C是示出根据实施例的三维建模的示例的流程图。具体地,图12A、图12B和图12C的流程图分别示出了作为3D建模的示例的对半导体器件进行建模的方法的示例。
在一些实施例中,3D建模可以代替用于模拟半导体器件的模拟器。例如,图1的3D建模10可以代替用于根据半导体工艺条件模拟半导体器件的掺杂简档的工艺模拟器,并且图8的3D建模80可以代替用于根据掺杂简档和被分配给半导体器件的条件模拟半导体器件的状态的器件模拟器。在这种情况下,图1的3D建模10可以被称为工艺建模,且图8的3D建模80可以被称为器件建模。
参考图12A,工艺模拟器和器件模拟器均可以由3D建模来代替。例如,工艺条件D121a可以被提供给工艺建模S121a,并且工艺建模S121a可以基于表示半导体器件的几何数据来生成掺杂简档D122a。掺杂简档D122a可以被提供给器件建模S122a,并且器件建模S122a可以基于被分配给半导体器件的电压来生成电压-电流曲线D123a和电子/空穴浓度简档D124a。
参考图12B,可以使用3D建模来代替工艺模拟器。例如,工艺条件D121b可以被提供给工艺建模121b,并且工艺建模S121b可以基于表示半导体器件的几何数据来生成掺杂简档D122b。掺杂简档D122b可以被提供给器件模拟S122b,并且器件模拟S122b可以基于被分配给半导体器件的电压来生成电压-电流曲线D123b和电子/空穴浓度简档D124b。
参考图12C,可以使用3D建模来代替工艺模拟器。例如,工艺条件D121c可以被提供给工艺模拟S121c,并且工艺模拟S121c可以基于表示半导体器件的几何数据来生成掺杂简档D122c。掺杂简档D122c可以被提供给器件建模S122c,并且器件建模S122c可以基于被分配给半导体器件的电压来生成电压-电流曲线D123c和电子/空穴浓度简档D124c。
图13是示出根据实施例的用于三维建模的方法的流程图。具体地,图13的流程图示出了用于生成3D结构的属性简档的3D建模的方法。如图13所示的,3D建模的方法可以包括操作S110至S150。在下文中,将参考图1描述图13。
参考图13,在操作S110中,可以获得几何数据D11和输入参数D15。几何数据D11可以表示3D结构,输入参数D15可以包括用于确定3D结构的属性的因素。在一些实施例中,几何数据D11和输入参数D15可以由模拟器生成、或者可以与模拟器的输入相同。
在操作S120中,可以生成网格数据D12。为了基于深度学习来执行3D建模,可以根据几何数据D11来生成具有均匀网格的网格数据D12。在一些实施例中,网格数据D12可以具有与几何数据D11的网格的最小间隔相对应的网格,并且可以通过对几何数据D11的网格进行内插来生成。
在操作S130中,可以对网格数据D12进行下采样。如下所述,根据输入参数D15生成的3D特征图D16可以具有低分辨率。因此,可以对具有高分辨率的网格数据D12进行渐进下采样,由此可以生成多条经下采样的网格数据。
在操作S140中,可以生成三维特征图D16。为了与3D网格数据一起被提供给机器学习模型,1D输入参数D15可以被预处理,并且因此,可以生成3D特征图D16。
在操作S150中,可以生成属性简档数据D17。例如,在操作S120中生成的网格数据D12、在操作S130中生成的经下采样的网格数据和在操作S140中生成的3D特征图D16可以被提供给至少一个基于上采样的模型18。至少一个基于上采样的模型18可以处于这样的状态,其中该至少一个基于上采样的模型18已经被训练为输出与3D特征图和网格数据相对应的属性简档数据,并且可以输出表示3D结构的属性的属性简档数据D17。
在操作S160中,可以对属性简档数据D17进行内插。在操作S150中生成的属性简档数据D17可以具有与在操作S120中生成的网格数据D12相同的网格。对于与模拟器兼容的属性简档,属性简档数据D17可以基于几何数据D11被内插以具有与几何数据D11相同的网格。
图14是示出根据实施例的用于3D建模的方法的流程图。具体地,图14的流程图示出了用于生成3D结构的状态的3D建模的方法。如图14所示的,用于3D建模的方法可以包括操作S210至S260。在下文中,将参考图8描述图14。
参考图14,在S210操作中,可以获得属性简档数据D81和输入参数D85。属性简档数据D81可以表示3D结构的属性,输入参数D85可以表示3D结构的环境。在一些实施例中,属性简档数据D81可以由图13的3D建模方法或模拟器生成。
在操作S220中,可以生成网格数据D82。为了基于深度学习来执行3D建模,可以根据属性简档数据D81来生成具有均匀网格的网格数据D82。在一些实施例中,网格数据D82可以具有与属性简档数据D81的网格的最小间隔相对应的网格,并且可以通过对属性简档数据D81的网格进行内插来生成。
在操作S230中,可以对网格数据D82进行下采样。为了生成下述具有低分辨率的3D特征图D86,可以对具有高分辨率的网格数据D82进行下采样,并且因此,可以生成多条经下采样的网格数据。
在操作S240中,可以生成3D特征图D86。例如,输入参数D85、在操作S220中生成的网格数据D82和在操作S230中生成的经下采样的网格数据可以被提供给至少一个基于下采样的模型85。至少一个基于下采样的模型85可以处于这样的状态,其中至少一个基于下采样的模型85已经被训练为输出与输入参数D85和网格数据相对应的3D特征图D86,并且可以输出表示3D结构的属性的3D特征图D86。
在操作S250中,可以生成状态数据D87。例如,可以后处理在操作S240中生成的3D特征图D86,并且因此,可以生成状态数据D87。在一些实施例中,3D特征图D86可以被展平为1D数据,并且经展平的数据可以传递通过一系列完全连接层,并且因此,可以生成状态数据D87。
在操作S260中,可以生成状态简档数据D88。状态简档数据D88可以三维地表示3D结构的状态。因此,在操作S240中生成的3D特征图D86可以被提供给至少一个基于下采样的模型85。至少一个基于下采样的模型85可以基于3D特征图D86和网格数据来生成具有高分辨率的状态简档数据D88。在一些实施例中,状态简档数据D88可以基于具有非均匀网格的属性简档数据D210被内插以具有非均匀网格,并且因此,可以生成与模拟器兼容的状态简档数据。
图15是示出根据实施例的用于三维建模的方法的流程图。具体地,图15的流程图示出了训练在3D建模中使用的机器学习模型的方法。在一些实施例中,图15的方法可以用于训练上面参考附图描述的任意机器学习模型。如图15所示的,用于3D建模的方法可以包括操作S320至S340。
参考图15,在操作S15中,可以基于平均和方差来计算损失函数。在一些实施例中,3D建模中使用的模型可以被训练为符合特定分布。例如,基于蒙特卡罗(MC)的模拟器的输出可以符合高斯分布,并且在对模型的训练中使用的损失函数f(x)可以被定义为如下[等式1]中所表述的:
[等式1]
在[等式1]中,x可以表示3D建模的输出,u(x)可以表示3D建模的输出的平均,σ2(x)可以表示3D建模的输出的方差,并且y可以表示训练数据(例如,模拟器的输出)。因此,包括通过使用如[等式1]中定义的损失函数训练的机器学习模型的3D建模的输出可以符合高斯分布。
在操作S340中,与对应于除ROI之外的区域的数据相关联的损失函数可以被设置为零。例如,如以上参考图2A和图2B所描述的,3D结构中可以存在考虑属性或状态的部分(例如,ROI),并且与除ROI之外的区域相对应的损失函数的值可以被设置为零,使得除ROI之外的区域不影响训练。例如,如上参考图2A和图2B所述的,在与除ROI之外的区域相对应的值被掩蔽为零的情况下,当[等式1]中的y为零时,损失函数f(x)可以被设置为零,而不管x为多少。
图16是示出根据实施例的计算机系统160的框图。在一些实施例中,图16的计算机系统160可以执行对以上参考附图描述的在3D建模中使用的机器学习模型的训练,并且可以被称为3D建模系统或训练系统。
计算机系统160可以表示任意的系统,包括通用或专用计算机系统。例如,计算机系统160可以包括个人计算机(PC)、服务器计算机、膝上型计算机和电器产品。如图16所示的,计算机系统160可以包括至少一个处理器161、存储器162、存储系统163、网络适配器164、I/O接口165(输入/输出接口)和显示器166。
至少一个处理器161可以运行包括可以由计算机系统运行的指令的程序模块。程序模块可以包括例程、程序、对象、组件、逻辑和数据结构,它们执行特定的操作或实现特定的抽象数据格式。存储器162可以包括易失性存储器类型的计算机系统可读介质,诸如随机访问存储器(RAM)。至少一个处理器161可以访问存储器162,并且可以运行加载到存储器162中的指令。存储系统163可以非易失性地存储信息,并且在一些实施例中,可以包括至少一个程序产品,该至少一个程序产品包括被配置为执行对用于以上参考附图描述的3D建模的机器学习模型的训练的程序模块。在非限制性实施例中,程序可以包括操作系统(OS)、至少一个应用、其他程序模块和其他程序数据。
网络适配器164可以提供对局域网(LAN)、广域网(WAN)和/或公共网络(例如,互联网)的访问。I/O接口165可以提供与诸如键盘、定点设备或音频系统的外围设备相对应的通信信道。显示器166可以输出各种信息,以便用户检查信息。
在一些实施例中,对上文参考附图描述的用于3D建模的机器学习模型的训练可以利用计算机程序产品来实现。计算机程序产品可以包括非暂时性计算机可读介质(或存储介质),其包括用于允许至少一个处理器161执行图像处理和/或模型训练的计算机可读程序指令。在非限制性实施例中,计算机可读指令可以包括汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以至少一种编程语言编写的源代码或目标代码。计算机可读介质被定义为构成可专利主题的任何介质,并且排除不构成可专利主题的任何介质。本文描述的存储器更一般地是用于存储数据和可运行软件指令的有形存储介质,并且在软件指令存储在其中期间是非暂时性的。如本文所使用的,术语“非暂时性”不应被解释为永恒的状态特性,而是将持续一段时间的状态特性。术语“非暂时性”特别否定短暂的特性,诸如载波或信号或者在任何时间任何地点只是暂时存在的其他形式的特性。
计算机可读介质可以包括任意类型的用于非暂时性地保存和存储由至少一个处理器161或任意可运行指令的设备运行的指令的介质。计算机可读介质可以包括电子存储器件、磁存储器件、光存储器件、电磁存储器件、半导体存储器件或其任意组合,但不限于此。例如,计算机可读介质可以包括便携式计算机盘、硬盘、RAM、只读存储器(ROM)、电可擦除只读存储器(EEPROM)、闪存、静态RAM(SRAM)、紧凑盘(CD)、数字视频盘(DVD)、记忆棒、软盘、诸如穿孔卡的经机械编码设备或其任意组合。
图17是示出根据实施例的系统170的框图。在一些实施例中,根据实施例的3D建模可以由系统170来运行。因此,系统170可以具有低复杂度,并且可以快速地生成准确的结果。
参考图17,系统170可以包括至少一个处理器171、存储器173、AI加速器175(人工智能加速器)和硬件加速器177,并且至少一个处理器171、存储器173、AI加速器175和硬件加速器177可以通过总线179彼此通信。在一些实施例中,至少一个处理器171、存储器173、AI加速器175和硬件加速器177可以被包括在一个半导体芯片中。此外,在一些实施例中,至少一个处理器171、存储器173、AI加速器175和硬件加速器177中的至少两个可以被包括在安装在板上的两个或更多个半导体芯片的每一个中。
至少一个处理器171可以运行指令。例如,至少一个处理器171可以运行存储在存储器173中的指令以运行OS,并且可以运行在OS中运行的应用。在一些实施例中,至少一个处理器171可以运行指令,并且因此,AI加速器175和/或硬件加速器177可以指示操作,并且可以从AI加速器175和/或硬件加速器177获得操作的执行结果。在一些实施例中,至少一个处理器171可以包括为特定目的定制的专用指令集处理器(ASIP),并且可以支持专用指令集。
存储器173可以具有存储数据的任意结构。例如,存储器173可以包括诸如动态RAM(DRAM)或SRAM的易失性存储器件,并且此外,可以包括诸如闪存或电阻式RAM(RRAM)的非易失性存储器件。至少一个处理器171、AI加速器175和硬件加速器177可以通过总线179将数据(例如,图2中的IN、IMG_I、IMG_O和OUT)存储在存储器173中、或者可以从存储器173读取数据(例如,图2中的IN、IMG_I、IMG_O和OUT)。
AI加速器175可以表示为AI应用设计的硬件。在一些实施例中,AI加速器175可以包括用于实现神经形态结构的神经处理单元(NPU),并且此外,可以处理从至少一个处理器171和/或硬件加速器177提供的输入数据以生成输出数据,并且可以将输出数据提供给至少一个处理器171和/或硬件加速器177。在一些实施例中,AI加速器175可以是可编程的,并且可以通过至少一个处理器171和/或硬件加速器177来编程。
硬件加速器177可以被称为被设计用于高速执行特定操作的硬件。例如,硬件加速器177可以被设计为高速执行数据转换,诸如解调、调制、编码或解码。硬件加速器177可以是可编程的,并且可以通过至少一个处理器171和/或AI加速器175来编程。
在一些实施例中,AI加速器175可以运行上文参考附图描述的机器学习模型。例如,AI加速器175可以运行上述层中的每一个。AI加速器175可以处理输入参数、特征图等,以生成包括有用信息的输出。此外,在一些实施例中,由AI加速器175运行的模型中的至少一些模型可以由至少一个处理器171和/或硬件加速器177来运行。
尽管已经参考了本文描述的发明构思具体示出和描述了本发明构思,但应当理解,在不脱离所附权利要求的精神和范围的情况下,可以在形式和细节上对本发明构思进行各种改变。
Claims (20)
1.一种三维3D建模方法,所述方法包括:
获得表示3D结构的几何数据和包括确定3D结构的属性的因素的输入参数;
由包括存储指令的存储器和运行指令的处理器的计算机系统根据所述几何数据来生成网格数据;
根据所述网格数据来顺序地生成至少一条经下采样的数据;
通过对所述输入参数进行预处理来生成3D特征图;以及
基于分别与至少一个级相对应的至少一个机器学习模型,根据所述至少一条经下采样的数据和所述3D特征图来生成属性简档数据,所述属性简档数据表示3D结构中的属性的简档。
2.根据权利要求1所述的3D建模方法,其中,生成网格数据包括将所述几何数据的网格内插为具有恒定的间隔。
3.根据权利要求2所述的3D建模方法,其中,所述间隔对应于所述几何数据的网格中的最小间隔。
4.根据权利要求1所述的3D建模方法,其中,生成网格数据包括将与所述3D结构中除感兴趣区域之外的区域相对应的值设置为零。
5.根据权利要求1所述的3D建模方法,其中,顺序地生成至少一条经下采样的数据包括通过对第一网格数据进行下采样来生成第二网格数据,并且
生成属性简档数据包括:
基于前一级的输出数据、所述第一网格数据和所述第二网格数据来运行第一机器学习模型;以及
将第一机器学习模型的输出数据提供给下一级。
6.根据权利要求5所述的3D建模方法,其中,运行第一机器学习模型包括:
串接前一级的输出数据和第二网格数据;
基于串接的数据来运行卷积层;
对卷积层的输出数据进行上采样;以及
基于经上采样的数据和所述第一网格数据来运行一系列残差块。
7.根据权利要求6所述的3D建模方法,其中,运行一系列残差块包括运行第一残差块,并且
运行第一残差块包括:
通过串接前一级的输出数据与第一网格数据来生成第一数据;
基于所述第一数据来运行第一卷积层;
通过串接第一卷积层的输出数据和第一网格数据来生成第二数据;
基于所述第二数据来运行第二卷积层;
通过串接第二卷积层的输出数据和第一网格数据来生成第三数据;
基于所述第三数据来运行第三卷积层;以及
将前一级的输出数据与第三卷积层的输出数据相加。
8.根据权利要求1所述的3D建模方法,还包括基于损失函数来训练至少一个机器学习模型,
其中,所述损失函数是基于所述属性简档数据的平均和方差的。
9.根据权利要求8所述的3D建模方法,其中,训练至少一个机器学习模型包括将与对应于所述3D结构的除感兴趣区域之外的区域的数据相关联的损失函数设置为零。
10.根据权利要求1所述的3D建模方法,其中,所述3D结构对应于集成电路的器件,
所述输入参数包括在制造集成电路中使用的工艺参数,并且
所述属性简档数据表示器件中的掺杂简档。
11.根据权利要求1所述的3D建模方法,还包括通过对属性简档数据的网格进行内插来生成与几何数据的网格相对应的简档数据。
12.一种系统,包括:
至少一个处理器;以及
非暂时性存储介质,被配置为存储指令,其中,当被处理器运行时,所述指令使得系统:
获得表示3D结构的几何数据和包括确定所述3D结构的属性的因素的输入参数;
根据所述几何数据来生成网格数据;
根据所述网格数据来顺序地生成至少一条经下采样的数据;
通过对所述输入参数进行预处理来生成3D特征图;以及
基于分别与至少一个级相对应的至少一个机器学习模型,根据所述至少一条经下采样的数据和所述3D特征图来生成属性简档数据,所述属性简档数据表示所述3D结构中的属性的简档。
13.一种包括指令的非暂时性计算机可读存储介质,当所述指令被至少一个处理器运行时,所述指令允许所述至少一个处理器执行权利要求1的3D建模方法。
14.一种三维3D建模方法,所述方法包括:
获得表示3D结构的属性的简档的属性简档数据和表示所述3D结构的环境的输入参数;
由包括存储指令的存储器和运行指令的处理器的计算机系统根据所述属性简档数据来生成网格数据;
根据所述网格数据来顺序地生成至少一条经下采样的数据;
基于分别与至少一个第一级相对应的至少一个第一机器学习模型,根据所述网格数据、所述至少一条经下采样的数据和所述输入参数来生成3D特征图;以及
通过对所述3D特征图进行后处理来生成表示所述3D结构在环境中的状态的状态数据。
15.根据权利要求14所述的3D建模方法,其中,通过顺序地生成至少一条经下采样的数据来生成第二网格数据包括对第一网格数据进行下采样,并且
生成属性简档数据包括:
基于前一第一级的输出数据、所述第一网格数据和所述第二网格数据来运行第一机器学习模型;以及
将第一机器学习模型的输出数据提供给下一第一级。
16.根据权利要求15所述的3D建模方法,其中,运行第一机器学习模型包括:
串接前一第一级的输出数据与第一网格数据;
基于串接的数据来运行卷积层;
对卷积层的输出数据进行下采样;以及
基于经下采样的数据和所述第二网格数据来运行一系列残差块。
17.根据权利要求14所述的3D建模方法,其中,所述3D结构对应于集成电路的器件,
所述属性简档数据表示所述器件中的掺杂简档,
所述输入参数表示施加于所述器件的电压,并且
所述状态数据表示所述器件的电压和电流特性。
18.根据权利要求14所述的3D建模方法,还包括基于分别与至少一个第二级相对应的至少一个第二机器学习模型,根据所述至少一条经下采样的数据和所述3D特征图来生成表示3D结构的状态的简档的状态简档数据。
19.根据权利要求18所述的3D建模方法,其中,顺序地生成至少一条经下采样的数据包括通过对第一网格数据进行下采样来生成第二网格数据,并且
生成状态简档数据包括:
基于前一第二级的输出数据、所述第一网格数据和所述第二网格数据来运行第二机器学习模型;以及
将第二机器学习模型的输出数据提供给下一第二级。
20.根据权利要求18所述的3D建模方法,其中,所述3D结构对应于集成电路的器件,
所述属性简档数据表示所述器件中的掺杂简档,
所述输入参数表示施加于所述器件的电压,以及
所述状态简档数据表示所述器件中的空穴和/或电子简档。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210149022A KR20230063688A (ko) | 2021-11-02 | 2021-11-02 | 3차원 모델링을 위한 방법 및 시스템 |
KR10-2021-0149022 | 2021-11-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116071516A true CN116071516A (zh) | 2023-05-05 |
Family
ID=83996799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211357538.9A Pending CN116071516A (zh) | 2021-11-02 | 2022-11-01 | 用于三维建模的方法和系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230136021A1 (zh) |
EP (1) | EP4174713A1 (zh) |
KR (1) | KR20230063688A (zh) |
CN (1) | CN116071516A (zh) |
TW (1) | TW202329042A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI819989B (zh) * | 2023-05-17 | 2023-10-21 | 台達電子工業股份有限公司 | 三維物件的建模裝置及建模方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118172648B (zh) * | 2024-05-14 | 2024-07-23 | 江西农业大学 | 一种基于双向曲形状态空间模型的手网格重建系统及方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3441819A1 (en) * | 2017-08-07 | 2019-02-13 | ASML Netherlands B.V. | Computational metrology |
US11693386B2 (en) * | 2019-08-27 | 2023-07-04 | Samsung Eleotronics Co., Ltd. | Method and electronic device for guiding semiconductor manufacturing process |
CN113536661B (zh) * | 2021-06-15 | 2022-12-13 | 西安电子科技大学 | 基于神经网络的tfet器件结构优化和性能预测方法 |
-
2021
- 2021-11-02 KR KR1020210149022A patent/KR20230063688A/ko unknown
-
2022
- 2022-10-25 EP EP22203552.9A patent/EP4174713A1/en active Pending
- 2022-10-25 US US17/972,809 patent/US20230136021A1/en active Pending
- 2022-10-28 TW TW111141112A patent/TW202329042A/zh unknown
- 2022-11-01 CN CN202211357538.9A patent/CN116071516A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI819989B (zh) * | 2023-05-17 | 2023-10-21 | 台達電子工業股份有限公司 | 三維物件的建模裝置及建模方法 |
Also Published As
Publication number | Publication date |
---|---|
TW202329042A (zh) | 2023-07-16 |
US20230136021A1 (en) | 2023-05-04 |
EP4174713A1 (en) | 2023-05-03 |
KR20230063688A (ko) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116071516A (zh) | 用于三维建模的方法和系统 | |
Yu et al. | Pu-net: Point cloud upsampling network | |
JP7246392B2 (ja) | ニューラルネットワークの関数サブネットワークの同時トレーニング | |
JP6657137B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN112381879B (zh) | 基于图像和三维模型的物体姿态估计方法、系统及介质 | |
CN106251384B (zh) | 使用三角形的递归再分的细分方法 | |
US20210081798A1 (en) | Neural network method and apparatus | |
CN109584357B (zh) | 基于多轮廓线的三维建模方法、装置、系统及存储介质 | |
CN110728295B (zh) | 半监督式的地貌分类模型训练和地貌图构建方法 | |
US20150127301A1 (en) | Updating A CAD Model To Reflect Global Or Local Shape Changes | |
KR101853237B1 (ko) | 딥 러닝을 이용한 3차원 기하 디노이징 방법 및 그 장치 | |
US11468622B2 (en) | Ordering of patch selection in tessellation operations | |
US20240078362A1 (en) | Systems and methods for machine learning based fast static thermal solver | |
CN116663491B (zh) | 基于bdd求解功能覆盖组条件约束语句的方法、设备和介质 | |
Frías et al. | Exploiting BIM objects for synthetic data generation toward indoor point cloud classification using deep learning | |
CN113239646A (zh) | 一种基于等效粗糙度风电场建模方法、介质和设备 | |
KR20220096966A (ko) | 학생 친화적 교사 모델 및 학생 모델의 학습을 위한 시스템 및 방법 | |
KR102441442B1 (ko) | 그래프 컨볼루션 네트워크 학습 방법 및 장치 | |
KR102427634B1 (ko) | 변형가능 컨벌루션 네트워크를 정적 계산 기법을 사용하여 최적화한 BSDCN(Bounded Static Deformable Convolution Network)의 학습 방법 및 학습 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
KR20230112437A (ko) | 산포 기반 레이아웃 시뮬레이션 및 검증을 위한 방법 및 시스템 | |
KR20240052180A (ko) | 3d 모델 단순화 장치 및 방법 | |
CN118133574B (zh) | 一种sram生成系统 | |
US20240037307A1 (en) | Semiconductor device simulation system and method | |
CN112949656B (zh) | 水下地形匹配定位方法、设备及计算机存储介质 | |
US11931964B2 (en) | 3D printing computer application 3D printing using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |