CN118212120A - 用于半导体图像处理的方法和设备 - Google Patents
用于半导体图像处理的方法和设备 Download PDFInfo
- Publication number
- CN118212120A CN118212120A CN202310930748.0A CN202310930748A CN118212120A CN 118212120 A CN118212120 A CN 118212120A CN 202310930748 A CN202310930748 A CN 202310930748A CN 118212120 A CN118212120 A CN 118212120A
- Authority
- CN
- China
- Prior art keywords
- image
- input image
- original
- enhanced
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 158
- 239000004065 semiconductor Substances 0.000 title claims abstract description 65
- 238000012545 processing Methods 0.000 title claims abstract description 31
- 230000001537 neural effect Effects 0.000 claims abstract description 126
- 230000008569 process Effects 0.000 claims abstract description 105
- 230000009466 transformation Effects 0.000 claims abstract description 90
- 238000004519 manufacturing process Methods 0.000 claims abstract description 18
- 230000001131 transforming effect Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 35
- 238000003860 storage Methods 0.000 claims description 20
- 238000005530 etching Methods 0.000 claims description 17
- 238000011161 development Methods 0.000 claims description 12
- 230000000717 retained effect Effects 0.000 claims description 6
- 230000015654 memory Effects 0.000 description 31
- 238000012937 correction Methods 0.000 description 26
- 238000013528 artificial neural network Methods 0.000 description 22
- 229920002120 photoresistant polymer Polymers 0.000 description 14
- 238000004088 simulation Methods 0.000 description 12
- 238000013461 design Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 230000002708 enhancing effect Effects 0.000 description 5
- 230000002441 reversible effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 210000005036 nerve Anatomy 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000003672 processing method Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F1/00—Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
- G03F1/36—Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
公开了用于半导体图像处理的方法和设备。所述用于半导体图像处理的方法包括:从与用于制造半导体的工艺的应用目标对应的原始输入图像,识别原始输入图像的半导体图案的输入分量;通过对包括来自原始输入图像的输入分量中的一个或多个的变换目标进行变换来生成增强输入图像;以及基于增强输入图像执行用于估计根据所述工艺的图案变换的神经模型。
Description
本申请要求于2022年12月14日在韩国知识产权局提交的第10-2022-0175047号韩国专利申请的权益,所述韩国专利申请的全部公开出于所有目的通过引用包含于此。
技术领域
以下描述涉及用于半导体图像处理的方法和设备。
背景技术
半导体制造工艺可包括用于处理晶片的详细工艺。另外,存在用于减少详细工艺的误差的技术。例如,光学邻近校正(OPC)可被用于显影工艺,并且工艺邻近校正(PPC)可被用于蚀刻工艺。神经网络可基于深度学习而被训练,并且可通过将处于非线性关系的输入数据和输出数据彼此映射来执行用于期望目的的推断。生成这样的映射的训练能力可被称为神经网络的学习能力。神经网络可与半导体制造工艺结合。
发明内容
提供本发明内容以简要的形式介绍在以下具体实施方式中进一步描述的构思的选择。本发明内容不旨在确定要求保护的主题的关键特征或必要特征,也不旨在用于帮助确定要求保护的主题的范围。
在一个或多个总体方面,一种处理器实现的方法包括:从与用于制造半导体的工艺的应用目标对应的原始输入图像,识别原始输入图像的半导体图案的输入分量;通过对包括来自原始输入图像的输入分量中的一个或多个的变换目标进行变换来生成增强输入图像;以及基于增强输入图像,执行用于估计根据所述工艺的图案变换的神经模型。
生成增强输入图像的步骤可包括:通过移除变换目标来生成增强输入图像。
对变换目标进行变换的步骤可包括:移除变换目标、缩放变换目标、移位变换目标和旋转变换目标中的任何一个或者任何两个或更多个的任何组合。
原始输入图像的与变换目标不对应的部分可被保留在增强输入图像中。
识别输入分量的步骤可包括:将包括原始输入图像中不为零的像素值并且彼此连接的一组像素识别为输入分量中的一个输入分量。
所述方法可包括根据神经模型的执行结果来训练神经模型。
所述方法可包括:从与所述工艺的应用结果对应的原始输出图像,识别原始输出图像的半导体图案的输出分量;以及通过将与原始输入图像的变换目标的变换对应的变换应用于原始输出图像的输出分量来生成增强输出图像,其中,训练神经模型的步骤可包括:根据增强输出图像和与神经模型的执行结果对应的结果图像之间的差异来训练神经模型。
所述方法可包括:基于原始输入图像执行神经模型;以及通过对基于原始输入图像的神经模型的执行结果和基于增强输入图像的神经模型的执行结果进行组合,估计根据所述工艺的图案变换。
所述工艺可包括显影工艺和蚀刻工艺中的任一者或两者。
在一个或多个总体方面,一种非暂时性计算机可读存储介质存储指令,所述指令在由处理器执行时将处理器配置为执行在此描述的操作和/或方法中的任何一个、任何组合或全部。
在一个或多个总体方面,一种处理器实现的方法包括:从与用于制造半导体的工艺的应用目标对应的原始输入图像和与所述工艺的应用结果对应的原始输出图像,分别识别原始输入图像的半导体图案的输入分量和原始输出图像的半导体图案的输出分量;基于输入分量与输出分量之间的匹配关系来确定分量对;通过从原始输入图像和原始输出图像移除包括分量对中的一个或多个的变换目标来生成增强输入图像和增强输出图像;并且基于增强输入图像和增强输出图像,训练用于预测根据所述工艺的图案变换的神经模型。
在一个或多个总体方面,一种设备包括:一个或多个处理器,被配置为:从与用于制造半导体的工艺的应用目标对应的原始输入图像,识别原始输入图像的半导体图案的输入分量;通过对包括来自原始输入图像的输入分量中的一个或多个的变换目标进行变换来生成增强输入图像;并且基于增强输入图像,执行用于估计根据所述工艺的图案变换的神经模型。
为了生成增强输入图像,所述一个或多个处理器可被配置为通过移除变换目标来生成增强输入图像。
为了对变换目标进行变换,所述一个或多个处理器可被配置为执行移除变换目标、缩放变换目标、移位变换目标和旋转变换目标中的任何一个或者任何两个或更多个的任何组合。
原始输入图像的与变换目标不对应的部分可被保留在增强输入图像中。
为了识别输入分量,所述一个或多个处理器可被配置为将包括原始输入图像中不为零的像素值并且彼此连接的一组像素识别为输入分量中的一个输入分量。
所述一个或多个处理器可被配置为根据神经模型的执行结果来训练神经模型。
所述一个或多个处理器可被配置为:从与所述工艺的应用结果对应的原始输出图像,识别原始输出图像的半导体图案的输出分量;通过将与原始输入图像的变换目标的变换对应的变换应用于原始输出图像的输出分量来生成增强输出图像;并且根据增强输出图像和与神经模型的执行结果对应的结果图像之间的差异来训练神经模型。
所述一个或多个处理器可被配置为:基于原始输入图像执行神经模型;并且通过对基于原始输入图像的神经模型的执行结果和基于增强输入图像的神经模型的执行结果进行组合,估计根据所述工艺的图案变换。
所述工艺可包括显影工艺和蚀刻工艺中的任一者或两者。
根据下面的详细描述、附图和权利要求,其他特征和方面将是清楚的。
附图说明
图1示出半导体制造工艺的示例。
图2示出根据显影结果是否被校正的显影结果之间的差异的示例。
图3示出半导体制造工艺中的前向模拟和反向校正的示例。
图4示出神经前向模型的训练处理和神经反向模型的训练处理的示例。
图5示出增强和使用半导体图像的处理的示例。
图6示出通过移除语义分量的增强处理的示例。
图7示出通过使用增强数据的神经模型的训练处理的示例。
图8示出通过使用增强数据的神经模型的推断处理的示例。
图9示出半导体图像处理方法的示例。
图10示出神经模型的训练方法的示例。
图11示出半导体图像处理设备的配置的示例。
图12示出电子装置的配置的示例。
贯穿附图和具体实施方式,除非另外描述或提供,否则相同的附图参考标号将被理解为指代相同的元件、特征和结构。附图可不按比例,并且为了清楚、说明和方便,附图中的元件的相对尺寸、比例和描绘可被夸大。
具体实施方式
提供以下具体实施方式以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在理解本申请的公开之后,在此描述的方法、设备和/或系统的各种改变、修改和等同物将是清楚的。例如,在此描述的操作的顺序仅是示例,并且不限于在此阐述的那些顺序,而是除了必须以特定次序发生的操作之外,可如在理解本申请的公开之后将是清楚的那样被改变。此外,为了更加清楚和简明,可省略对在理解本申请的公开之后已知的特征的描述。
尽管在此可使用诸如“第一”、“第二”和“第三”或A、B、(a)、(b)等的术语来描述各种构件、组件、区域、层或部分,但是这些构件、组件、区域、层或部分不受这些术语限制。这些术语中的每个不用于限定例如对应的构件、组件、区域、层或部分的本质、次序或顺序,而是仅用于将对应的构件、组件、区域、层或部分与其他构件、组件、区域、层或部分区分开。因此,在不脱离示例的教导的情况下,在此描述的示例中所称的第一构件、第一组件、第一区域、第一层或第一部分也可被称为第二构件、第二组件、第二区域、第二层或第二部分。
贯穿说明书,当组件或元件被描述为“在”另一组件、元件或层“上”、“连接到”、“结合到”或“接合到”另一组件、元件或层时,它可直接(例如,与另一组件或元件接触)“在”所述另一组件、元件或层“上”、直接“连接到”、直接“结合到”或直接“接合到”所述另一组件、元件或层,或者可合理地存在介于其间的一个或多个其他组件、元件、层。当组件或元件被描述为“直接在”另一组件或元件“上”、“直接连接到”、“直接结合到”或“直接接合到”另一组件或元件时,可不存在介于其间的其他元件。同样地,例如“在……之间”和“紧接在……之间”以及“与……邻近”和“与……紧邻”的表述也可如前面所描述的那样被解释。
在此使用的术语仅用于描述特定示例的目的,而不是对示例的限制。除非上下文另外清楚地指示,否则单数形式也旨在包括复数形式。作为非限制性示例,术语“包含”、“包括”和“具有”表明存在陈述的特征、数量、操作、构件、元件和/或它们的组合,但不排除存在或添加一个或多个其他特征、数量、操作、构件、元件和/或它们的组合。
如在此使用的,术语“和/或”包括相关所列项中的任何一个以及任何两个或更多个的任何组合。除非相应的描述和实施例需要这样的列表(例如,“A、B和C中的至少一个”)被解释为具有连接含义,否则短语“A、B和C中的至少一个”、“A、B或C中的至少一个”等旨在具有选言含义,并且这些短语“A、B和C中的至少一个”、“A、B或C中的至少一个”等还包括可存在A、B和/或C中的每个中的一个或多个(例如,A、B和C中的每个中的一个或多个的任何组合)的示例。
除非另外定义,否则在此使用的所有术语(包括技术术语和科学术语)具有与本公开所属领域的普通技术人员基于对本申请的公开的理解通常理解的含义相同的含义。除非在此明确地如此定义,否则术语(诸如,在通用词典中定义的那些术语)应被解释为具有与其在相关领域和本申请的公开的上下文中的含义一致的含义,并且不应以理想化或过于形式化的含义进行解释。
在此描述的特征可以以不同的形式体现,并且不应被解释为限于在此描述的示例。相反,已提供在此描述的示例,以仅示出在理解本申请的公开之后将是清楚的实现在此描述的方法、设备和/或系统的许多可行方式中的一些可行方式。在此关于示例或实施例的术语“可”的使用(例如,关于示例或实施例可包括或实现什么)表示存在包括或实现这样的特征的至少一个示例或实施例,而所有示例不限于此。
在下文中,参照附图详细描述示例。当参照附图描述示例时,相同的附图参考标号指代相同的元件,并且将省略与其相关的重复描述。
图1示出半导体制造工艺的示例。参照图1,半导体制造工艺可包括用于处理晶片111的各种详细工艺。可在第一阶段110中生成晶片111,并且可在第二阶段120中将光刻胶121施加在晶片111上。
在第三阶段130中,可通过掩模131将光132投射到光刻胶121。可根据掩模131的图案来确定光刻胶121对光132的曝光区域,并且当光刻胶121的曝光区域被光132去除时,可在第四阶段140中在光刻胶121中形成掩模131的图案。第三阶段130和第四阶段140可包括在显影工艺中。可基于形成在光刻胶121中的图案来确定晶片111的曝光区域(例如,晶片111的曝光区域可对应于光刻胶121的曝光区域),并且可在第五阶段150中对晶片111的曝光区域执行蚀刻。当晶片111的曝光区域被去除时,可在晶片111中形成光刻胶121的图案。可在第六阶段160中去除光刻胶121。第五阶段150和第六阶段160可包括在蚀刻工艺中。
图2示出根据显影结果是否被校正的显影结果(例如,图1的显影工艺的显影结果)之间的差异的示例。在典型的半导体制造工艺中,当使用根据期望的或确定的图案210的原始掩模220时,由于光的衍射、工艺误差等,可生成与期望的图案210相比具有显著误差的显影结果230。可对原始掩模220执行校正以减少误差。用于显影工艺的典型校正方法可包括光学邻近校正(OPC),用于蚀刻工艺的典型校正方法可包括工艺邻近校正(PPC)。
图2可以是用于显影工艺的OPC的示例。可根据OPC来确定校正掩模240,并且通过校正掩模240显影结果250具有轻微误差。典型的校正方法可包括分割初始掩模的操作、根据初始掩模模拟处理结果的操作、通过参考模拟结果根据预设的校正规则对初始掩模的碎片进行校正来确定新掩模的操作、以及根据新掩模模拟处理结果的操作。根据典型的校正方法,可通过使用预设的校正规则的重复移位来得到最终图案。
图3示出半导体制造工艺中的前向模拟和反向校正的示例。参照图3,可通过对第一图案图像310的显影工艺的前向模拟来确定第二图案图像320,并且可通过对第二图案图像320的蚀刻工艺的前向模拟来确定第三图案图像330。考虑半导体工艺的各种特性、条件、变量等的模拟模型可被用于前向模拟。例如,当通过对第一图案图像310的前向模拟可发生在显影工艺中的变换被反映在第一图案图像310上时,可确定第二图案图像320,并且当通过对第二图案图像320的前向模拟可发生在蚀刻工艺中的变换被反映在第二图案图像320上时,可确定第三图案图像330。在非限制性示例中,第一图案图像310可示出光刻胶上方的掩模,第二图案图像320可示出通过光移除的光刻胶的曝光区域,第三图案图像330可示出在蚀刻工艺之后形成在晶片中的光刻胶的图案。
当对应于期望的图案的第一图案图像310与对应于蚀刻工艺的结果的第三图案图像330之间存在误差时,可执行反向校正以减少误差。典型的反向校正可包括用于蚀刻工艺的PPC和用于显影工艺的OPC。可根据预设的校正规则执行典型的校正方法。可根据对第四图案图像340的PPC生成第五图案图像350。第四图案图像340可对应于期望的图案,并且第五图案图像350可对应于用于根据蚀刻工艺得到期望的图案的校正结果。可根据对第五图案图像350的OPC生成第六图案图像360。第六图案图像360可对应于用于根据显影工艺得到第五图案图像350的校正结果。
图4示出神经前向模型的一个或多个实施例的训练处理和神经反向模型的一个或多个实施例的训练处理的示例。根据一个或多个实施例,神经模型可用于估计根据用于制造半导体的目标工艺的图案变换。目标工艺可包括显影工艺和/或蚀刻工艺。根据目标工艺的图案变换可包括根据目标工艺的前向模拟的变换和根据目标工艺的反向校正的变换。神经模型可包括用于执行目标工艺的前向模拟的神经前向模型410和用于执行目标工艺的反向校正的神经反向模型420。
参照图4,可基于输出图案图像401和输入图案图像402来训练神经前向模型410和神经反向模型420。输入图案图像402可对应于目标工艺的应用目标,并且输出图案图像401可对应于目标工艺的应用结果。在非限制性示例中,输入图案图像402可对应于光刻胶上的掩模,并且输出图案图像401可对应于在蚀刻工艺之后形成在晶片中的光刻胶的图案。
神经前向模型410和神经反向模型420可各自包括神经网络。神经网络可包括包含多个层的深度神经网络(DNN)。DNN可包括全连接网络(FCN)、卷积神经网络(CNN)和/或循环神经网络(RNN)中的至少一个。例如,神经网络中的多个层中的至少一些可对应于CNN,其他层可对应于FCN。CNN可被称为卷积层,FCN可被称为全连接层。
神经网络可基于深度学习来训练,并且通过将处于非线性关系的输入数据和输出数据彼此映射来执行适合于训练目的的推断。深度学习可以是用于解决来自大数据集的问题(诸如,图像识别或语音识别)的机器学习技术。深度学习可被理解为用于在通过使用准备好的训练数据来训练神经网络的同时找到能量最小化的点的解决优化问题的处理。通过深度学习的有监督学习或无监督学习,可获得与神经网络的架构或模型对应的权重。通过权重,输入数据和输出数据可彼此映射。例如,当神经网络的宽度和深度足够大时,神经网络可具有足够大的能力以实现任意功能。当通过适当的训练处理关于足够大量的训练数据训练神经网络时,可实现最佳性能。
神经网络可表示为预先训练,其中,“预先”意味着神经网络开始“之前”。“开始”神经网络可指示神经网络可准备好进行推断。例如,神经网络的“开始”可包括将神经网络加载到存储器中,或者在将神经网络加载到存储器中时将用于推断的输入数据输入到神经网络。
可预先训练神经前向模型410以执行目标工艺的前向模拟。可通过使用输入图案图像402和输出图案图像401来训练神经前向模型410,以从输入图案图像402估计输出图案图像401。可预先训练神经反向模型420以执行目标工艺的反向校正。可通过使用输入图案图像402和输出图案图像401来训练神经反向模型420,以从输出图案图像401估计输入图案图像402。
神经模型的估计准确度可取决于训练数据(诸如,输入图案图像402和输出图案图像401)的质量。由于半导体工艺的特性,获得输入图案图像402和输出图案图像401可能导致高成本。一个或多个实施例的数据增强技术可降低获得训练数据的成本。根据一个或多个实施例,可提供用于降低训练神经模型的成本的数据增强技术。在这种情况下,训练结果的性能可根据增强方法而变化。根据一个或多个实施例,可通过适合于半导体图案图像的特性的增强方法来将神经模型训练为具有高的估计准确度。另外,数据增强技术可用于提高神经模型的推断操作的估计准确度。
图5示出增强和使用半导体图像的处理的示例。参照图5,可根据对原始图像510执行的数据增强来生成增强图像520。原始图像510可表示半导体图案,并且可基于原始图像510的每个语义分量来执行数据增强。语义分量可被简称为分量。可基于像素值来区分分量。具有不为0的像素值且彼此连接(例如,被确定为对应于同一分量)的一组像素可形成分量。包括在同一分量中的像素可彼此连接,并且包括在不同分量中的像素可彼此不连接。例如,第一分量中的像素可被分组在一起,并且第二分量中的像素可被分组在一起。
可以以分量单位来执行增强操作。可从原始图像510的分量之中选择包括至少一个分量的变换目标,并且可对变换目标执行变换。变换可包括变换目标的移除、变换目标的缩放、变换目标的移位和/或变换目标的旋转中的至少一个。然而,变换的类型可不限于前述示例。例如,可通过移除不同的变换目标来生成增强图像520。原始图像510的与变换目标不对应的部分可被保留在增强图像520中。
原始图像510和增强图像520可用于神经模型531的训练或神经模型532的推断。神经模型531和532可对应于用于估计根据前向工艺的图案变换的神经前向模型和/或用于估计根据反向校正的图案变换的神经反向模型。神经模型531和532可彼此相同或不同。例如,当基于根据第一原始图像的增强的第一增强图像完成神经模型531的训练时,可基于根据第二原始图像的增强的第二增强图像执行神经模型532的推断。在这种情况下,神经模型531和532可以是相同的(例如,神经模型532可以是训练后的神经模型531)。可选地,神经模型532可以以不是数据增强的方法被训练,并且可基于第二增强图像执行推断操作。
当原始图像510和增强图像520用于神经模型531的训练时,原始图像510和增强图像520可包括输入图案图像和输出图案图像。当神经模型531对应于神经前向模型时,神经模型531可被训练为从输入图案图像估计输出图案图像。当神经模型531对应于神经反向模型时,神经模型531可被训练为从输出图案图像估计输入图案图像。
可通过根据彼此对应的增强操作的增强输入图像和增强输出图像来训练神经模型531。增强输入图像可通过输入图案图像的变换目标的变换而生成,增强输出图像可通过将与输入图案图像的变换目标的变换对应的变换应用到输出图案图像而生成。当基于增强输入图像确定与神经模型531的执行结果对应的结果图像时,神经模型531可被训练为减小结果图像与增强输出图像之间的差异。
当原始图像510和增强图像520用于神经模型532的推断时,原始图像510和增强图像520可对应于输入图案图像或输出图案图像。当神经模型532对应于神经前向模型时,原始图像510和增强图像520可对应于输入图案图像,并且神经模型532可从输入图案图像估计输出图案图像。当神经模型532对应于神经反向模型时,原始图像510和增强图像520可对应于输出图案图像,并且神经模型532可从输出图案图像估计输入图案图像。
当神经模型532对应于神经前向模型时,原始图像510可对应于输入图案图像。可通过对原始图像510的变换目标进行变换来生成增强图像520。可通过使用原始图像510和增强图像520来执行神经模型532,并且可确定与执行结果对应的结果图像。可通过结果图像的组合来估计与前向工艺的结果对应的图案。当神经模型532对应于神经反向模型时,原始图像510可以是输出图案图像。当通过增强操作生成增强图像520时,并且当通过使用原始图像510和增强图像520执行神经模型532时,可确定与执行结果对应的结果图像。可通过结果图像的组合来估计与反向校正的结果对应的图案。集成权重可被用于对结果图像进行组合。
图6示出通过移除语义分量的增强处理的示例。参照图6,可根据对设计图案610执行的成像操作来确定原始图像620。设计图案610可表示与目标工艺的应用目标对应的输入图案或与目标工艺的应用结果对应的输出图案的三维(3D)设计结构。设计图案610可通过详细的多边形结构来表达3D设计结构。设计图案610的成像可对应于3D设计上的结构数据到图像数据的渲染操作。
原始图像620可包括与半导体图案对应的分量。可通过对原始图像620执行的分量识别操作来识别原始图像620的分量。可基于原始图像620的像素的像素值来执行分量识别操作。可从原始图像620选择像素值不为0的像素,并且可将选择的像素之中的彼此连接的像素识别为一个分量。可根据原始图像620中的位置将标签分配给每个分量。图6示出分别分配给分量的标签1至标签4的示例。具有标签k的分量可被称为第k分量。
可通过对原始图像620执行的增强操作来生成增强图像631和632。增强操作可包括变换目标的选择和变换目标的变换。每个变换目标可包括至少一个分量。例如,第一分量可对应于第一变换目标,第二分量可对应于第二变换目标,并且第三分量可对应于第三变换目标。另外地或可选地,第一分量和第二分量可对应于第四变换目标,并且第三分量和第四分量可对应于第五变换目标。
变换可包括变换目标的移除、变换目标的缩放、变换目标的移位和/或变换目标的旋转中的至少一个。然而,变换的类型可不限于前述示例。可对不同的变换目标执行相同的变换操作,可分别对不同的变换目标执行不同的变换操作,或者可对相同的变换目标执行不同的变换操作。增强图像631可表示与从原始图像620移除第二变换目标对应的增强操作的结果,增强图像632可表示与从原始图像620移除第三变换目标对应的增强操作的结果。
图7示出通过使用增强数据的神经模型的训练处理的示例。参照图7,可根据原始输入图像711的增强生成增强输入图像712和713,并且可使用原始输入图像711和/或增强输入图像712和713作为输入来执行神经模型700。原始输入图像711以及增强输入图像712和713可被顺序地输入到神经模型700,并且可根据神经模型700的执行生成执行结果图像721、722和723。左侧的时间轴可表示训练被顺序执行。当实现神经模型700的并行执行时,可通过神经模型700的并行执行,根据原始输入图像711以及增强输入图像712和713并行地生成执行结果图像721、722和723。
当与原始输入图像711对应的原始输出图像731被提供为原始图像时,可根据原始输出图像731的增强生成增强输出图像732和733。用于生成增强输入图像712和713的相同的增强操作可被应用于原始输出图像731,并且可由此生成增强输出图像732和733。例如,增强输入图像712可通过移除原始输入图像711的第二输入分量而生成,增强输入图像713可通过移除原始输入图像711的第三输入分量而生成。作为与前述示例对应的增强操作,增强输出图像732可通过移除原始输出图像731的第二输出分量而生成,增强输出图像733可通过移除原始输出图像731的第三输出分量而生成。为了区分分量,输入图像的分量可被称为输入分量,并且输出图像的分量可被称为输出分量。
原始输出图像731以及增强输出图像732和733可用作地面真值(GT)。神经模型700可被训练为减少执行结果(例如,执行结果图像721、722和723)与GT之间的差异。例如,神经模型700可被训练为减少执行结果图像721与原始输出图像731之间的差异、执行结果图像722与增强输出图像732之间的差异以及执行结果图像723与增强输出图像733之间的差异。
可通过针对原始图像集(例如,原始输入图像711和原始输出图像731)的数据增强来执行神经模型700的多次训练或迭代训练,并且当多个原始图像集被提供时,可执行更多次训练。通过针对一个或多个原始图像集通过数据增强进行训练,一个或多个实施例的训练处理可大大降低由于获得半导体图像导致的成本而确保训练数据的难度。
图7示出与输入图案图像对应的原始输入图像711和与输出图案图像对应的原始输出图像731的示例。在这个示例中,神经模型700可被训练为神经前向模型。可选地或附加地,原始输入图像711可对应于输出图案图像,并且原始输出图像731可对应于输入图案图像。在这种情况下,神经模型700可被训练为神经反向模型。
图8示出通过使用增强数据的神经模型的推断处理的示例。参照图8,可根据原始输入图像811的增强生成增强输入图像812和813,并且可使用原始输入图像811和/或增强输入图像812和813作为输入来执行神经模型800。原始输入图像811以及增强输入图像812和813可被顺序地输入到神经模型800,并且可根据神经模型800的执行生成执行结果图像821、822和823。左侧的时间轴可表示推断被顺序地执行。当实现神经模型800的并行执行时,可通过神经模型800的并行执行,根据原始输入图像811以及增强输入图像812和813并行地生成执行结果图像821、822和823。
可通过对执行结果图像821、822和823进行组合来确定估计结果图像830。可基于特定权重对执行结果图像821、822和823进行组合。根据实施例,神经模型800可对应于集成模型,并且集成权重可用于对执行结果图像821、822和823进行组合。一个或多个实施例的推断处理可通过经由数据增强使用来自各种视角的数据来提高推断的准确度。
图8中示出的示例可以是与神经前向模型对应的神经模型800的示例。在这个示例中,原始输入图像811可对应于输入图案图像,并且估计结果图像830可对应于输出图案图像。可选地,神经模型800可对应于神经反向模型。在这种情况下,原始输入图像811可对应于输出图案图像,并且估计结果图像830可对应于输入图案图像。
图9示出半导体图像处理方法的示例。参照图9,在操作910中,半导体图像处理设备可从“与用于制造半导体的第一工艺的应用目标对应的原始输入图像”识别原始输入图像的半导体图案的输入分量,在操作920中,通过对“包括来自原始输入图像的输入分量中的至少一个的变换目标”进行变换来生成增强输入图像,并且在操作930中,基于增强输入图像执行用于估计根据第一工艺的图案变换的神经模型。
操作920可包括通过移除变换目标而生成增强输入图像的操作。
变换可包括变换目标的移除、变换目标的缩放、变换目标的移位和/或变换目标的旋转中的至少一个。
原始输入图像的与变换目标不对应的部分可被保留在增强输入图像中。
操作910可包括将“包括原始输入图像中不为0的像素值并且彼此连接的一组像素”识别为输入分量中的一个输入分量的操作。
半导体图像处理设备还可根据神经模型的执行结果来执行训练神经模型的操作。
半导体图像处理设备还可执行:从与第一工艺的应用结果对应的原始输出图像识别原始输出图像的半导体图案的输出分量的操作、和通过将与原始输入图像的变换目标的变换对应的变换应用到原始输出图像的输出分量来生成增强输出图像的操作。操作930可包括根据增强输出图像和与神经模型的执行结果对应的结果图像之间的差异来训练神经模型的操作。
操作930还可执行:基于原始输入图像执行神经模型的操作、和通过对基于原始输入图像的神经模型的执行结果和基于增强输入图像的神经模型的执行结果进行组合来估计根据第一工艺的图案变换的操作。
第一工艺可包括显影工艺和/或蚀刻工艺中的至少一个。
另外,参照图1至图8和图10至图12提供的描述可应用于图9的半导体图像处理方法。
图10示出神经模型的训练方法的示例。参照图10,在操作1010中,半导体图像处理设备可从“与用于制造半导体的第一工艺的应用目标对应的原始输入图像”和“与第一工艺的应用结果对应的原始输出图像”分别识别原始输入图像的半导体图案的输入分量和原始输出图像的半导体图案的输出分量,在操作1020中,基于输入分量与输出分量之间的匹配关系确定分量对,在操作1030中,通过从原始输入图像和原始输出图像移除包括分量对中的至少一个的变换目标来生成增强输入图像和增强输出图像,在操作1040中,基于增强输入图像和增强输出图像来训练用于预测根据第一工艺的图案变换的神经模型。
另外,参照图1至图9和图11至图12提供的描述可应用于图10的神经模型的训练方法。
图11示出半导体图像处理设备的配置的示例。参照图11,半导体图像处理设备1100可包括处理器1110(例如,一个或多个处理器)和存储器1120(例如,一个或多个存储器)。存储器1120可连接到处理器1110,并且可存储可由处理器1110执行的指令、将由处理器1110操作的数据或由处理器1110处理的数据。存储器1120可包括非暂时性计算机可读介质(例如,高速随机存取存储器(RAM)和/或非易失性计算机可读存储介质(例如,一个或多个磁盘存储装置、闪存装置或其他非易失性固态存储器装置))。例如,存储器1120可包括存储指令的非暂时性计算机可读存储介质,所述指令在由处理器1110执行时将处理器1110配置为执行在此参照图1至图12描述的操作和方法中的任何一个、任何组合或全部。
处理器1110可执行指令以执行参照图1至图10和图12描述的操作。
另外,参照图1至图10和图12提供的描述可应用于半导体图像处理设备1100。
图12示出电子装置的配置的示例。参照图12,电子装置1200可包括可通过通信总线1280彼此通信的处理器1210(例如,一个或多个处理器)、存储器1220(例如,一个或多个存储器)、相机1230、存储装置1240、输入装置1250、输出装置1260和网络接口1270。例如,电子装置1200可被实现为移动装置(诸如,移动电话、智能电话、个人数字助理(PDA)、上网本、平板计算机和/或膝上型计算机)、可穿戴装置(诸如,智能手表、智能手环和/或智能眼镜)、家用电器(诸如,电视(TV)、智能TV和/或冰箱)、安全装置(诸如,门锁)和/或车辆(诸如,自主车辆和/或智能车辆)中的至少一个。电子装置1200可在结构上和/或功能上包括图11的半导体图像处理设备1100。
处理器1210可执行将要在电子装置1200中执行的指令和功能。例如,处理器1210可处理存储在存储器1220或存储装置1240中的指令。处理器1210可执行通过图1至图11描述的一个或多个操作。存储器1220可包括计算机可读存储介质或计算机可读存储装置。存储器1220可存储将要由处理器1210执行的指令,并且可在电子装置1200执行软件和/或应用时存储相关信息。例如,存储器1220可包括存储指令的非暂时性计算机可读存储介质,所述指令在由处理器1210执行时将处理器1210配置为执行在此参照图1至图12描述的操作和方法中的任何一个、任何组合或全部。
相机1230可捕获照片和/或视频。存储装置1240可包括计算机可读存储介质或计算机可读存储装置。存储装置1240可长时间存储比存储器1220大量的信息。例如,存储装置1240可包括磁性硬盘、光盘、闪存、软盘或本领域已知的其他非易失性存储器。
输入装置1250可通过使用键盘和鼠标的传统输入方案以及通过新的输入方案(诸如,触摸输入、语音输入或图像输入)从用户接收输入。例如,输入装置1250可包括键盘、鼠标、触摸屏、麦克风或用于检测来自用户的输入并将检测到的输入发送到电子装置1200的任何其他装置。输出装置1260可通过视觉通道、听觉通道或触觉通道将电子装置1200的输出提供给用户。输出装置1260可包括例如显示器、触摸屏、扬声器、振动生成器或将输出提供给用户的任何其他装置。网络接口1270可通过有线或无线网络与外部装置通信。
在此关于图1至图12公开和描述的半导体图像处理设备、处理器、存储器、电子装置、相机、存储装置、输入装置、输出装置、网络接口、通信总线、半导体图像处理设备1100、处理器1110、存储器1120、电子装置1200、处理器1210、存储器1220、相机1230、存储装置1240、输入装置1250、输出装置1260、网络接口1270、通信总线1280以及其他设备、装置、单元、模块和组件由硬件组件实现或表示硬件组件。如上所述,或者除了以上描述之外,可用于执行在本申请中描述的操作的硬件组件的示例在适当的情况下包括控制器、传感器、生成器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器以及被配置为执行在本申请中描述的操作的任何其他电子组件。在其他示例中,执行在本申请中描述的操作的一个或多个硬件组件由计算硬件(例如,由一个或多个处理器或计算机)实现。处理器或计算机可由一个或多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微计算机、可编程逻辑控制器、现场可编程门阵列、可编程逻辑阵列、微处理器或被配置为以限定的方式响应并执行指令以实现期望的结果的任何其他装置或装置的组合)实现。在一个示例中,处理器或计算机包括或连接到存储由处理器或计算机执行的指令或软件的一个或多个存储器。由处理器或计算机实现的硬件组件可执行用于执行在本申请中描述的操作的指令或软件(诸如,操作系统(OS)和在OS上运行的一个或多个软件应用)。硬件组件还可响应于指令或软件的执行来访问、操控、处理、创建和存储数据。为了简明,单数术语“处理器”或“计算机”可用于在本申请中描述的示例的描述中,但是在其他示例中,多个处理器或计算机可被使用,或者处理器或计算机可包括多个处理元件、或多种类型的处理元件、或两者。例如,单个硬件组件、或者两个或更多个硬件组件可由单个处理器、或者两个或更多个处理器、或者处理器和控制器来实现。一个或多个硬件组件可由一个或多个处理器、或者处理器和控制器来实现,并且一个或多个其他硬件组件可由一个或多个其他处理器、或者另一处理器和另一控制器来实现。一个或多个处理器、或者处理器和控制器可实现单个硬件组件、或者两个或更多个硬件组件。如上所述,或者除了以上描述之外,示例硬件组件可具有不同的处理配置中的任何一个或多个,不同的处理配置的示例包括:单个处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理和多指令多数据(MIMD)多处理。
执行本申请中描述的操作的图1至图12中示出的方法由计算硬件(例如,由一个或多个处理器或计算机)来执行,计算硬件被实现为如上所述执行指令或软件以执行在本申请中描述的由所述方法执行的操作。例如,单个操作、或者两个或更多个操作可由单个处理器、或者两个或更多个处理器、或者处理器和控制器来执行。一个或多个操作可由一个或多个处理器、或者处理器和控制器来执行。一个或多个其他操作可由一个或多个其他处理器、或者另一处理器和另一控制器来执行。一个或多个处理器、或者处理器和控制器可执行单个操作、或者两个或更多个操作。
用于控制计算硬件(例如,一个或多个处理器或计算机)以实现硬件组件并执行如上所述的方法的指令或软件可被编写为计算机程序、代码段、指令或它们的任何组合,以单独地或共同地指示或配置一个或多个处理器或计算机作为机器或专用计算机进行操作,以执行由如上所述的硬件组件和方法执行的操作。在一个示例中,指令或软件包括由一个或多个处理器或计算机直接执行的机器代码(诸如,由编译器产生的机器代码)。在另一示例中,指令或软件包括由一个或多个处理器或计算机使用解释器执行的高级代码。可基于附图中示出的框图和流程图以及在此的相应描述使用任何编程语言来编写指令或软件,附图中示出的框图和流程图以及在此的相应描述公开了用于执行由如上所述的硬件组件和方法执行的操作的算法。
用于控制计算硬件(例如,一个或多个处理器或计算机)以实现硬件组件并执行如上所述的方法的指令或软件以及任何相关联的数据、数据文件和数据结构可被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中,或者被记录、存储或固定在一个或多个非暂时性计算机可读存储介质上,并且因此不是信号本身。如上所述,或者除了以上描述之外,非暂时性计算机可读存储介质的示例包括以下任何一个或多个:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储装置、硬盘驱动器(HDD)、固态驱动器(SSD)、闪存、卡式存储器(诸如,多媒体卡或微型卡(例如,安全数字(SD)或极限数字(XD)))、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘以及任何其他装置,任何其他装置被配置为以非暂时性方式存储指令或软件以及任何相关联的数据、数据文件和数据结构并将指令或软件以及任何相关联的数据、数据文件和数据结构提供给一个或多个处理器或计算机,使得一个或多个处理器或计算机能够执行指令。在一个示例中,指令或软件以及任何相关联的数据、数据文件和数据结构分布在联网的计算机系统上,使得指令和软件以及任何相关联的数据、数据文件和数据结构由一个或多个处理器或计算机以分布式方式存储、访问和执行。
虽然本公开包括具体示例,但是在理解本申请的公开之后将清楚的是,在不脱离权利要求及其等同物的精神和范围的情况下,可在这些示例中进行形式和细节上的各种改变。在此描述的示例仅被认为是描述性的,而不是出于限制的目的。每个示例中的特征或方面的描述被认为适用于其他示例中的类似特征或方面。如果描述的技术以不同的次序执行,和/或如果描述的系统、架构、装置或电路中的组件以不同的方式组合、和/或由其他组件或其等同物替代或补充,则可实现合适的结果。
因此,除了以上和所有附图公开之外,公开的范围还包括权利要求及其等同物,即,在权利要求及其等同物的范围内的所有变化应被解释为包括在公开中。
Claims (20)
1.一种用于半导体图像处理的方法,所述方法包括:
从与用于制造半导体的工艺的应用目标对应的原始输入图像,识别原始输入图像的半导体图案的输入分量;
通过对包括来自原始输入图像的输入分量中的一个或多个的变换目标进行变换来生成增强输入图像;以及
基于增强输入图像,执行用于估计根据所述工艺的图案变换的神经模型。
2.根据权利要求1所述的方法,其中,生成增强输入图像的步骤包括:通过移除变换目标来生成增强输入图像。
3.根据权利要求1所述的方法,其中,对变换目标进行变换的步骤包括:移除变换目标、缩放变换目标、移位变换目标和旋转变换目标中的任何一个或者任何两个或更多个的任何组合。
4.根据权利要求1所述的方法,其中,原始输入图像的与变换目标不对应的部分被保留在增强输入图像中。
5.根据权利要求1所述的方法,其中,识别输入分量的步骤包括:将包括原始输入图像中不为零的像素值并且彼此连接的一组像素识别为输入分量中的一个输入分量。
6.根据权利要求1所述的方法,还包括:根据神经模型的执行结果来训练神经模型。
7.根据权利要求6所述的方法,还包括:
从与所述工艺的应用结果对应的原始输出图像,识别原始输出图像的半导体图案的输出分量;以及
通过将与原始输入图像的变换目标的变换对应的变换应用于原始输出图像的输出分量来生成增强输出图像,
其中,训练神经模型的步骤包括:根据增强输出图像和与神经模型的执行结果对应的结果图像之间的差异来训练神经模型。
8.根据权利要求1所述的方法,还包括:
基于原始输入图像执行神经模型;以及
通过对基于原始输入图像的神经模型的执行结果和基于增强输入图像的神经模型的执行结果进行组合,估计根据所述工艺的图案变换。
9.根据权利要求1至8中的任一项所述的方法,其中,所述工艺包括显影工艺和蚀刻工艺中的任一者或两者。
10.一种用于半导体图像处理的方法,所述方法包括:
从与用于制造半导体的工艺的应用目标对应的原始输入图像和与所述工艺的应用结果对应的原始输出图像,分别识别原始输入图像的半导体图案的输入分量和原始输出图像的半导体图案的输出分量;
基于输入分量与输出分量之间的匹配关系来确定分量对;
通过从原始输入图像和原始输出图像移除包括分量对中的一个或多个的变换目标来生成增强输入图像和增强输出图像;以及
基于增强输入图像和增强输出图像,训练用于预测根据所述工艺的图案变换的神经模型。
11.一种存储指令的非暂时性计算机可读存储介质,所述指令在由一个或多个处理器执行时将所述一个或多个处理器配置为执行根据权利要求1至10中的任一项所述的方法。
12.一种用于半导体图像处理的设备,所述设备包括:
一个或多个处理器,被配置为:
从与用于制造半导体的工艺的应用目标对应的原始输入图像,识别原始输入图像的半导体图案的输入分量;
通过对包括来自原始输入图像的输入分量中的一个或多个的变换目标进行变换来生成增强输入图像;并且
基于增强输入图像,执行用于估计根据所述工艺的图案变换的神经模型。
13.根据权利要求12所述的设备,其中,为了生成增强输入图像,所述一个或多个处理器被配置为通过移除变换目标来生成增强输入图像。
14.根据权利要求12所述的设备,其中,为了对变换目标进行变换,所述一个或多个处理器被配置为执行移除变换目标、缩放变换目标、移位变换目标和旋转变换目标中的任何一个或者任何两个或更多个的任何组合。
15.根据权利要求12所述的设备,其中,原始输入图像的与变换目标不对应的部分被保留在增强输入图像中。
16.根据权利要求12所述的设备,其中,为了识别输入分量,所述一个或多个处理器被配置为将包括原始输入图像中不为零的像素值并且彼此连接的一组像素识别为输入分量中的一个输入分量。
17.根据权利要求12所述的设备,其中,所述一个或多个处理器被配置为根据神经模型的执行结果来训练神经模型。
18.根据权利要求17所述的设备,其中,所述一个或多个处理器被配置为:
从与所述工艺的应用结果对应的原始输出图像,识别原始输出图像的半导体图案的输出分量;
通过将与原始输入图像的变换目标的变换对应的变换应用于原始输出图像的输出分量来生成增强输出图像;并且
根据增强输出图像和与神经模型的执行结果对应的结果图像之间的差异来训练神经模型。
19.根据权利要求12所述的设备,其中,所述一个或多个处理器被配置为:
基于原始输入图像执行神经模型;并且
通过对基于原始输入图像的神经模型的执行结果和基于增强输入图像的神经模型的执行结果进行组合,估计根据所述工艺的图案变换。
20.根据权利要求12至19中的任一项所述的设备,其中,所述工艺包括显影工艺和蚀刻工艺中的任一者或两者。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2022-0175047 | 2022-12-14 | ||
KR1020220175047A KR20240092360A (ko) | 2022-12-14 | 2022-12-14 | 반도체 영상 처리 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118212120A true CN118212120A (zh) | 2024-06-18 |
Family
ID=87748312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310930748.0A Pending CN118212120A (zh) | 2022-12-14 | 2023-07-27 | 用于半导体图像处理的方法和设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240202910A1 (zh) |
EP (1) | EP4386655A1 (zh) |
JP (1) | JP2024085379A (zh) |
KR (1) | KR20240092360A (zh) |
CN (1) | CN118212120A (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10402524B2 (en) * | 2017-05-08 | 2019-09-03 | Globalfoundries Inc. | Prediction of process-sensitive geometries with machine learning |
US20200380362A1 (en) * | 2018-02-23 | 2020-12-03 | Asml Netherlands B.V. | Methods for training machine learning model for computation lithography |
KR20210133364A (ko) * | 2020-04-28 | 2021-11-08 | 삼성전자주식회사 | 반도체 장치의 제조를 위한 방법 및 컴퓨팅 장치 |
KR20220080768A (ko) * | 2020-12-07 | 2022-06-15 | 삼성전자주식회사 | Opc 모델의 에러 검증 방법 |
-
2022
- 2022-12-14 KR KR1020220175047A patent/KR20240092360A/ko unknown
-
2023
- 2023-07-21 US US18/356,555 patent/US20240202910A1/en active Pending
- 2023-07-27 CN CN202310930748.0A patent/CN118212120A/zh active Pending
- 2023-08-18 EP EP23192216.2A patent/EP4386655A1/en active Pending
- 2023-10-19 JP JP2023180028A patent/JP2024085379A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20240092360A (ko) | 2024-06-24 |
US20240202910A1 (en) | 2024-06-20 |
JP2024085379A (ja) | 2024-06-26 |
EP4386655A1 (en) | 2024-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163240B (zh) | 对象识别方法及设备 | |
CN111352656B (zh) | 使用按位运算的神经网络设备和方法 | |
US20190164057A1 (en) | Mapping and quantification of influence of neural network features for explainable artificial intelligence | |
CN112329505A (zh) | 用于检测对象的方法和装置 | |
CN112990427A (zh) | 域自适应的神经网络实现的装置和方法 | |
US20220198270A1 (en) | Neural network model training method and apparatus | |
EP4033446A1 (en) | Method and apparatus for image restoration | |
CN112396085B (zh) | 识别图像的方法和设备 | |
US20230222781A1 (en) | Method and apparatus with object recognition | |
CN113868187A (zh) | 处理神经网络的方法和电子装置 | |
CN113947703A (zh) | 通过神经网络识别图像的方法和设备 | |
CN116363166A (zh) | 对象跟踪方法、对象跟踪设备和电子设备 | |
CN114819050A (zh) | 训练用于图像识别的神经网络的方法和设备 | |
CN114494713A (zh) | 用于图像识别的方法和设备 | |
CN112819151A (zh) | 用于识别图像的方法和设备以及训练方法 | |
CN114254731A (zh) | 用于神经网络操作的方法和设备 | |
CN116034375A (zh) | 用于图像中异常检测和定位的增量学习 | |
US11715216B2 (en) | Method and apparatus with object tracking | |
CN118212120A (zh) | 用于半导体图像处理的方法和设备 | |
CN116263943A (zh) | 图像修复方法和设备以及电子装置 | |
Coletti et al. | Troubleshooting deep-learner training data problems using an evolutionary algorithm on Summit | |
US20230351610A1 (en) | Method and apparatus with object tracking | |
CN118212158A (zh) | 用于半导体图案校正的方法和设备 | |
CN117011558A (zh) | 用于跟踪对象的方法和装置 | |
US20230007964A1 (en) | Method and apparatus with image transformation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |