KR20240092360A - Method and apparatus for processing semiconductor image - Google Patents
Method and apparatus for processing semiconductor image Download PDFInfo
- Publication number
- KR20240092360A KR20240092360A KR1020220175047A KR20220175047A KR20240092360A KR 20240092360 A KR20240092360 A KR 20240092360A KR 1020220175047 A KR1020220175047 A KR 1020220175047A KR 20220175047 A KR20220175047 A KR 20220175047A KR 20240092360 A KR20240092360 A KR 20240092360A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- semiconductor
- original
- augmented
- transformation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 119
- 239000004065 semiconductor Substances 0.000 title claims abstract description 81
- 238000012545 processing Methods 0.000 title claims description 33
- 230000001537 neural effect Effects 0.000 claims abstract description 111
- 230000008569 process Effects 0.000 claims abstract description 94
- 230000003190 augmentative effect Effects 0.000 claims abstract description 89
- 230000009466 transformation Effects 0.000 claims abstract description 71
- 238000004519 manufacturing process Methods 0.000 claims abstract description 18
- 238000003672 processing method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims description 33
- 238000005530 etching Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 2
- 238000012937 correction Methods 0.000 description 26
- 238000013528 artificial neural network Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 230000003416 augmentation Effects 0.000 description 18
- 238000011161 development Methods 0.000 description 12
- 238000004088 simulation Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 238000013434 data augmentation Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 229920002120 photoresistant polymer Polymers 0.000 description 8
- 235000012431 wafers Nutrition 0.000 description 8
- 238000013461 design Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03F—PHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
- G03F1/00—Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
- G03F1/36—Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0006—Industrial image inspection using a design-rule based approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/149—Segmentation; Edge detection involving deformable models, e.g. active contour models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
Abstract
반도체 영상 처리 방법 및 장치가 제공된다. 그 방법은 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고, 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고, 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는 단계들을 포함할 수 있다.A semiconductor image processing method and device are provided. The method identifies input components of a semiconductor pattern of an original input image corresponding to an object of application of a first process for semiconductor production, and transforms a transformation object including at least one of the input components from the original input image. It may include steps of generating an augmented input image and executing a neural model that estimates pattern deformation according to the first process based on the augmented input image.
Description
아래 실시예들은 반도체 영상 처리 방법 및 장치에 관한 것이다.The following embodiments relate to a semiconductor image processing method and device.
반도체 생산 공정(semiconductor manufacturing process)은 웨이퍼(wafer)의 가공을 위한 다양한 세부 공정들을 포함할 수 있다. 또한, 세부 공정들의 오차를 줄이는 다양한 기술이 존재한다. 예를 들어, 현상 공정(develop process)을 위해 OPC(optical proximity correction)가, 식각 공정(etch process)을 위해 PPC(process proximity correction)가 이용될 수 있다. 뉴럴 네트워크는 딥 러닝에 기반하여 훈련된 후, 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 목적에 맞는 추론(inference)을 수행해낼 수 있다. 이러한 맵핑을 생성하는 훈련된 능력은 신경망의 학습 능력이라 할 수 있다. 뉴럴 네트워크는 다양한 기술 분야에서 사용될 수 있으며, 반도체 생산 공정과 결합될 수 있다.The semiconductor manufacturing process may include various detailed processes for processing wafers. Additionally, various technologies exist to reduce errors in detailed processes. For example, optical proximity correction (OPC) may be used for the development process, and process proximity correction (PPC) may be used for the etch process. After the neural network is trained based on deep learning, it can perform inference suitable for the purpose by mapping input data and output data in a non-linear relationship to each other. The trained ability to create these mappings can be considered the learning ability of a neural network. Neural networks can be used in a variety of technological fields and can be combined with the semiconductor production process.
일 실시예에 따르면, 반도체 영상 처리 방법은 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하는 단계, 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하는 단계, 및 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는 단계를 포함한다.According to one embodiment, a semiconductor image processing method includes identifying input components of a semiconductor pattern of an original input image from an original input image corresponding to an application target of a first process for semiconductor production, and at least one of the input components from the original input image. It includes generating an augmented input image by deforming a deformation target including one, and executing a neural model that estimates pattern deformation according to the first process based on the augmented input image.
일 실시예에 따르면, 트레이닝 방법은 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상 및 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터, 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들 및 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계, 입력 컴포넌트들과 출력 컴포넌트들 간의 매칭 관계에 기초하여 컴포넌트 쌍들을 결정하는 단계, 원본 입력 영상 및 원본 출력 영상으로부터 컴포넌트 쌍들의 적어도 하나를 포함하는 변형 대상을 제거하여 증강 입력 영상 및 증강 출력 영상을 생성하는 단계, 및 증강 입력 영상 및 증강 출력 영상에 기초하여 제1 공정에 따른 패턴 변형을 예측하는 뉴럴 모델을 트레이닝하는 단계를 포함한다.According to one embodiment, the training method includes input components of the semiconductor pattern of the original input image from the original input image corresponding to the application target of the first process for semiconductor production and the original output image corresponding to the application result of the first process. and identifying output components of the semiconductor pattern of the original output image, determining component pairs based on a matching relationship between the input components and the output components, including at least one of the component pairs from the original input image and the original output image. It includes generating an augmented input image and an augmented output image by removing the object of modification, and training a neural model to predict pattern modification according to the first process based on the augmented input image and the augmented output image.
일 실시예에 따르면, 반도체 영상 처리 장치는 프로세서, 및 프로세서에서 실행가능한 명령어들을 포함하는 메모리를 포함하고, 명령어들이 프로세서에서 실행되면, 프로세서는 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고, 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고, 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행한다.According to one embodiment, a semiconductor image processing device includes a processor and a memory including instructions executable on the processor, and when the instructions are executed on the processor, the processor generates an original image corresponding to an object of application of the first process for semiconductor production. Identifying input components of a semiconductor pattern of the original input image from the input image, generating an augmented input image by modifying a transformation target including at least one of the input components from the original input image, and performing a first process based on the augmented input image. Run a neural model that estimates pattern deformation.
도 1은 반도체 생산 공정을 예시적으로 나타내는 도면이다.
도 2는 보정 유무에 따른 현상 결과의 차이를 예시적으로 나타내는 도면이다.
도 3은 반도체 생산 공정에서의 포워드 시뮬레이션 및 백워드 보정을 예시적으로 나타내는 도면이다.
도 4는 일 실시예에 따른, 뉴럴 포워드 모델과 뉴럴 백워드 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다.
도 5는 일 실시예에 따른, 반도체 영상의 증강 및 활용 과정을 예시적으로 나타내는 도면이다.
도 6은 일 실시예에 따른, 의미론적 컴포넌트의 제거를 통한 증강 과정을 예시적으로 나타내는 도면이다.
도 7은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다.
도 8은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 추론 과정을 예시적으로 나타내는 도면이다.
도 9는 일 실시예에 따른, 반도체 영상 처리 방법을 예시적으로 나타내는 플로우 차트이다.
도 10은 일 실시예에 따른, 뉴럴 모델의 트레이닝 방법을 예시적으로 나타내는 플로우 차트이다.
도 11은 일 실시예에 따른, 반도체 영상 처리 장치의 구성을 예시적으로 나타내는 블록도이다.
도 12는 일 실시예에 따른, 전자 장치의 구성을 예시적으로 나타내는 블록도이다.1 is a diagram illustrating a semiconductor production process.
Figure 2 is a diagram illustrating the difference in development results depending on the presence or absence of correction.
Figure 3 is a diagram illustrating forward simulation and backward correction in a semiconductor production process.
Figure 4 is a diagram illustrating the training process of a neural forward model and a neural backward model according to an embodiment.
Figure 5 is a diagram illustrating a process of augmenting and utilizing a semiconductor image according to an embodiment.
Figure 6 is a diagram illustrating an augmentation process through removal of semantic components, according to an embodiment.
Figure 7 is a diagram illustrating a training process of a neural model using augmented data, according to an embodiment.
Figure 8 is a diagram illustrating an inference process of a neural model using augmented data, according to an embodiment.
9 is a flow chart illustrating a semiconductor image processing method according to an embodiment.
Figure 10 is a flow chart illustrating a neural model training method according to an embodiment.
FIG. 11 is a block diagram illustrating the configuration of a semiconductor image processing device according to an embodiment.
FIG. 12 is a block diagram illustrating the configuration of an electronic device according to an embodiment.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, and are intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.
본 명세서에서, "A 또는 B 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다.As used herein, phrases such as “at least one of A or B” and “at least one of A, B, or C” each refer to any one of the items listed together with the corresponding phrase, or all of them. Possible combinations may be included.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.
이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.
도 1은 반도체 생산 공정을 예시적으로 나타내는 도면이다. 도 1을 참조하면, 반도체 생산 공정(semiconductor manufacturing process)은 웨이퍼(wafer)(111)의 가공을 위한 다양한 세부 공정들을 포함할 수 있다. 제1 스테이지(110)에서 웨이퍼가 생성되고, 제2 스테이지(120)에서 웨이퍼(111) 위에 포토레지스트(photoresist)(121)가 도포될 수 있다.1 is a diagram illustrating a semiconductor production process. Referring to FIG. 1, a semiconductor manufacturing process may include various detailed processes for processing a
제3 스테이지(130)에서 마스크(131)를 통해 포토레지스트(121)에 빛(132)이 조사될 수 있다. 마스크(131)의 패턴에 따라 빛(132)에 대한 포토레지스트(121)의 노출 영역이 결정되고, 빛(132)에 의해 포토레지스트(121)의 노출 영역이 제거됨에 따라 제4 스테이지(140)와 같이 포토레지스트(121)에 마스크(131)의 패턴이 형성될 수 있다. 제3 스테이지(130) 및 제4 스테이지(140)는 현상 공정(develop process)에 해당할 수 있다. 포토레지스트(121)에 형성된 패턴에 따라 웨이퍼(111)의 노출 영역이 결정될 수 있고, 제5 스테이지(150)에서 웨이퍼(111)의 노출 영역에 대한 식각이 이루어질 수 있다. 웨이퍼(111)의 노출 영역이 제거됨에 따라 웨이퍼(111)에 포토레지스트(121)의 패턴이 형성될 수 있다. 제6 스테이지(160)에서 포토레지스트(121)가 제거될 수 있다. 제5 스테이지(150) 및 제6 스테이지(160)는 식각 공장(etch process)에 해당할 수 있다.In the
도 2는 보정 유무에 따른 현상 결과의 차이를 예시적으로 나타내는 도면이다. 실제 반도체 생산 공정에서 희망 패턴(210)에 따른 원형 마스크(original mask)(220)가 사용되면 빛의 회절, 공정 오차 등으로 인해 희망 패턴(210)으로부터의 큰 오차를 갖는 현상 결과(230)가 나타날 수 있다. 오차를 줄이기 위해 원형 마스크(220)에 대한 보정이 이루어질 수 있다. 현상 공정에 대한 기존의 보정 방식은 OPC(optical proximity correction)를 포함할 수 있고, 식각 공정에 대한 기존의 보정 방식은 PPC(process proximity correction)를 포함할 수 있다.Figure 2 is a diagram illustrating the difference in development results depending on the presence or absence of correction. In the actual semiconductor production process, when the
도 2는 현상 공정에 대한 OPC의 예시에 해당할 수 있다. OPC에 따라 보정된 마스크(240)가 결정될 수 있고, 보정된 마스크(240)를 통해 적은 오차를 갖는 현상 결과(250)가 도출될 수 있다. 기존의 보정 방식은 초기 마스크를 조각화(fragmentation)하고, 초기 마스크에 따른 공정 결과물을 시뮬레이션하고, 시뮬레이션 결과를 참조하여 미리 정해진 보정 규칙(correction rule)에 따라 초기 마스크의 조각들을 보정하여 새로운 마스크를 결정하고, 새로운 마스크에 따른 공정 결과물을 시뮬레이션하는 동작들을 포함할 수 있다. 기존의 보정 방식에 따르면 미리 정해진 보정 규칙을 이용한 반복적인 움직임(displacement)을 통해 최종적인 패턴이 도출될 수 있다.Figure 2 may correspond to an example of OPC for the development process. A corrected
도 3은 반도체 생산 공정에서의 포워드 시뮬레이션 및 백워드 보정을 예시적으로 나타내는 도면이다. 도 3을 참조하면, 제1 패턴 영상(310)에 대한 현상 공정의 포워드 시뮬레이션(forward simulation)을 통해 제2 패턴 영상(320)이 결정될 수 있고, 제2 패턴 영상(320)에 대한 식각 공정의 포워드 시뮬레이션을 통해 제3 패턴 영상(330)이 결정될 수 잇다. 포워드 시뮬레이션에는 반도체 공정의 다양한 특성, 조건, 변수 등을 고려하는 시뮬레이션 모델이 이용될 수 있다. 예를 들어, 제1 패턴 영상(310)에 대한 포워드 시뮬레이션을 통해 현상 공정에서 발생 가능한 형태 변화가 제1 패턴 영상(310)에 반영되어 제2 패턴 영상(320)이 결정될 수 있고, 제2 패턴 영상(320)에 대한 포워드 시뮬레이션을 통해 식각 공정에서 발생 가능한 형태 변화가 제2 패턴 영상(320)에 반영되어 제3 패턴 영상(330)이 결정될 수 있다.Figure 3 is a diagram illustrating forward simulation and backward correction in a semiconductor production process. Referring to FIG. 3, the
희망 패턴에 해당하는 제1 패턴 영상(310)과 식각 공정의 결과물에 해당하는 제3 패턴 영상(330) 간에 오차가 발생하는 경우, 오차를 줄이기 위해 백워드 보정이 수행될 수 있다. 기존의 백워드 보정은 식각 공정에 대한 PPC, 및 현상 공정에 대한 OPC를 포함할 수 있다. 기존의 보정 방식은 미리 정해진 보정 규칙을 통해 수행될 수 있다. 제4 패턴 영상(340)에 대한 PPC에 따라 제5 패턴 영상(350)이 생성될 수 있다. 제4 패턴 영상(340)은 희망 패턴에 해당할 수 있고, 제5 패턴 영상(350)은 식각 공정에 따라 희망 패턴이 도출되기 위한 보정 결과에 해당할 수 있다. 제5 패턴 영상(350)에 대한 OPC에 따라 제6 패턴 영상(360)이 생성될 수 있다. 제6 패턴 영상(360)은 현상 공정에 따라 제5 패턴 영상(350)이 도출되기 위한 보정 결과에 해당할 수 있다.If an error occurs between the
도 4는 일 실시예에 따른, 뉴럴 포워드 모델과 뉴럴 백워드 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다. 실시예들에 따르면 반도체 생산을 위한 타겟 공정에 따른 패턴 변형을 추정하는데 뉴럴 모델이 이용될 수 있다. 타겟 공정은 현상 공정 및/또는 식각 공정을 포함할 수 있다. 타겟 공정에 따른 패턴 변형은 타겟 공정의 포워드 시뮬레이션에 따른 변형 및 타겟 공정의 백워드 보정에 따른 변형을 포함할 수 있다. 뉴럴 모델은 타겟 공정의 포워드 시뮬레이션을 수행하는 뉴럴 포워드 모델(410) 및 타겟 공정의 백워드 보정을 수행하는 뉴럴 백워드 모델(420)을 포함할 수 있다.Figure 4 is a diagram illustrating the training process of a neural forward model and a neural backward model according to an embodiment. According to embodiments, a neural model may be used to estimate pattern deformation according to a target process for semiconductor production. The target process may include a development process and/or an etching process. Pattern deformation according to the target process may include deformation due to forward simulation of the target process and deformation due to backward correction of the target process. The neural model may include a neural
도 4를 참조하면, 출력 패턴 영상들(401) 및 입력 패턴 영상들(402)에 기초하여 뉴럴 포워드 모델(410) 및 뉴럴 백워드 모델(420)이 트레이닝될 수 있다. 입력 패턴 영상들(402)은 타겟 공정의 적용 대상에 대응할 수 있고, 출력 패턴 영상들(401)은 타겟 공정의 적용 결과에 대응할 수 있다.Referring to FIG. 4 , a neural
뉴럴 포워드 모델(410) 및 뉴럴 백워드 모델(420)은 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 복수의 레이어들을 포함하는 딥 뉴럴 네트워크(deep neural network, DNN)를 포함할 수 있다. 딥 뉴럴 네트워크는 완전 연결 네트워크(fully connected network, FCN), 컨볼루션 뉴럴 네트워크(convolutional neural network, CNN), 및 리커런트 뉴럴 네트워크(recurrent neural network, RNN) 중 적어도 하나를 포함할 수 있다. 예를 들어, 뉴럴 네트워크 내 복수의 레이어들 중 적어도 일부는 CNN에 해당할 수 있고, 다른 일부는 FCN에 해당할 수 있다. CNN은 컨볼루션 레이어로 지칭될 수 있고, FCN은 완전 연결 레이어로 지칭될 수 있다.The neural
뉴럴 네트워크는 딥 러닝에 기반하여 트레이닝된 후, 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 트레이닝 목적에 맞는 추론(inference)을 수행해낼 수 있다. 딥 러닝은 빅 데이터 세트로부터 영상 또는 음성 인식과 같은 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝은 준비된 트레이닝 데이터를 이용하여 뉴럴 네트워크를 트레이닝하면서 에너지가 최소화되는 지점을 찾아가는 최적화 문제 풀이 과정으로 이해될 수 있다. 딥 러닝의 지도식(supervised) 또는 비지도식(unsupervised) 학습을 통해 뉴럴 네트워크의 구조, 혹은 모델에 대응하는 웨이트(weight)가 구해질 수 있고, 이러한 웨이트를 통해 입력 데이터 및 출력 데이터가 서로 매핑될 수 있다. 뉴럴 네트워크의 폭과 깊이가 충분히 크면 임의의 함수를 구현할 수 있을 만큼의 용량(capacity)을 가질 수 있다. 뉴럴 네트워크가 적절한 트레이닝 과정을 통해 충분히 많은 양의 트레이닝 데이터를 학습하면 최적의 성능을 달성할 수 있다.After the neural network is trained based on deep learning, it can perform inference suitable for the training purpose by mapping input data and output data in a non-linear relationship to each other. Deep learning is a machine learning technique for solving problems such as image or voice recognition from big data sets. Deep learning can be understood as an optimization problem-solving process that finds the point where energy is minimized while training a neural network using prepared training data. Through supervised or unsupervised learning of deep learning, the structure of a neural network or weights corresponding to the model can be obtained, and through these weights, input data and output data can be mapped to each other. You can. If the width and depth of the neural network are large enough, it can have enough capacity to implement arbitrary functions. Optimal performance can be achieved when a neural network learns a sufficiently large amount of training data through an appropriate training process.
아래에서 뉴럴 네트워크가 '미리' 트레이닝된 것으로 표현될 수 있는데, 여기서 '미리'는 뉴럴 네트워크가 '시작'되기 전을 나타낼 수 있다. 뉴럴 네트워크가 '시작'되었다는 것은 뉴럴 네트워크가 추론을 위한 준비가 된 것을 의미할 수 있다. 예를 들어, 뉴럴 네트워크가 '시작'된 것은 뉴럴 네트워크가 메모리에 로드된 것, 혹은 뉴럴 네트워크가 메모리에 로드된 이후 뉴럴 네트워크에 추론을 위한 입력 데이터가 입력된 것을 포함할 수 있다.Below, the neural network can be expressed as being 'pre-trained', where 'pre' can refer to before the neural network 'starts'. When a neural network 'starts', it can mean that the neural network is ready for inference. For example, 'starting' a neural network may include the neural network being loaded into memory, or input data for inference being input to the neural network after the neural network is loaded into memory.
뉴럴 포워드 모델(410)은 타겟 공정의 포워드 시뮬레이션을 수행하도록 미리 트레이닝될 수 있다. 뉴럴 포워드 모델(410)은 입력 패턴 영상들(402)로부터 출력 패턴 영상들(401)을 추정하도록, 입력 패턴 영상들(402) 및 출력 패턴 영상들(401)을 이용하여 트레이닝될 수 있다. 뉴럴 백워드 모델(420)은 타겟 공정의 백워드 보정을 수행하도록 미리 트레이닝될 수 있다. 뉴럴 백워드 모델(420)은 출력 패턴 영상들(401)로부터 입력 패턴 영상들(402)을 추정하도록, 입력 패턴 영상들(402) 및 출력 패턴 영상들(401)을 이용하여 트레이닝될 수 있다.The neural
뉴럴 모델의 추정 정확도는 입력 패턴 영상들(402) 및 출력 패턴 영상들(401)과 같은 트레이닝 데이터의 품질에 의존적일 수 있다. 반도체 공정의 특성 상 출력 패턴 영상들(401) 및 입력 패턴 영상들(401)을 획득하는데 큰 비용이 요구될 수 있다. 데이터 증강(data augmentation) 기법은 트레이닝 데이터의 획득 비용을 줄이는데 기여할 수 있다. 실시예들에 따르면, 뉴럴 모델의 트레이닝 비용을 감소시키는 데이터 증강 기법이 제공될 수 있다. 이때, 증강 방식에 따라 트레이닝 결과물의 성능이 달라질 수 있다. 실시예들에 따르면, 반도체 패턴 영상의 특성에 맞는 증강 방식을 통해 뉴럴 모델이 높은 추정 정확도를 갖도록 트레이닝될 수 있다. 또한, 실시예들에 따른 데이터 증강 기법은 뉴럴 모델의 추론 동작의 추정 정확도를 향상시키는데 이용될 수 있다.The estimation accuracy of the neural model may depend on the quality of training data, such as input pattern images 402 and
도 5는 일 실시예에 따른, 반도체 영상의 증강 및 활용 과정을 예시적으로 나타내는 도면이다. 도 5를 참조하면, 원본 영상(510)에 대한 데이터 증강에 따라 증강 영상들(520)이 생성될 수 있다. 원본 영상(510)은 반도체 패턴을 나타낼 수 있고, 반도체 패턴의 각 의미론적 컴포넌트(semantic component)에 기초하여 데이터 증강이 수행될 수 있다. 의미론적 컴포넌트는 간단히 컴포넌트로 부를 수 있다. 컴포넌트들은 픽셀 값에 기초하여 구분될 수 있다. 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹은 하나의 컴포넌트를 형성할 수 있다. 동일 컴포넌트에 속하는 픽셀들은 서로 연결될 수 있고, 다른 컴포넌트들에 속하는 픽셀들은 서로 연결되지 않을 수 있다.FIG. 5 is a diagram exemplarily illustrating a process of augmenting and utilizing a semiconductor image, according to an embodiment. Referring to FIG. 5 ,
증강 작업은 컴포넌트 단위로 수행될 수 있다. 원본 영상(510)의 컴포넌트들로부터 컴포넌트들의 적어도 하나를 포함하는 변형 대상이 선택될 수 있고, 변형 대상에 대한 변형이 이루어질 수 있다. 변형은 변형 대상의 제거, 변형 대상의 스케일, 변형 대상의 쉬프트, 및 변형 대상의 회전 중 적어도 일부를 포함할 수 있다. 다만, 변형의 유형이 이들에 한정되는 것은 아니다. 예를 들어, 서로 다른 변형 대상들의 제거를 통해 증강 영상들(520)이 생성될 수 있다. 원본 영상(510)의 변형 대상에 해당하지 않는 부분은 증강 영상들(520)에서 유지될 수 있다.Augmentation work can be performed on a component basis. A transformation object including at least one of the components may be selected from the components of the
원본 영상(510) 및 증강 영상들(520)은 뉴럴 모델(531)의 트레이닝 또는 뉴럴 모델(532)의 추론에 이용될 수 있다. 뉴럴 모델들(531, 532)은 포워드 공정에 따른 패턴 변형을 추정하는 뉴럴 포워드 모델 혹은 백워드 보정에 따른 패턴 변형을 추정하는 뉴럴 백워드 모델에 해당할 수 있다. 뉴럴 모델(531)과 뉴럴 모델(532)은 서로 동일하거나 혹은 서로 다를 수 있다. 보다 구체적으로, 제1 원본 영상의 증강에 따른 제1 증강 영상들에 기초하여 뉴럴 모델(531)의 트레이닝이 완료된 후, 제2 원본 영상의 증강에 따른 제2 증강 영상들에 기초하여 뉴럴 모델(532)의 추론이 수행될 수 있다. 이때, 뉴럴 모델(531)과 뉴럴 모델(532)은 서로 동일할 수 있다. 이와 달리, 뉴럴 모델(532)은 데이터 증강이 아닌 다른 방식으로 트레이닝될 수 있고, 제2 증강 영상들에 기초하여 추론 동작을 수행할 수 있다.The
원본 영상(510) 및 증강 영상들(520)이 뉴럴 모델(531)의 트레이닝에 사용되는 경우, 원본 영상(510) 및 증강 영상들(520)은 입력 패턴 영상들 및 출력 패턴 영상들을 포함할 수 있다. 뉴럴 모델(531)이 뉴럴 포워드 모델에 해당하는 경우, 뉴럴 모델(531)은 입력 패턴 영상들로부터 출력 패턴 영상들을 추정하도록 트레이닝될 수 있다. 뉴럴 모델(531)이 뉴럴 백워드 모델에 해당하는 경우, 뉴럴 모델(531)은 출력 패턴 영상들로부터 입력 패턴 영상들을 추정하도록 트레이닝될 수 있다.When the
뉴럴 모델(531)은 서로 대응하는 증강 작업에 따른 증강 입력 영상과 증강 출력 영상을 통해 트레이닝될 수 있다. 입력 패턴 영상의 변형 대상의 변형을 통해 증강 입력 영상이 생성될 수 있고, 입력 패턴 영상의 변형 대상의 변형에 대응하는 변형이 출력 패턴 영상에 적용되어 증강 출력 영상이 생성될 수 있다. 증강 입력 영상에 따른 뉴럴 모델(531)의 실행 결과에 해당하는 결과 영상이 결정되면, 결과 영상과 증강 출력 영상 간의 차이가 줄어들도록 뉴럴 모델(531)이 트레이닝될 수 있다.The
원본 영상(510) 및 증강 영상들(520)이 뉴럴 모델(532)의 추론에 사용되는 경우, 원본 영상(510) 및 증강 영상들(520)은 입력 패턴 영상들 또는 출력 패턴 영상들에 해당할 수 있다. 뉴럴 모델(532)이 뉴럴 포워드 모델에 해당하는 경우, 원본 영상(510) 및 증강 영상들(520)은 입력 패턴 영상들에 해당할 수 있고, 뉴럴 모델(532)은 입력 패턴 영상들로부터 출력 패턴 영상들을 추정할 수 있다. 뉴럴 모델(532)이 뉴럴 백워드 모델에 해당하는 경우, 원본 영상(510) 및 증강 영상들(520)은 출력 패턴 영상들에 해당할 수 있고, 뉴럴 모델(532)은 출력 패턴 영상들로부터 입력 패턴 영상들을 추정할 수 있다.When the
뉴럴 모델(532)이 뉴럴 포워드 모델에 해당하는 경우, 원본 영상(510)은 입력 패턴 영상에 해당할 수 있다. 원본 영상(510)의 변형 대상의 변형을 통해 증강 영상들(520)이 생성될 수 있다. 원본 영상(510) 및 증강 영상들(520)로 뉴럴 모델(532)이 실행되어 실행 결과에 해당하는 결과 영상들이 결정될 수 있다. 결과 영상들의 조합을 통해 포워드 공정의 결과물에 해당하는 패턴이 추정될 수 있다. 뉴럴 모델(532)이 뉴럴 백워드 모델에 해당하는 경우, 원본 영상(510)은 출력 패턴 영상에 해당할 수 있다. 증강 작업을 통해 증강 영상들(520)이 생성되고, 원본 영상(510) 및 증강 영상들(520)로 뉴럴 모델(532)이 실행되면, 실행 결과에 해당하는 결과 영상들이 결정될 수 있다. 결과 영상들의 조합을 통해 백워드 보정의 결과물에 해당하는 패턴이 추정될 수 있다. 결과 영상들의 조합을 위해 앙상블 가중치가 이용될 수 있다.If the
도 6은 일 실시예에 따른, 의미론적 컴포넌트의 제거를 통한 증강 과정을 예시적으로 나타내는 도면이다. 도 6을 참조하면, 디자인 패턴(610)에 대한 영상화 작업에 따라 원본 영상(620)이 결정될 수 있다. 디자인 패턴(610)은 타겟 공정의 적용 대상에 해당하는 입력 패턴 또는 타겟 공정의 적용 결과에 해당하는 출력 패턴의 3차원 설계 구조를 나타낼 수 있다. 디자인 패턴(610)은 세부적인 다각형 구조물들을 통해 3차원 설계 구조를 표현할 수 있다. 디자인 패턴(610)의 영상화는 3차원 설계에 대한 구조 데이터를 영상 데이터로 렌더링하는 작업에 해당할 수 있다.Figure 6 is a diagram illustrating an augmentation process through removal of semantic components, according to an embodiment. Referring to FIG. 6 , the
원본 영상(620)은 반도체 패턴에 대응하는 컴포넌트들을 포함할 수 있다. 원본 영상(620)에 대한 컴포넌트 식별 작업을 통해 원본 영상(620)의 컴포넌트들이 식별될 수 있다. 컴포넌트 식별 작업은 원본 영상(620)의 픽셀들의 픽셀 값들에 기초하여 수행될 수 있다. 원본 영상(620)에서 0이 아닌 픽셀 값을 갖는 픽셀들이 선택될 수 있고, 선택된 픽셀들 중 서로 연결된 픽셀들이 하나의 컴포넌트로 식별될 수 있다. 원본 영상(620) 내 위치에 따라 각 컴포넌트에 레이블이 부여될 수 있다. 도 6은 컴포넌트들에 1 내지 4의 레이블이 부여된 예시를 나타낸다. k의 레이블을 갖는 컴포넌트는 제k 컴포넌트로 부를 수 있다.The
원본 영상(620)에 대한 증강 작업을 통해 증강 영상들(631, 632)이 생성될 수 있다. 증강 작업은 변형 대상의 선택 및 변형 대상에 대한 변형 작업을 포함할 수 있다. 각 변형 대상은 적어도 하나의 컴포넌트를 포함할 수 있다. 예를 들어, 제1 컴포넌트는 제1 변형 대상에, 제2 컴포넌트는 제2 변형 대상에, 제3 컴포넌트는 제3 변형 대상에 해당할 수 있다. 또한, 제1 컴포넌트 및 제2 컴포넌트는 제4 변형 대상에, 제3 컴포넌트 및 제4 컴포넌트는 제5 변형 대상에 해당할 수 있다.
변형 작업은 변형 대상의 제거, 변형 대상의 스케일, 변형 대상의 쉬프트, 및 변형 대상의 회전 중 적어도 일부를 포함할 수 있다. 다만, 변형 작업의 유형이 이들에 한정되는 것은 아니다. 서로 다른 변형 대상들에 대해 동일한 변형 작업이 수행되거나, 서로 다른 변형 대상들에 대해 서로 다른 변형 작업들이 수행되거나, 동일한 변형 대상에 대해 서로 다른 변형 작업들이 수행될 수 있다. 증강 영상(631)은 제2 변형 대상의 제거에 해당하는 증강 작업의 결과물을 나타낼 수 있고, 증강 영상(632)은 제3 변형 대상의 제거에 해당하는 증강 작업의 결과물을 나타낼 수 있다.The transformation operation may include at least some of removal of the transformation object, scaling of the transformation object, shifting of the transformation object, and rotation of the transformation object. However, the types of transformation work are not limited to these. The same transformation operation may be performed on different transformation objects, different transformation operations may be performed on different transformation objects, or different transformation operations may be performed on the same transformation object. The
도 7은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다. 도 7을 참조하면, 원본 입력 영상(711)의 증강에 따라 증강 입력 영상들(712, 713)이 생성될 수 있고, 원본 입력 영상(711) 및/또는 증강 입력 영상들(712, 713)에 기초하여 뉴럴 모델(700)이 실행될 수 있다. 원본 입력 영상(711) 및 증강 입력 영상들(712, 713)이 뉴럴 모델(700)에 순차적으로 입력될 수 있고, 뉴럴 모델(700)의 실행에 따라 실행 결과 영상들(721 내지 723)이 생성될 수 있다. 좌측의 시간 축은 트레이닝이 순차적으로 이루어짐을 나타낼 수 있다. 뉴럴 모델(700)의 병렬적 실행이 지원되는 경우, 뉴럴 모델(700)의 병렬적 실행을 통해 원본 입력 영상(711) 및 증강 입력 영상들(712, 713)에 따른 실행 결과 영상들(721, 722, 723)이 병렬적으로 생성될 수 있다.Figure 7 is a diagram illustrating a training process of a neural model using augmented data, according to an embodiment. Referring to FIG. 7,
원본 입력 영상(711)에 대응하는 원본 출력 영상(731)이 원본 영상으로 제공되면, 원본 출력 영상(731)의 증강에 따라 증강 출력 영상들(732, 733)이 생성될 수 있다. 증강 입력 영상들(712, 713)의 생성에 이용된 증강 작업이 원본 출력 영상(731)에 동일하게 적용될 수 있고, 그 결과 증강 출력 영상들(732, 733)이 생성될 수 있다. 예를 들어, 원본 입력 영상(711)의 제2 입력 컴포넌트의 제거를 통해 증강 입력 영상(712)이 생성될 수 있고, 원본 입력 영상(711)의 제3 입력 컴포넌트의 제거를 통해 증강 입력 영상(713)이 생성될 수 있다. 대응 증강 작업으로서, 원본 출력 영상(731)의 제2 출력 컴포넌트의 제거를 통해 증강 출력 영상(732)이 생성될 수 있고, 원본 출력 영상(731)의 제3 출력 컴포넌트의 제거를 통해 증강 출력 영상(733)이 생성될 수 있다. 컴포넌트들의 구분을 위해 입력 영상의 컴포넌트는 입력 컴포넌트로, 출력 영상의 컴포넌트는 출력 컴포넌트로 부를 수 있다.When the
원본 출력 영상(731) 및 증강 출력 영상들(732, 733)은 GT(ground truth)로 이용될 수 있다. 뉴럴 모델(700)은 실행 결과와 GT 간의 차이가 작아지도록 트레이닝될 수 있다. 뉴럴 모델(700)은 실행 결과 영상(721)과 원본 출력 영상(731) 간의 차이가 작아지도록 트레이닝될 수 있고, 실행 결과 영상(722)과 증강 출력 영상(732) 간의 차이가 작아지도록 트레이닝될 수 있고, 실행 결과 영상(723)과 증강 출력 영상(733) 간의 차이가 작아지도록 트레이닝될 수 있다.The
하나의 원본 영상 세트(예: 원본 입력 영상(711), 원본 출력 영상(731))에 대한 데이터 증강을 통해 여러 차례의 트레이닝이 이루어질 수 있으며, 복수의 원본 영상 세트가 제공되는 경우 더 많은 트레이닝이 이루어질 수 있다. 이를 통해 반도체 영상의 획득 비용에 의한 트레이닝 데이터 확보의 어려움이 크게 해소될 수 있다.Multiple training sessions can be performed through data augmentation for one original image set (e.g.,
도 7은 원본 입력 영상(711)이 입력 패턴 영상에 해당하고 원본 출력 영상(731)이 출력 패턴 영상에 해당하는 예시를 나타낼 수 있다. 본 예시에서 뉴럴 모델(700)은 뉴럴 포워드 모델로 트레이닝될 수 있다. 이와 달리 원본 입력 영상(711)이 출력 패턴 영상에 해당하고 원본 출력 영상(731)이 입력 패턴 영상에 해당할 수 있고, 이 경우 뉴럴 모델(700)은 뉴럴 백워드 모델로 트레이닝될 수 있다.FIG. 7 may show an example in which the
도 8은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 추론 과정을 예시적으로 나타내는 도면이다. 도 8을 참조하면, 원본 입력 영상(811)의 증강에 따라 증강 입력 영상들(812, 813)이 생성될 수 있고, 원본 입력 영상(811) 및/또는 증강 입력 영상들(812, 813)에 기초하여 뉴럴 모델(800)이 실행될 수 있다. 원본 입력 영상(811) 및 증강 입력 영상들(812, 813)이 뉴럴 모델(800)에 순차적으로 입력될 수 있고, 뉴럴 모델(800)의 실행에 따라 실행 결과 영상들(821 내지 823)이 생성될 수 있다. 좌측의 시간 축은 추론이 순차적으로 이루어짐을 나타낼 수 있다. 뉴럴 모델(800)의 병렬적 실행이 지원되는 경우, 뉴럴 모델(800)의 병렬적 실행을 통해 원본 입력 영상(811) 및 증강 입력 영상들(812, 813)에 따른 실행 결과 영상들(821, 822, 823)이 병렬적으로 생성될 수 있다.Figure 8 is a diagram illustrating an inference process of a neural model using augmented data, according to an embodiment. Referring to FIG. 8,
실행 결과 영상들(821, 822, 823)의 조합을 통해 추정 결과 영상(830)이 결정될 수 있다. 실행 결과 영상들(821, 822, 823)은 일정 가중치에 기초하여 조합될 수 있다. 일 실시예에 따르면, 뉴럴 모델(800)은 앙상블 모델에 해당할 수 있고, 실행 결과 영상들(821, 822, 823)의 조합에 앙상블 가중치가 이용될 수 있다. 데이터 증강을 통해 다양한 관점의 데이터가 활용됨으로써 추론의 정확도가 향상될 수 있다.The estimated
도 7은 뉴럴 모델(800)이 뉴럴 포워드 모델에 해당하는 예시를 나타낼 수 있다. 본 예시에서 원본 입력 영상(811)은 입력 패턴 영상에 해당하고 추정 결과 영상(830)은 출력 패턴 영상에 해당할 수 있다. 이와 달리, 뉴럴 모델(800)은 뉴럴 백워드 모델에 해당할 수 있다. 이 경우, 원본 입력 영상(811)은 출력 패턴 영상에 해당하고 추정 결과 영상(830)은 입력 패턴 영상에 해당할 수 있다.FIG. 7 may show an example in which the
도 9는 일 실시예에 따른, 반도체 영상 처리 방법을 예시적으로 나타내는 플로우 차트이다. 도 9를 참조하면, 반도체 영상 처리 장치는 단계(910)에서 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고, 단계(920)에서 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고, 단계(930)에서 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행한다.9 is a flow chart illustrating a semiconductor image processing method according to an embodiment. Referring to FIG. 9, the semiconductor image processing device identifies input components of the semiconductor pattern of the original input image from the original input image corresponding to the subject to which the first process for semiconductor production is applied in
단계(920)는 변형 대상을 제거하여 증강 입력 영상을 생성하는 단계를 포함할 수 있다.Step 920 may include generating an augmented input image by removing the deformation target.
변형 대상의 변형은 변형 대상의 제거, 변형 대상의 스케일, 변형 대상의 쉬프트, 및 변형 대상의 회전 중 적어도 일부를 포함할 수 있다.The transformation of the transformation object may include at least some of removal of the transformation object, scaling of the transformation object, shifting of the transformation object, and rotation of the transformation object.
원본 입력 영상의 변형 대상에 해당하지 않는 부분은 증강 입력 영상에서 유지될 수 있다.Parts of the original input image that are not subject to transformation may be maintained in the augmented input image.
단계(910)는 원본 입력 영상에서 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹을 입력 컴포넌트들의 하나의 입력 컴포넌트로 식별하는 단계를 포함할 수 있다.Step 910 may include identifying one group of pixels that have non-zero pixel values and are connected to each other in the original input image as one of the input components.
반도체 영상 처리 장치는 뉴럴 모델의 실행 결과에 따라 뉴럴 모델을 트레이닝하는 단계를 더 수행할 수 있다.The semiconductor image processing device may further perform a step of training the neural model according to the execution result of the neural model.
반도체 영상 처리 장치는 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계, 및 원본 입력 영상의 변형 대상에 대한 변형에 대응하는 변형을 원본 출력 영상의 출력 컴포넌트들에 적용하여 증강 출력 영상을 생성하는 단계를 더 수행할 수 있다. 단계(930)는 뉴럴 모델의 실행 결과에 해당하는 결과 영상과 증강 출력 영상 간의 차이에 따라 뉴럴 모델을 트레이닝하는 단계를 포함할 수 있다.The semiconductor image processing device includes identifying output components of a semiconductor pattern of the original output image from the original output image corresponding to the result of applying the first process, and performing a transformation corresponding to the transformation of the transformation target of the original input image into the original output image. A step of generating an augmented output image by applying it to the output components of can be further performed. Step 930 may include training a neural model according to the difference between the result image corresponding to the execution result of the neural model and the augmented output image.
반도체 영상 처리 장치는 원본 입력 영상에 기초하여 뉴럴 모델을 실행하는 단계, 및 원본 입력 영상에 기초한 뉴럴 모델의 실행 결과 및 증강 입력 영상에 기초한 뉴럴 모델의 실행 결과를 조합하여 제1 공정에 따른 패턴 변형을 추정하는 단계를 더 수행할 수 있다.The semiconductor image processing device includes executing a neural model based on the original input image, and combining the execution result of the neural model based on the original input image and the execution result of the neural model based on the augmented input image to transform the pattern according to the first process. A further step of estimating can be performed.
제1 공정은 현상 공정 및 식각 공정 중 적어도 하나를 포함할 수 있다.The first process may include at least one of a developing process and an etching process.
그 밖에, 도 9의 반도체 영상 처리 방법에는 도 1 내지 도 8, 및 도 10 내지 도 12의 설명이 적용될 수 있다.In addition, the descriptions of FIGS. 1 to 8 and 10 to 12 may be applied to the semiconductor image processing method of FIG. 9 .
도 10은 일 실시예에 따른, 뉴럴 모델의 트레이닝 방법을 예시적으로 나타내는 플로우 차트이다. 도 10을 참조하면, 반도체 영상 처리 장치는 단계(1010)에서 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상 및 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터, 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들 및 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하고, 단계(1020)에서 입력 컴포넌트들과 출력 컴포넌트들 간의 매칭 관계에 기초하여 컴포넌트 쌍들을 결정하고, 단계(1030)에서 원본 입력 영상 및 원본 출력 영상으로부터 컴포넌트 쌍들의 적어도 하나를 포함하는 변형 대상을 제거하여 증강 입력 영상 및 증강 출력 영상을 생성하고, 단계(1040)에서 증강 입력 영상 및 증강 출력 영상에 기초하여 제1 공정에 따른 패턴 변형을 예측하는 뉴럴 모델을 트레이닝한다.Figure 10 is a flow chart illustrating a neural model training method according to an embodiment. Referring to FIG. 10, in
그 밖에, 도 10의 반도체 영상 처리 방법에는 도 1 내지 도 9, 도 11, 및 도 12의 설명이 적용될 수 있다.In addition, the descriptions of FIGS. 1 to 9, 11, and 12 may be applied to the semiconductor image processing method of FIG. 10.
도 11은 일 실시예에 따른, 반도체 영상 처리 장치의 구성을 예시적으로 나타내는 블록도이다. 도 11을 참조하면, 반도체 영상 처리 장치(1100)는 프로세서(1110) 및 메모리(1120)를 포함한다. 메모리(1120)는 프로세서(1110)에 연결되고, 프로세서(1110)에 의해 실행가능한 명령어들, 프로세서(1110)가 연산할 데이터 또는 프로세서(1110)에 의해 처리된 데이터를 저장할 수 있다. 메모리(1120)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.FIG. 11 is a block diagram illustrating the configuration of a semiconductor image processing device according to an embodiment. Referring to FIG. 11 , the semiconductor
프로세서(1110)는 도 1 내지 도 10, 및 도 12의 동작을 수행하기 위한 명령어들을 실행할 수 있다. 예를 들어, 프로세서(1110)는 The
그 밖에, 반도체 영상 처리 장치(1110)에는 도 1 내지 도 10, 및 도 12의 설명이 적용될 수 있다.In addition, the descriptions of FIGS. 1 to 10 and 12 may be applied to the semiconductor
도 12는 일 실시예에 따른, 전자 장치의 구성을 예시적으로 나타내는 블록도이다. 도 12를 참조하면, 전자 장치(1200)는 프로세서(1210), 메모리(1220), 카메라(1230), 저장 장치(1240), 입력 장치(1250), 출력 장치(1260) 및 네트워크 인터페이스(1270)를 포함할 수 있으며, 이들은 통신 버스(1280)를 통해 서로 통신할 수 있다. 예를 들어, 전자 장치(1200)는 이동 전화, 스마트 폰, PDA, 넷북, 태블릿 컴퓨터, 랩톱 컴퓨터 등과 같은 모바일 장치, 스마트 워치, 스마트 밴드, 스마트 안경 등과 같은 웨어러블 디바이스, 데스크탑, 서버 등과 같은 컴퓨팅 장치, 텔레비전, 스마트 텔레비전, 냉장고 등과 같은 가전 제품, 도어 락 등과 같은 보안 장치, 자율주행 차량, 스마트 차량 등과 같은 차량의 적어도 일부로 구현될 수 있다. 전자 장치(1200)는 도 11의 반도체 영상 처리 장치(1110)를 구조적 및/또는 기능적으로 포함할 수 있다.FIG. 12 is a block diagram illustrating the configuration of an electronic device according to an embodiment. Referring to FIG. 12, the
프로세서(1210)는 전자 장치(1200) 내에서 실행하기 위한 기능 및 명령어들을 실행한다. 예를 들어, 프로세서(1210)는 메모리(1220) 또는 저장 장치(1240)에 저장된 명령어들을 처리할 수 있다. 프로세서(1210)는 도 1 내지 도 11을 통하여 설명된 하나 이상의 동작을 수행할 수 있다. 메모리(1220)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 메모리(1220)는 프로세서(1210)에 의해 실행하기 위한 명령어들을 저장할 수 있고, 전자 장치(1200)에 의해 소프트웨어 및/또는 애플리케이션이 실행되는 동안 관련 정보를 저장할 수 있다.The
카메라(1230)는 사진 및/또는 비디오를 촬영할 수 있다. 저장 장치(1240)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함한다. 저장 장치(1240)는 메모리(1220)보다 더 많은 양의 정보를 저장하고, 정보를 장기간 저장할 수 있다. 예를 들어, 저장 장치(1240)는 자기 하드 디스크, 광 디스크, 플래쉬 메모리, 플로피 디스크 또는 이 기술 분야에서 알려진 다른 형태의 비휘발성 메모리를 포함할 수 있다.
입력 장치(1250)는 키보드 및 마우스를 통한 전통적인 입력 방식, 및 터치 입력, 음성 입력, 및 이미지 입력과 같은 새로운 입력 방식을 통해 사용자로부터 입력을 수신할 수 있다. 예를 들어, 입력 장치(1250)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 전자 장치(1200)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다. 출력 장치(1260)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 전자 장치(1200)의 출력을 제공할 수 있다. 출력 장치(1260)는 예를 들어, 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 네트워크 인터페이스(1270)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may store program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.
Claims (20)
상기 원본 입력 영상으로부터 상기 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하는 단계; 및
상기 증강 입력 영상에 기초하여 상기 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는 단계
를 포함하는 반도체 영상 처리 방법.Identifying input components of a semiconductor pattern of the original input image from the original input image corresponding to an object to which a first process for semiconductor production is applied;
generating an augmented input image by transforming a transformation target including at least one of the input components from the original input image; and
Executing a neural model to estimate pattern deformation according to the first process based on the augmented input image
A semiconductor image processing method comprising:
상기 증강 입력 영상을 생성하는 단계는
상기 변형 대상을 제거하여 상기 증강 입력 영상을 생성하는 단계를 포함하는,
반도체 영상 처리 방법.According to paragraph 1,
The step of generating the augmented input image is
Comprising the step of generating the augmented input image by removing the deformation target,
Semiconductor image processing method.
상기 변형 대상의 변형은
상기 변형 대상의 제거, 상기 변형 대상의 스케일, 상기 변형 대상의 쉬프트, 및 상기 변형 대상의 회전 중 적어도 일부를 포함하는,
반도체 영상 처리 방법.According to paragraph 1,
The transformation of the object of transformation is
Including at least some of removal of the object of transformation, scale of the object of transformation, shift of the object of transformation, and rotation of the object of transformation,
Semiconductor image processing method.
상기 원본 입력 영상의 상기 변형 대상에 해당하지 않는 부분은 상기 증강 입력 영상에서 유지되는,
반도체 영상 처리 방법.According to paragraph 1,
The portion of the original input image that does not correspond to the transformation target is maintained in the augmented input image,
Semiconductor image processing method.
상기 입력 컴포넌트들을 식별하는 단계는
상기 원본 입력 영상에서 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹을 상기 입력 컴포넌트들의 하나의 입력 컴포넌트로 식별하는 단계를 포함하는,
반도체 영상 처리 방법.According to paragraph 1,
The step of identifying the input components is
Comprising the step of identifying one group of pixels connected to each other with a non-zero pixel value in the original input image as one input component of the input components,
Semiconductor image processing method.
상기 뉴럴 모델의 실행 결과에 따라 상기 뉴럴 모델을 트레이닝하는 단계
를 더 포함하는, 반도체 영상 처리 방법.According to paragraph 1,
Training the neural model according to the execution results of the neural model
A semiconductor image processing method further comprising:
상기 반도체 영상 처리 방법은
상기 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터 상기 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계; 및
상기 원본 입력 영상의 상기 변형 대상에 대한 변형에 대응하는 변형을 상기 원본 출력 영상의 상기 출력 컴포넌트들에 적용하여 증강 출력 영상을 생성하는 단계
를 더 포함하고,
상기 뉴럴 모델을 트레이닝하는 단계는
상기 뉴럴 모델의 실행 결과에 해당하는 결과 영상과 상기 증강 출력 영상 간의 차이에 따라 상기 뉴럴 모델을 트레이닝하는 단계를 포함하는,
반도체 영상 처리 방법.According to clause 6,
The semiconductor image processing method is
identifying output components of a semiconductor pattern of the original output image from the original output image corresponding to a result of applying the first process; and
Generating an augmented output image by applying a transformation corresponding to the transformation of the transformation target of the original input image to the output components of the original output image.
It further includes,
The step of training the neural model is
Comprising the step of training the neural model according to the difference between the result image corresponding to the execution result of the neural model and the augmented output image,
Semiconductor image processing method.
상기 반도체 영상 처리 방법은
상기 원본 입력 영상에 기초하여 상기 뉴럴 모델을 실행하는 단계; 및
상기 원본 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과 및 상기 증강 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과를 조합하여 상기 제1 공정에 따른 패턴 변형을 추정하는 단계
를 더 포함하는, 반도체 영상 처리 방법.According to paragraph 1,
The semiconductor image processing method is
executing the neural model based on the original input image; and
Estimating pattern deformation according to the first process by combining the execution result of the neural model based on the original input image and the execution result of the neural model based on the augmented input image.
A semiconductor image processing method further comprising:
상기 제1 공정은
현상 공정 및 식각 공정 중 적어도 하나를 포함하는,
반도체 영상 처리 방법.According to paragraph 1,
The first process is
Including at least one of a developing process and an etching process,
Semiconductor image processing method.
상기 입력 컴포넌트들과 상기 출력 컴포넌트들 간의 매칭 관계에 기초하여 컴포넌트 쌍들을 결정하는 단계;
상기 원본 입력 영상 및 상기 원본 출력 영상으로부터 상기 컴포넌트 쌍들의 적어도 하나를 포함하는 변형 대상을 제거하여 증강 입력 영상 및 증강 출력 영상을 생성하는 단계; 및
상기 증강 입력 영상 및 상기 증강 출력 영상에 기초하여 상기 제1 공정에 따른 패턴 변형을 예측하는 뉴럴 모델을 트레이닝하는 단계
를 포함하는 트레이닝 방법.From the original input image corresponding to the subject of application of the first process for semiconductor production and the original output image corresponding to the application result of the first process, the input components of the semiconductor pattern of the original input image and the semiconductor of the original output image identifying output components of the pattern;
determining component pairs based on matching relationships between the input components and the output components;
generating an augmented input image and an augmented output image by removing a transformation target including at least one of the component pairs from the original input image and the original output image; and
Training a neural model to predict pattern deformation according to the first process based on the augmented input image and the augmented output image.
Training method including.
상기 프로세서에서 실행가능한 명령어들을 포함하는 메모리
를 포함하고,
상기 명령어들이 상기 프로세서에서 실행되면, 상기 프로세서는
반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 상기 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고,
상기 원본 입력 영상으로부터 상기 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고,
상기 증강 입력 영상에 기초하여 상기 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는,
반도체 영상 처리 장치.processor; and
Memory containing instructions executable by the processor
Including,
When the instructions are executed on the processor, the processor
Identifying input components of the semiconductor pattern of the original input image from the original input image corresponding to the subject of the first process for semiconductor production,
Generating an augmented input image by transforming a transformation target including at least one of the input components from the original input image,
Executing a neural model that estimates pattern deformation according to the first process based on the augmented input image,
Semiconductor image processing device.
상기 프로세서는, 상기 증강 입력 영상을 생성하기 위해,
상기 변형 대상을 제거하여 상기 증강 입력 영상을 생성하는,
반도체 영상 처리 장치.According to clause 12,
The processor, in order to generate the augmented input image,
Generating the augmented input image by removing the deformation target,
Semiconductor image processing device.
상기 변형 대상의 변형은
상기 변형 대상의 제거, 상기 변형 대상의 스케일, 상기 변형 대상의 쉬프트, 및 상기 변형 대상의 회전 중 적어도 일부를 포함하는,
반도체 영상 처리 장치.According to clause 12,
The transformation of the object of transformation is
Including at least some of removal of the object of transformation, scale of the object of transformation, shift of the object of transformation, and rotation of the object of transformation,
Semiconductor image processing device.
상기 원본 입력 영상의 상기 변형 대상에 해당하지 않는 부분은 상기 증강 입력 영상에서 유지되는,
반도체 영상 처리 장치.According to clause 12,
The portion of the original input image that does not correspond to the transformation target is maintained in the augmented input image,
Semiconductor image processing device.
상기 프로세서는, 상기 입력 컴포넌트들을 식별하기 위해,
상기 원본 입력 영상에서 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹을 상기 입력 컴포넌트들의 하나의 입력 컴포넌트로 식별하는,
반도체 영상 처리 장치.According to clause 12,
The processor, to identify the input components,
Identifying one group of pixels connected to each other with a non-zero pixel value in the original input image as one input component of the input components,
Semiconductor image processing device.
상기 프로세서는
상기 뉴럴 모델의 실행 결과에 따라 상기 뉴럴 모델을 트레이닝하는,
반도체 영상 처리 장치.According to clause 12,
The processor is
Training the neural model according to the execution results of the neural model,
Semiconductor image processing device.
상기 프로세서는
상기 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터 상기 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하고,
상기 원본 입력 영상의 상기 변형 대상에 대한 변형에 대응하는 변형을 상기 원본 출력 영상의 상기 출력 컴포넌트들에 적용하여 증강 출력 영상을 생성하고,
상기 뉴럴 모델의 실행 결과에 해당하는 결과 영상과 상기 증강 출력 영상 간의 차이에 따라 상기 뉴럴 모델을 트레이닝하는,
반도체 영상 처리 장치.According to clause 17,
The processor is
Identifying output components of a semiconductor pattern of the original output image from the original output image corresponding to a result of applying the first process,
Applying a transformation corresponding to the transformation of the transformation target of the original input image to the output components of the original output image to generate an augmented output image,
Training the neural model according to the difference between the result image corresponding to the execution result of the neural model and the augmented output image,
Semiconductor image processing device.
상기 프로세서는
상기 원본 입력 영상에 기초하여 상기 뉴럴 모델을 실행하고,
상기 원본 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과 및 상기 증강 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과를 조합하여 상기 제1 공정에 따른 패턴 변형을 추정하는,
반도체 영상 처리 장치.According to clause 12,
The processor is
Executing the neural model based on the original input image,
Estimating pattern deformation according to the first process by combining the execution result of the neural model based on the original input image and the execution result of the neural model based on the augmented input image,
Semiconductor image processing device.
상기 제1 공정은
현상 공정 및 식각 공정 중 적어도 하나를 포함하는,
반도체 영상 처리 장치.According to clause 12,
The first process is
Including at least one of a developing process and an etching process,
Semiconductor image processing device.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220175047A KR20240092360A (en) | 2022-12-14 | 2022-12-14 | Method and apparatus for processing semiconductor image |
US18/356,555 US20240202910A1 (en) | 2022-12-14 | 2023-07-21 | Method and apparatus with semiconductor image processing |
CN202310930748.0A CN118212120A (en) | 2022-12-14 | 2023-07-27 | Method and apparatus for semiconductor image processing |
EP23192216.2A EP4386655A1 (en) | 2022-12-14 | 2023-08-18 | Method and apparatus with semiconductor image processing |
JP2023180028A JP2024085379A (en) | 2022-12-14 | 2023-10-19 | Semiconductor image processing method and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220175047A KR20240092360A (en) | 2022-12-14 | 2022-12-14 | Method and apparatus for processing semiconductor image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240092360A true KR20240092360A (en) | 2024-06-24 |
Family
ID=87748312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220175047A KR20240092360A (en) | 2022-12-14 | 2022-12-14 | Method and apparatus for processing semiconductor image |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240202910A1 (en) |
EP (1) | EP4386655A1 (en) |
JP (1) | JP2024085379A (en) |
KR (1) | KR20240092360A (en) |
CN (1) | CN118212120A (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10402524B2 (en) * | 2017-05-08 | 2019-09-03 | Globalfoundries Inc. | Prediction of process-sensitive geometries with machine learning |
KR102644214B1 (en) * | 2018-02-23 | 2024-03-07 | 에이에스엠엘 네델란즈 비.브이. | Methods for training machine learning model for computation lothography |
KR20210133364A (en) * | 2020-04-28 | 2021-11-08 | 삼성전자주식회사 | Method and computing device for manufacturing semiconductor device |
KR20220080768A (en) * | 2020-12-07 | 2022-06-15 | 삼성전자주식회사 | Error verifying method for optical proximity correction model |
-
2022
- 2022-12-14 KR KR1020220175047A patent/KR20240092360A/en unknown
-
2023
- 2023-07-21 US US18/356,555 patent/US20240202910A1/en active Pending
- 2023-07-27 CN CN202310930748.0A patent/CN118212120A/en active Pending
- 2023-08-18 EP EP23192216.2A patent/EP4386655A1/en active Pending
- 2023-10-19 JP JP2023180028A patent/JP2024085379A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN118212120A (en) | 2024-06-18 |
EP4386655A1 (en) | 2024-06-19 |
JP2024085379A (en) | 2024-06-26 |
US20240202910A1 (en) | 2024-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102184278B1 (en) | Method and system for transfer learning into any target dataset and model structure based on meta-learning | |
US10991074B2 (en) | Transforming source domain images into target domain images | |
CN110689109A (en) | Neural network method and apparatus | |
KR20190118387A (en) | Convolutional neural network based image processing system and method | |
EP3528181B1 (en) | Processing method of neural network and apparatus using the processing method | |
CN115965061A (en) | Deep neural network model design with feedback enhancement by real-time proxy evaluation | |
US11568212B2 (en) | Techniques for understanding how trained neural networks operate | |
KR20230069607A (en) | Method and apparatus of image recognition based on self attention | |
KR20240009759A (en) | Method and appartus for image restoration | |
CN112819151A (en) | Method and apparatus for recognizing image and training method | |
CN113767364A (en) | Reshaping and broadcast optimization to avoid unnecessary data movement | |
US20070143234A1 (en) | Method and system for intelligent model-based optical proximity correction (OPC) | |
US20210312278A1 (en) | Method and apparatus with incremental learning moddel | |
CN117315758A (en) | Facial expression detection method and device, electronic equipment and storage medium | |
KR20240092360A (en) | Method and apparatus for processing semiconductor image | |
JP2023078578A (en) | Image processing system, learning system, and learning method | |
KR20240090068A (en) | Method and apparatus of neural correction for semiconductor pattern | |
CN113537295B (en) | View estimation cross-scene adaptation method and device based on outlier guidance | |
KR20230065863A (en) | Method and apparatus for training recognition model | |
JP6994572B2 (en) | Data processing system and data processing method | |
KR20240059365A (en) | Method and apparatus for image processing based on neural network | |
KR20230071017A (en) | Method and apparatus for image deblurring | |
KR20240081554A (en) | Method and apparatus of non-contrastive self-supervised learning using reconstruction regularizer | |
KR20230157021A (en) | System and method for automating design of sound source separation deep learning model | |
KR20240069301A (en) | Method and apparatus for estimating depth information |