KR20240092360A - Method and apparatus for processing semiconductor image - Google Patents

Method and apparatus for processing semiconductor image Download PDF

Info

Publication number
KR20240092360A
KR20240092360A KR1020220175047A KR20220175047A KR20240092360A KR 20240092360 A KR20240092360 A KR 20240092360A KR 1020220175047 A KR1020220175047 A KR 1020220175047A KR 20220175047 A KR20220175047 A KR 20220175047A KR 20240092360 A KR20240092360 A KR 20240092360A
Authority
KR
South Korea
Prior art keywords
image
semiconductor
original
augmented
transformation
Prior art date
Application number
KR1020220175047A
Other languages
Korean (ko)
Inventor
박성진
이선민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220175047A priority Critical patent/KR20240092360A/en
Priority to US18/356,555 priority patent/US20240202910A1/en
Priority to CN202310930748.0A priority patent/CN118212120A/en
Priority to EP23192216.2A priority patent/EP4386655A1/en
Priority to JP2023180028A priority patent/JP2024085379A/en
Publication of KR20240092360A publication Critical patent/KR20240092360A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F1/00Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
    • G03F1/36Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)

Abstract

반도체 영상 처리 방법 및 장치가 제공된다. 그 방법은 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고, 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고, 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는 단계들을 포함할 수 있다.A semiconductor image processing method and device are provided. The method identifies input components of a semiconductor pattern of an original input image corresponding to an object of application of a first process for semiconductor production, and transforms a transformation object including at least one of the input components from the original input image. It may include steps of generating an augmented input image and executing a neural model that estimates pattern deformation according to the first process based on the augmented input image.

Figure P1020220175047
Figure P1020220175047

Description

반도체 영상 처리 방법 및 장치{METHOD AND APPARATUS FOR PROCESSING SEMICONDUCTOR IMAGE}Semiconductor image processing method and device {METHOD AND APPARATUS FOR PROCESSING SEMICONDUCTOR IMAGE}

아래 실시예들은 반도체 영상 처리 방법 및 장치에 관한 것이다.The following embodiments relate to a semiconductor image processing method and device.

반도체 생산 공정(semiconductor manufacturing process)은 웨이퍼(wafer)의 가공을 위한 다양한 세부 공정들을 포함할 수 있다. 또한, 세부 공정들의 오차를 줄이는 다양한 기술이 존재한다. 예를 들어, 현상 공정(develop process)을 위해 OPC(optical proximity correction)가, 식각 공정(etch process)을 위해 PPC(process proximity correction)가 이용될 수 있다. 뉴럴 네트워크는 딥 러닝에 기반하여 훈련된 후, 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 목적에 맞는 추론(inference)을 수행해낼 수 있다. 이러한 맵핑을 생성하는 훈련된 능력은 신경망의 학습 능력이라 할 수 있다. 뉴럴 네트워크는 다양한 기술 분야에서 사용될 수 있으며, 반도체 생산 공정과 결합될 수 있다.The semiconductor manufacturing process may include various detailed processes for processing wafers. Additionally, various technologies exist to reduce errors in detailed processes. For example, optical proximity correction (OPC) may be used for the development process, and process proximity correction (PPC) may be used for the etch process. After the neural network is trained based on deep learning, it can perform inference suitable for the purpose by mapping input data and output data in a non-linear relationship to each other. The trained ability to create these mappings can be considered the learning ability of a neural network. Neural networks can be used in a variety of technological fields and can be combined with the semiconductor production process.

일 실시예에 따르면, 반도체 영상 처리 방법은 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하는 단계, 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하는 단계, 및 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는 단계를 포함한다.According to one embodiment, a semiconductor image processing method includes identifying input components of a semiconductor pattern of an original input image from an original input image corresponding to an application target of a first process for semiconductor production, and at least one of the input components from the original input image. It includes generating an augmented input image by deforming a deformation target including one, and executing a neural model that estimates pattern deformation according to the first process based on the augmented input image.

일 실시예에 따르면, 트레이닝 방법은 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상 및 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터, 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들 및 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계, 입력 컴포넌트들과 출력 컴포넌트들 간의 매칭 관계에 기초하여 컴포넌트 쌍들을 결정하는 단계, 원본 입력 영상 및 원본 출력 영상으로부터 컴포넌트 쌍들의 적어도 하나를 포함하는 변형 대상을 제거하여 증강 입력 영상 및 증강 출력 영상을 생성하는 단계, 및 증강 입력 영상 및 증강 출력 영상에 기초하여 제1 공정에 따른 패턴 변형을 예측하는 뉴럴 모델을 트레이닝하는 단계를 포함한다.According to one embodiment, the training method includes input components of the semiconductor pattern of the original input image from the original input image corresponding to the application target of the first process for semiconductor production and the original output image corresponding to the application result of the first process. and identifying output components of the semiconductor pattern of the original output image, determining component pairs based on a matching relationship between the input components and the output components, including at least one of the component pairs from the original input image and the original output image. It includes generating an augmented input image and an augmented output image by removing the object of modification, and training a neural model to predict pattern modification according to the first process based on the augmented input image and the augmented output image.

일 실시예에 따르면, 반도체 영상 처리 장치는 프로세서, 및 프로세서에서 실행가능한 명령어들을 포함하는 메모리를 포함하고, 명령어들이 프로세서에서 실행되면, 프로세서는 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고, 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고, 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행한다.According to one embodiment, a semiconductor image processing device includes a processor and a memory including instructions executable on the processor, and when the instructions are executed on the processor, the processor generates an original image corresponding to an object of application of the first process for semiconductor production. Identifying input components of a semiconductor pattern of the original input image from the input image, generating an augmented input image by modifying a transformation target including at least one of the input components from the original input image, and performing a first process based on the augmented input image. Run a neural model that estimates pattern deformation.

도 1은 반도체 생산 공정을 예시적으로 나타내는 도면이다.
도 2는 보정 유무에 따른 현상 결과의 차이를 예시적으로 나타내는 도면이다.
도 3은 반도체 생산 공정에서의 포워드 시뮬레이션 및 백워드 보정을 예시적으로 나타내는 도면이다.
도 4는 일 실시예에 따른, 뉴럴 포워드 모델과 뉴럴 백워드 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다.
도 5는 일 실시예에 따른, 반도체 영상의 증강 및 활용 과정을 예시적으로 나타내는 도면이다.
도 6은 일 실시예에 따른, 의미론적 컴포넌트의 제거를 통한 증강 과정을 예시적으로 나타내는 도면이다.
도 7은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다.
도 8은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 추론 과정을 예시적으로 나타내는 도면이다.
도 9는 일 실시예에 따른, 반도체 영상 처리 방법을 예시적으로 나타내는 플로우 차트이다.
도 10은 일 실시예에 따른, 뉴럴 모델의 트레이닝 방법을 예시적으로 나타내는 플로우 차트이다.
도 11은 일 실시예에 따른, 반도체 영상 처리 장치의 구성을 예시적으로 나타내는 블록도이다.
도 12는 일 실시예에 따른, 전자 장치의 구성을 예시적으로 나타내는 블록도이다.
1 is a diagram illustrating a semiconductor production process.
Figure 2 is a diagram illustrating the difference in development results depending on the presence or absence of correction.
Figure 3 is a diagram illustrating forward simulation and backward correction in a semiconductor production process.
Figure 4 is a diagram illustrating the training process of a neural forward model and a neural backward model according to an embodiment.
Figure 5 is a diagram illustrating a process of augmenting and utilizing a semiconductor image according to an embodiment.
Figure 6 is a diagram illustrating an augmentation process through removal of semantic components, according to an embodiment.
Figure 7 is a diagram illustrating a training process of a neural model using augmented data, according to an embodiment.
Figure 8 is a diagram illustrating an inference process of a neural model using augmented data, according to an embodiment.
9 is a flow chart illustrating a semiconductor image processing method according to an embodiment.
Figure 10 is a flow chart illustrating a neural model training method according to an embodiment.
FIG. 11 is a block diagram illustrating the configuration of a semiconductor image processing device according to an embodiment.
FIG. 12 is a block diagram illustrating the configuration of an electronic device according to an embodiment.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 구현될 수 있다. 따라서, 실제 구현되는 형태는 개시된 특정 실시예로만 한정되는 것이 아니며, 본 명세서의 범위는 실시예들로 설명한 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only and may be changed and implemented in various forms. Accordingly, the actual implementation form is not limited to the specific disclosed embodiments, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea described in the embodiments.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but these terms should be interpreted only for the purpose of distinguishing one component from another component. For example, a first component may be named a second component, and similarly, the second component may also be named a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected” to another component, it should be understood that it may be directly connected or connected to the other component, but that other components may exist in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as “comprise” or “have” are intended to designate the presence of the described features, numbers, steps, operations, components, parts, or combinations thereof, and are intended to indicate the presence of one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.

본 명세서에서, "A 또는 B 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다.As used herein, phrases such as “at least one of A or B” and “at least one of A, B, or C” each refer to any one of the items listed together with the corresponding phrase, or all of them. Possible combinations may be included.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.

이하, 실시예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

도 1은 반도체 생산 공정을 예시적으로 나타내는 도면이다. 도 1을 참조하면, 반도체 생산 공정(semiconductor manufacturing process)은 웨이퍼(wafer)(111)의 가공을 위한 다양한 세부 공정들을 포함할 수 있다. 제1 스테이지(110)에서 웨이퍼가 생성되고, 제2 스테이지(120)에서 웨이퍼(111) 위에 포토레지스트(photoresist)(121)가 도포될 수 있다.1 is a diagram illustrating a semiconductor production process. Referring to FIG. 1, a semiconductor manufacturing process may include various detailed processes for processing a wafer 111. A wafer may be created in the first stage 110, and photoresist 121 may be applied on the wafer 111 in the second stage 120.

제3 스테이지(130)에서 마스크(131)를 통해 포토레지스트(121)에 빛(132)이 조사될 수 있다. 마스크(131)의 패턴에 따라 빛(132)에 대한 포토레지스트(121)의 노출 영역이 결정되고, 빛(132)에 의해 포토레지스트(121)의 노출 영역이 제거됨에 따라 제4 스테이지(140)와 같이 포토레지스트(121)에 마스크(131)의 패턴이 형성될 수 있다. 제3 스테이지(130) 및 제4 스테이지(140)는 현상 공정(develop process)에 해당할 수 있다. 포토레지스트(121)에 형성된 패턴에 따라 웨이퍼(111)의 노출 영역이 결정될 수 있고, 제5 스테이지(150)에서 웨이퍼(111)의 노출 영역에 대한 식각이 이루어질 수 있다. 웨이퍼(111)의 노출 영역이 제거됨에 따라 웨이퍼(111)에 포토레지스트(121)의 패턴이 형성될 수 있다. 제6 스테이지(160)에서 포토레지스트(121)가 제거될 수 있다. 제5 스테이지(150) 및 제6 스테이지(160)는 식각 공장(etch process)에 해당할 수 있다.In the third stage 130, light 132 may be irradiated to the photoresist 121 through the mask 131. The exposed area of the photoresist 121 to the light 132 is determined according to the pattern of the mask 131, and as the exposed area of the photoresist 121 is removed by the light 132, the fourth stage 140 A pattern of the mask 131 may be formed on the photoresist 121 as shown. The third stage 130 and the fourth stage 140 may correspond to a development process. The exposed area of the wafer 111 may be determined according to the pattern formed on the photoresist 121, and etching may be performed on the exposed area of the wafer 111 in the fifth stage 150. As the exposed area of the wafer 111 is removed, a pattern of the photoresist 121 may be formed on the wafer 111. The photoresist 121 may be removed in the sixth stage 160. The fifth stage 150 and the sixth stage 160 may correspond to an etch process.

도 2는 보정 유무에 따른 현상 결과의 차이를 예시적으로 나타내는 도면이다. 실제 반도체 생산 공정에서 희망 패턴(210)에 따른 원형 마스크(original mask)(220)가 사용되면 빛의 회절, 공정 오차 등으로 인해 희망 패턴(210)으로부터의 큰 오차를 갖는 현상 결과(230)가 나타날 수 있다. 오차를 줄이기 위해 원형 마스크(220)에 대한 보정이 이루어질 수 있다. 현상 공정에 대한 기존의 보정 방식은 OPC(optical proximity correction)를 포함할 수 있고, 식각 공정에 대한 기존의 보정 방식은 PPC(process proximity correction)를 포함할 수 있다.Figure 2 is a diagram illustrating the difference in development results depending on the presence or absence of correction. In the actual semiconductor production process, when the original mask 220 according to the desired pattern 210 is used, the phenomenon result 230 having a large error from the desired pattern 210 due to light diffraction, process error, etc. It may appear. Correction may be made to the circular mask 220 to reduce errors. Existing correction methods for the development process may include optical proximity correction (OPC), and existing correction methods for the etching process may include process proximity correction (PPC).

도 2는 현상 공정에 대한 OPC의 예시에 해당할 수 있다. OPC에 따라 보정된 마스크(240)가 결정될 수 있고, 보정된 마스크(240)를 통해 적은 오차를 갖는 현상 결과(250)가 도출될 수 있다. 기존의 보정 방식은 초기 마스크를 조각화(fragmentation)하고, 초기 마스크에 따른 공정 결과물을 시뮬레이션하고, 시뮬레이션 결과를 참조하여 미리 정해진 보정 규칙(correction rule)에 따라 초기 마스크의 조각들을 보정하여 새로운 마스크를 결정하고, 새로운 마스크에 따른 공정 결과물을 시뮬레이션하는 동작들을 포함할 수 있다. 기존의 보정 방식에 따르면 미리 정해진 보정 규칙을 이용한 반복적인 움직임(displacement)을 통해 최종적인 패턴이 도출될 수 있다.Figure 2 may correspond to an example of OPC for the development process. A corrected mask 240 may be determined according to OPC, and a development result 250 with a small error may be derived through the corrected mask 240. The existing correction method fragments the initial mask, simulates the process results according to the initial mask, and determines a new mask by referring to the simulation results and correcting the fragments of the initial mask according to a predetermined correction rule. and may include operations that simulate process results according to the new mask. According to the existing correction method, the final pattern can be derived through repetitive movement (displacement) using predetermined correction rules.

도 3은 반도체 생산 공정에서의 포워드 시뮬레이션 및 백워드 보정을 예시적으로 나타내는 도면이다. 도 3을 참조하면, 제1 패턴 영상(310)에 대한 현상 공정의 포워드 시뮬레이션(forward simulation)을 통해 제2 패턴 영상(320)이 결정될 수 있고, 제2 패턴 영상(320)에 대한 식각 공정의 포워드 시뮬레이션을 통해 제3 패턴 영상(330)이 결정될 수 잇다. 포워드 시뮬레이션에는 반도체 공정의 다양한 특성, 조건, 변수 등을 고려하는 시뮬레이션 모델이 이용될 수 있다. 예를 들어, 제1 패턴 영상(310)에 대한 포워드 시뮬레이션을 통해 현상 공정에서 발생 가능한 형태 변화가 제1 패턴 영상(310)에 반영되어 제2 패턴 영상(320)이 결정될 수 있고, 제2 패턴 영상(320)에 대한 포워드 시뮬레이션을 통해 식각 공정에서 발생 가능한 형태 변화가 제2 패턴 영상(320)에 반영되어 제3 패턴 영상(330)이 결정될 수 있다.Figure 3 is a diagram illustrating forward simulation and backward correction in a semiconductor production process. Referring to FIG. 3, the second pattern image 320 may be determined through forward simulation of the development process for the first pattern image 310, and the etching process for the second pattern image 320 may be determined. The third pattern image 330 can be determined through forward simulation. Forward simulation can use a simulation model that considers various characteristics, conditions, and variables of the semiconductor process. For example, through forward simulation of the first pattern image 310, shape changes that may occur during the development process may be reflected in the first pattern image 310 to determine the second pattern image 320, and the second pattern image 320 may be determined. Through forward simulation of the image 320, shape changes that may occur during the etching process may be reflected in the second pattern image 320 to determine the third pattern image 330.

희망 패턴에 해당하는 제1 패턴 영상(310)과 식각 공정의 결과물에 해당하는 제3 패턴 영상(330) 간에 오차가 발생하는 경우, 오차를 줄이기 위해 백워드 보정이 수행될 수 있다. 기존의 백워드 보정은 식각 공정에 대한 PPC, 및 현상 공정에 대한 OPC를 포함할 수 있다. 기존의 보정 방식은 미리 정해진 보정 규칙을 통해 수행될 수 있다. 제4 패턴 영상(340)에 대한 PPC에 따라 제5 패턴 영상(350)이 생성될 수 있다. 제4 패턴 영상(340)은 희망 패턴에 해당할 수 있고, 제5 패턴 영상(350)은 식각 공정에 따라 희망 패턴이 도출되기 위한 보정 결과에 해당할 수 있다. 제5 패턴 영상(350)에 대한 OPC에 따라 제6 패턴 영상(360)이 생성될 수 있다. 제6 패턴 영상(360)은 현상 공정에 따라 제5 패턴 영상(350)이 도출되기 위한 보정 결과에 해당할 수 있다.If an error occurs between the first pattern image 310 corresponding to the desired pattern and the third pattern image 330 corresponding to the result of the etching process, backward correction may be performed to reduce the error. Conventional backward corrections may include PPC for the etch process, and OPC for the development process. Existing correction methods can be performed through predetermined correction rules. The fifth pattern image 350 may be generated according to the PPC for the fourth pattern image 340. The fourth pattern image 340 may correspond to a desired pattern, and the fifth pattern image 350 may correspond to a correction result for deriving a desired pattern according to an etching process. The sixth pattern image 360 may be generated according to the OPC for the fifth pattern image 350. The sixth pattern image 360 may correspond to a correction result for deriving the fifth pattern image 350 according to the development process.

도 4는 일 실시예에 따른, 뉴럴 포워드 모델과 뉴럴 백워드 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다. 실시예들에 따르면 반도체 생산을 위한 타겟 공정에 따른 패턴 변형을 추정하는데 뉴럴 모델이 이용될 수 있다. 타겟 공정은 현상 공정 및/또는 식각 공정을 포함할 수 있다. 타겟 공정에 따른 패턴 변형은 타겟 공정의 포워드 시뮬레이션에 따른 변형 및 타겟 공정의 백워드 보정에 따른 변형을 포함할 수 있다. 뉴럴 모델은 타겟 공정의 포워드 시뮬레이션을 수행하는 뉴럴 포워드 모델(410) 및 타겟 공정의 백워드 보정을 수행하는 뉴럴 백워드 모델(420)을 포함할 수 있다.Figure 4 is a diagram illustrating the training process of a neural forward model and a neural backward model according to an embodiment. According to embodiments, a neural model may be used to estimate pattern deformation according to a target process for semiconductor production. The target process may include a development process and/or an etching process. Pattern deformation according to the target process may include deformation due to forward simulation of the target process and deformation due to backward correction of the target process. The neural model may include a neural forward model 410 that performs forward simulation of the target process and a neural backward model 420 that performs backward correction of the target process.

도 4를 참조하면, 출력 패턴 영상들(401) 및 입력 패턴 영상들(402)에 기초하여 뉴럴 포워드 모델(410) 및 뉴럴 백워드 모델(420)이 트레이닝될 수 있다. 입력 패턴 영상들(402)은 타겟 공정의 적용 대상에 대응할 수 있고, 출력 패턴 영상들(401)은 타겟 공정의 적용 결과에 대응할 수 있다.Referring to FIG. 4 , a neural forward model 410 and a neural backward model 420 may be trained based on output pattern images 401 and input pattern images 402. The input pattern images 402 may correspond to the application target of the target process, and the output pattern images 401 may correspond to the application result of the target process.

뉴럴 포워드 모델(410) 및 뉴럴 백워드 모델(420)은 뉴럴 네트워크를 포함할 수 있다. 뉴럴 네트워크는 복수의 레이어들을 포함하는 딥 뉴럴 네트워크(deep neural network, DNN)를 포함할 수 있다. 딥 뉴럴 네트워크는 완전 연결 네트워크(fully connected network, FCN), 컨볼루션 뉴럴 네트워크(convolutional neural network, CNN), 및 리커런트 뉴럴 네트워크(recurrent neural network, RNN) 중 적어도 하나를 포함할 수 있다. 예를 들어, 뉴럴 네트워크 내 복수의 레이어들 중 적어도 일부는 CNN에 해당할 수 있고, 다른 일부는 FCN에 해당할 수 있다. CNN은 컨볼루션 레이어로 지칭될 수 있고, FCN은 완전 연결 레이어로 지칭될 수 있다.The neural forward model 410 and the neural backward model 420 may include a neural network. The neural network may include a deep neural network (DNN) including multiple layers. The deep neural network may include at least one of a fully connected network (FCN), a convolutional neural network (CNN), and a recurrent neural network (RNN). For example, at least some of the plurality of layers in the neural network may correspond to CNN, and other parts may correspond to FCN. CNN may be referred to as a convolutional layer, and FCN may be referred to as a fully connected layer.

뉴럴 네트워크는 딥 러닝에 기반하여 트레이닝된 후, 비선형적 관계에 있는 입력 데이터 및 출력 데이터를 서로 매핑함으로써 트레이닝 목적에 맞는 추론(inference)을 수행해낼 수 있다. 딥 러닝은 빅 데이터 세트로부터 영상 또는 음성 인식과 같은 문제를 해결하기 위한 기계 학습 기법이다. 딥 러닝은 준비된 트레이닝 데이터를 이용하여 뉴럴 네트워크를 트레이닝하면서 에너지가 최소화되는 지점을 찾아가는 최적화 문제 풀이 과정으로 이해될 수 있다. 딥 러닝의 지도식(supervised) 또는 비지도식(unsupervised) 학습을 통해 뉴럴 네트워크의 구조, 혹은 모델에 대응하는 웨이트(weight)가 구해질 수 있고, 이러한 웨이트를 통해 입력 데이터 및 출력 데이터가 서로 매핑될 수 있다. 뉴럴 네트워크의 폭과 깊이가 충분히 크면 임의의 함수를 구현할 수 있을 만큼의 용량(capacity)을 가질 수 있다. 뉴럴 네트워크가 적절한 트레이닝 과정을 통해 충분히 많은 양의 트레이닝 데이터를 학습하면 최적의 성능을 달성할 수 있다.After the neural network is trained based on deep learning, it can perform inference suitable for the training purpose by mapping input data and output data in a non-linear relationship to each other. Deep learning is a machine learning technique for solving problems such as image or voice recognition from big data sets. Deep learning can be understood as an optimization problem-solving process that finds the point where energy is minimized while training a neural network using prepared training data. Through supervised or unsupervised learning of deep learning, the structure of a neural network or weights corresponding to the model can be obtained, and through these weights, input data and output data can be mapped to each other. You can. If the width and depth of the neural network are large enough, it can have enough capacity to implement arbitrary functions. Optimal performance can be achieved when a neural network learns a sufficiently large amount of training data through an appropriate training process.

아래에서 뉴럴 네트워크가 '미리' 트레이닝된 것으로 표현될 수 있는데, 여기서 '미리'는 뉴럴 네트워크가 '시작'되기 전을 나타낼 수 있다. 뉴럴 네트워크가 '시작'되었다는 것은 뉴럴 네트워크가 추론을 위한 준비가 된 것을 의미할 수 있다. 예를 들어, 뉴럴 네트워크가 '시작'된 것은 뉴럴 네트워크가 메모리에 로드된 것, 혹은 뉴럴 네트워크가 메모리에 로드된 이후 뉴럴 네트워크에 추론을 위한 입력 데이터가 입력된 것을 포함할 수 있다.Below, the neural network can be expressed as being 'pre-trained', where 'pre' can refer to before the neural network 'starts'. When a neural network 'starts', it can mean that the neural network is ready for inference. For example, 'starting' a neural network may include the neural network being loaded into memory, or input data for inference being input to the neural network after the neural network is loaded into memory.

뉴럴 포워드 모델(410)은 타겟 공정의 포워드 시뮬레이션을 수행하도록 미리 트레이닝될 수 있다. 뉴럴 포워드 모델(410)은 입력 패턴 영상들(402)로부터 출력 패턴 영상들(401)을 추정하도록, 입력 패턴 영상들(402) 및 출력 패턴 영상들(401)을 이용하여 트레이닝될 수 있다. 뉴럴 백워드 모델(420)은 타겟 공정의 백워드 보정을 수행하도록 미리 트레이닝될 수 있다. 뉴럴 백워드 모델(420)은 출력 패턴 영상들(401)로부터 입력 패턴 영상들(402)을 추정하도록, 입력 패턴 영상들(402) 및 출력 패턴 영상들(401)을 이용하여 트레이닝될 수 있다.The neural forward model 410 may be trained in advance to perform forward simulation of the target process. The neural forward model 410 may be trained using the input pattern images 402 and output pattern images 401 to estimate output pattern images 401 from the input pattern images 402 . The neural backward model 420 may be trained in advance to perform backward correction of the target process. The neural backward model 420 may be trained using the input pattern images 402 and output pattern images 401 to estimate the input pattern images 402 from the output pattern images 401.

뉴럴 모델의 추정 정확도는 입력 패턴 영상들(402) 및 출력 패턴 영상들(401)과 같은 트레이닝 데이터의 품질에 의존적일 수 있다. 반도체 공정의 특성 상 출력 패턴 영상들(401) 및 입력 패턴 영상들(401)을 획득하는데 큰 비용이 요구될 수 있다. 데이터 증강(data augmentation) 기법은 트레이닝 데이터의 획득 비용을 줄이는데 기여할 수 있다. 실시예들에 따르면, 뉴럴 모델의 트레이닝 비용을 감소시키는 데이터 증강 기법이 제공될 수 있다. 이때, 증강 방식에 따라 트레이닝 결과물의 성능이 달라질 수 있다. 실시예들에 따르면, 반도체 패턴 영상의 특성에 맞는 증강 방식을 통해 뉴럴 모델이 높은 추정 정확도를 갖도록 트레이닝될 수 있다. 또한, 실시예들에 따른 데이터 증강 기법은 뉴럴 모델의 추론 동작의 추정 정확도를 향상시키는데 이용될 수 있다.The estimation accuracy of the neural model may depend on the quality of training data, such as input pattern images 402 and output pattern images 401. Due to the nature of the semiconductor process, a large cost may be required to obtain the output pattern images 401 and the input pattern images 401. Data augmentation techniques can contribute to reducing the cost of acquiring training data. According to embodiments, a data augmentation technique that reduces the training cost of a neural model may be provided. At this time, the performance of the training result may vary depending on the augmentation method. According to embodiments, a neural model may be trained to have high estimation accuracy through an augmentation method suited to the characteristics of the semiconductor pattern image. Additionally, data augmentation techniques according to embodiments can be used to improve the estimation accuracy of the inference operation of the neural model.

도 5는 일 실시예에 따른, 반도체 영상의 증강 및 활용 과정을 예시적으로 나타내는 도면이다. 도 5를 참조하면, 원본 영상(510)에 대한 데이터 증강에 따라 증강 영상들(520)이 생성될 수 있다. 원본 영상(510)은 반도체 패턴을 나타낼 수 있고, 반도체 패턴의 각 의미론적 컴포넌트(semantic component)에 기초하여 데이터 증강이 수행될 수 있다. 의미론적 컴포넌트는 간단히 컴포넌트로 부를 수 있다. 컴포넌트들은 픽셀 값에 기초하여 구분될 수 있다. 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹은 하나의 컴포넌트를 형성할 수 있다. 동일 컴포넌트에 속하는 픽셀들은 서로 연결될 수 있고, 다른 컴포넌트들에 속하는 픽셀들은 서로 연결되지 않을 수 있다.FIG. 5 is a diagram exemplarily illustrating a process of augmenting and utilizing a semiconductor image, according to an embodiment. Referring to FIG. 5 , augmented images 520 may be generated according to data augmentation for the original image 510. The original image 510 may represent a semiconductor pattern, and data augmentation may be performed based on each semantic component of the semiconductor pattern. Semantic components can simply be called components. Components can be distinguished based on pixel values. A group of pixels that have non-zero pixel values and are connected to each other can form one component. Pixels belonging to the same component may be connected to each other, and pixels belonging to different components may not be connected to each other.

증강 작업은 컴포넌트 단위로 수행될 수 있다. 원본 영상(510)의 컴포넌트들로부터 컴포넌트들의 적어도 하나를 포함하는 변형 대상이 선택될 수 있고, 변형 대상에 대한 변형이 이루어질 수 있다. 변형은 변형 대상의 제거, 변형 대상의 스케일, 변형 대상의 쉬프트, 및 변형 대상의 회전 중 적어도 일부를 포함할 수 있다. 다만, 변형의 유형이 이들에 한정되는 것은 아니다. 예를 들어, 서로 다른 변형 대상들의 제거를 통해 증강 영상들(520)이 생성될 수 있다. 원본 영상(510)의 변형 대상에 해당하지 않는 부분은 증강 영상들(520)에서 유지될 수 있다.Augmentation work can be performed on a component basis. A transformation object including at least one of the components may be selected from the components of the original image 510, and transformation may be performed on the transformation object. The transformation may include at least some of removal of the transformation object, scaling of the transformation object, shifting of the transformation object, and rotation of the transformation object. However, the types of transformation are not limited to these. For example, augmented images 520 may be generated by removing different deformation objects. Parts of the original image 510 that are not subject to transformation may be maintained in the augmented images 520.

원본 영상(510) 및 증강 영상들(520)은 뉴럴 모델(531)의 트레이닝 또는 뉴럴 모델(532)의 추론에 이용될 수 있다. 뉴럴 모델들(531, 532)은 포워드 공정에 따른 패턴 변형을 추정하는 뉴럴 포워드 모델 혹은 백워드 보정에 따른 패턴 변형을 추정하는 뉴럴 백워드 모델에 해당할 수 있다. 뉴럴 모델(531)과 뉴럴 모델(532)은 서로 동일하거나 혹은 서로 다를 수 있다. 보다 구체적으로, 제1 원본 영상의 증강에 따른 제1 증강 영상들에 기초하여 뉴럴 모델(531)의 트레이닝이 완료된 후, 제2 원본 영상의 증강에 따른 제2 증강 영상들에 기초하여 뉴럴 모델(532)의 추론이 수행될 수 있다. 이때, 뉴럴 모델(531)과 뉴럴 모델(532)은 서로 동일할 수 있다. 이와 달리, 뉴럴 모델(532)은 데이터 증강이 아닌 다른 방식으로 트레이닝될 수 있고, 제2 증강 영상들에 기초하여 추론 동작을 수행할 수 있다.The original image 510 and the augmented images 520 can be used for training the neural model 531 or inferring the neural model 532. The neural models 531 and 532 may correspond to a neural forward model that estimates pattern deformation according to a forward process or a neural backward model that estimates pattern deformation according to backward correction. The neural model 531 and the neural model 532 may be the same or different from each other. More specifically, after training of the neural model 531 is completed based on the first augmented images resulting from augmentation of the first original image, the neural model 531 is based on the second augmented images resulting from augmentation of the second original image ( 532) inference can be performed. At this time, the neural model 531 and the neural model 532 may be identical to each other. Alternatively, the neural model 532 may be trained in a manner other than data augmentation and may perform an inference operation based on the second augmented images.

원본 영상(510) 및 증강 영상들(520)이 뉴럴 모델(531)의 트레이닝에 사용되는 경우, 원본 영상(510) 및 증강 영상들(520)은 입력 패턴 영상들 및 출력 패턴 영상들을 포함할 수 있다. 뉴럴 모델(531)이 뉴럴 포워드 모델에 해당하는 경우, 뉴럴 모델(531)은 입력 패턴 영상들로부터 출력 패턴 영상들을 추정하도록 트레이닝될 수 있다. 뉴럴 모델(531)이 뉴럴 백워드 모델에 해당하는 경우, 뉴럴 모델(531)은 출력 패턴 영상들로부터 입력 패턴 영상들을 추정하도록 트레이닝될 수 있다.When the original image 510 and the augmented images 520 are used for training the neural model 531, the original image 510 and the augmented images 520 may include input pattern images and output pattern images. there is. If the neural model 531 corresponds to a neural forward model, the neural model 531 may be trained to estimate output pattern images from input pattern images. If the neural model 531 corresponds to a neural backward model, the neural model 531 may be trained to estimate input pattern images from output pattern images.

뉴럴 모델(531)은 서로 대응하는 증강 작업에 따른 증강 입력 영상과 증강 출력 영상을 통해 트레이닝될 수 있다. 입력 패턴 영상의 변형 대상의 변형을 통해 증강 입력 영상이 생성될 수 있고, 입력 패턴 영상의 변형 대상의 변형에 대응하는 변형이 출력 패턴 영상에 적용되어 증강 출력 영상이 생성될 수 있다. 증강 입력 영상에 따른 뉴럴 모델(531)의 실행 결과에 해당하는 결과 영상이 결정되면, 결과 영상과 증강 출력 영상 간의 차이가 줄어들도록 뉴럴 모델(531)이 트레이닝될 수 있다.The neural model 531 can be trained through augmented input images and augmented output images according to corresponding augmentation tasks. An augmented input image may be generated through transformation of the transformation object of the input pattern image, and a transformation corresponding to the transformation of the transformation object of the input pattern image may be applied to the output pattern image to generate an augmented output image. Once the result image corresponding to the execution result of the neural model 531 according to the augmented input image is determined, the neural model 531 may be trained to reduce the difference between the result image and the augmented output image.

원본 영상(510) 및 증강 영상들(520)이 뉴럴 모델(532)의 추론에 사용되는 경우, 원본 영상(510) 및 증강 영상들(520)은 입력 패턴 영상들 또는 출력 패턴 영상들에 해당할 수 있다. 뉴럴 모델(532)이 뉴럴 포워드 모델에 해당하는 경우, 원본 영상(510) 및 증강 영상들(520)은 입력 패턴 영상들에 해당할 수 있고, 뉴럴 모델(532)은 입력 패턴 영상들로부터 출력 패턴 영상들을 추정할 수 있다. 뉴럴 모델(532)이 뉴럴 백워드 모델에 해당하는 경우, 원본 영상(510) 및 증강 영상들(520)은 출력 패턴 영상들에 해당할 수 있고, 뉴럴 모델(532)은 출력 패턴 영상들로부터 입력 패턴 영상들을 추정할 수 있다.When the original image 510 and augmented images 520 are used for inference of the neural model 532, the original image 510 and augmented images 520 may correspond to input pattern images or output pattern images. You can. When the neural model 532 corresponds to a neural forward model, the original image 510 and the augmented images 520 may correspond to input pattern images, and the neural model 532 creates an output pattern from the input pattern images. Images can be estimated. When the neural model 532 corresponds to a neural backward model, the original image 510 and the augmented images 520 may correspond to output pattern images, and the neural model 532 receives input from the output pattern images. Pattern images can be estimated.

뉴럴 모델(532)이 뉴럴 포워드 모델에 해당하는 경우, 원본 영상(510)은 입력 패턴 영상에 해당할 수 있다. 원본 영상(510)의 변형 대상의 변형을 통해 증강 영상들(520)이 생성될 수 있다. 원본 영상(510) 및 증강 영상들(520)로 뉴럴 모델(532)이 실행되어 실행 결과에 해당하는 결과 영상들이 결정될 수 있다. 결과 영상들의 조합을 통해 포워드 공정의 결과물에 해당하는 패턴이 추정될 수 있다. 뉴럴 모델(532)이 뉴럴 백워드 모델에 해당하는 경우, 원본 영상(510)은 출력 패턴 영상에 해당할 수 있다. 증강 작업을 통해 증강 영상들(520)이 생성되고, 원본 영상(510) 및 증강 영상들(520)로 뉴럴 모델(532)이 실행되면, 실행 결과에 해당하는 결과 영상들이 결정될 수 있다. 결과 영상들의 조합을 통해 백워드 보정의 결과물에 해당하는 패턴이 추정될 수 있다. 결과 영상들의 조합을 위해 앙상블 가중치가 이용될 수 있다.If the neural model 532 corresponds to a neural forward model, the original image 510 may correspond to an input pattern image. Augmented images 520 may be generated through transformation of the object of transformation of the original image 510. The neural model 532 may be executed with the original image 510 and the augmented images 520, and resultant images corresponding to the execution results may be determined. A pattern corresponding to the result of the forward process can be estimated through a combination of the resulting images. If the neural model 532 corresponds to a neural backward model, the original image 510 may correspond to an output pattern image. When augmented images 520 are generated through an augmentation operation and the neural model 532 is executed with the original image 510 and the augmented images 520, result images corresponding to the execution results may be determined. A pattern corresponding to the result of backward correction can be estimated through a combination of the resulting images. Ensemble weights can be used to combine the resulting images.

도 6은 일 실시예에 따른, 의미론적 컴포넌트의 제거를 통한 증강 과정을 예시적으로 나타내는 도면이다. 도 6을 참조하면, 디자인 패턴(610)에 대한 영상화 작업에 따라 원본 영상(620)이 결정될 수 있다. 디자인 패턴(610)은 타겟 공정의 적용 대상에 해당하는 입력 패턴 또는 타겟 공정의 적용 결과에 해당하는 출력 패턴의 3차원 설계 구조를 나타낼 수 있다. 디자인 패턴(610)은 세부적인 다각형 구조물들을 통해 3차원 설계 구조를 표현할 수 있다. 디자인 패턴(610)의 영상화는 3차원 설계에 대한 구조 데이터를 영상 데이터로 렌더링하는 작업에 해당할 수 있다.Figure 6 is a diagram illustrating an augmentation process through removal of semantic components, according to an embodiment. Referring to FIG. 6 , the original image 620 may be determined according to the imaging process for the design pattern 610. The design pattern 610 may represent a three-dimensional design structure of an input pattern corresponding to an application target of the target process or an output pattern corresponding to the result of applying the target process. The design pattern 610 can express a three-dimensional design structure through detailed polygonal structures. Imaging the design pattern 610 may correspond to the task of rendering structural data about a 3D design into image data.

원본 영상(620)은 반도체 패턴에 대응하는 컴포넌트들을 포함할 수 있다. 원본 영상(620)에 대한 컴포넌트 식별 작업을 통해 원본 영상(620)의 컴포넌트들이 식별될 수 있다. 컴포넌트 식별 작업은 원본 영상(620)의 픽셀들의 픽셀 값들에 기초하여 수행될 수 있다. 원본 영상(620)에서 0이 아닌 픽셀 값을 갖는 픽셀들이 선택될 수 있고, 선택된 픽셀들 중 서로 연결된 픽셀들이 하나의 컴포넌트로 식별될 수 있다. 원본 영상(620) 내 위치에 따라 각 컴포넌트에 레이블이 부여될 수 있다. 도 6은 컴포넌트들에 1 내지 4의 레이블이 부여된 예시를 나타낸다. k의 레이블을 갖는 컴포넌트는 제k 컴포넌트로 부를 수 있다.The original image 620 may include components corresponding to a semiconductor pattern. Components of the original image 620 may be identified through a component identification operation for the original image 620. Component identification work may be performed based on pixel values of pixels of the original image 620. Pixels with pixel values other than 0 may be selected from the original image 620, and pixels connected to each other among the selected pixels may be identified as one component. A label may be assigned to each component depending on its location in the original image 620. Figure 6 shows an example in which labels 1 to 4 are assigned to components. The component with label k can be called the kth component.

원본 영상(620)에 대한 증강 작업을 통해 증강 영상들(631, 632)이 생성될 수 있다. 증강 작업은 변형 대상의 선택 및 변형 대상에 대한 변형 작업을 포함할 수 있다. 각 변형 대상은 적어도 하나의 컴포넌트를 포함할 수 있다. 예를 들어, 제1 컴포넌트는 제1 변형 대상에, 제2 컴포넌트는 제2 변형 대상에, 제3 컴포넌트는 제3 변형 대상에 해당할 수 있다. 또한, 제1 컴포넌트 및 제2 컴포넌트는 제4 변형 대상에, 제3 컴포넌트 및 제4 컴포넌트는 제5 변형 대상에 해당할 수 있다.Augmented images 631 and 632 may be generated through an augmentation operation on the original image 620. The augmentation operation may include selection of a transformation object and a transformation operation on the transformation object. Each transformation target may include at least one component. For example, the first component may correspond to the first modification target, the second component may correspond to the second modification target, and the third component may correspond to the third modification target. Additionally, the first component and the second component may correspond to the fourth object of transformation, and the third component and the fourth component may correspond to the fifth object of transformation.

변형 작업은 변형 대상의 제거, 변형 대상의 스케일, 변형 대상의 쉬프트, 및 변형 대상의 회전 중 적어도 일부를 포함할 수 있다. 다만, 변형 작업의 유형이 이들에 한정되는 것은 아니다. 서로 다른 변형 대상들에 대해 동일한 변형 작업이 수행되거나, 서로 다른 변형 대상들에 대해 서로 다른 변형 작업들이 수행되거나, 동일한 변형 대상에 대해 서로 다른 변형 작업들이 수행될 수 있다. 증강 영상(631)은 제2 변형 대상의 제거에 해당하는 증강 작업의 결과물을 나타낼 수 있고, 증강 영상(632)은 제3 변형 대상의 제거에 해당하는 증강 작업의 결과물을 나타낼 수 있다.The transformation operation may include at least some of removal of the transformation object, scaling of the transformation object, shifting of the transformation object, and rotation of the transformation object. However, the types of transformation work are not limited to these. The same transformation operation may be performed on different transformation objects, different transformation operations may be performed on different transformation objects, or different transformation operations may be performed on the same transformation object. The augmented image 631 may represent the result of an augmentation operation corresponding to the removal of the second modification object, and the augmented image 632 may represent the result of an augmentation operation corresponding to the removal of the third modification object.

도 7은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 트레이닝 과정을 예시적으로 나타내는 도면이다. 도 7을 참조하면, 원본 입력 영상(711)의 증강에 따라 증강 입력 영상들(712, 713)이 생성될 수 있고, 원본 입력 영상(711) 및/또는 증강 입력 영상들(712, 713)에 기초하여 뉴럴 모델(700)이 실행될 수 있다. 원본 입력 영상(711) 및 증강 입력 영상들(712, 713)이 뉴럴 모델(700)에 순차적으로 입력될 수 있고, 뉴럴 모델(700)의 실행에 따라 실행 결과 영상들(721 내지 723)이 생성될 수 있다. 좌측의 시간 축은 트레이닝이 순차적으로 이루어짐을 나타낼 수 있다. 뉴럴 모델(700)의 병렬적 실행이 지원되는 경우, 뉴럴 모델(700)의 병렬적 실행을 통해 원본 입력 영상(711) 및 증강 입력 영상들(712, 713)에 따른 실행 결과 영상들(721, 722, 723)이 병렬적으로 생성될 수 있다.Figure 7 is a diagram illustrating a training process of a neural model using augmented data, according to an embodiment. Referring to FIG. 7, augmented input images 712 and 713 may be generated according to augmentation of the original input image 711, and the original input image 711 and/or the augmented input images 712 and 713 may be generated. Based on this, the neural model 700 can be executed. The original input image 711 and the augmented input images 712 and 713 may be sequentially input to the neural model 700, and execution result images 721 to 723 are generated according to the execution of the neural model 700. It can be. The time axis on the left may indicate that training occurs sequentially. When parallel execution of the neural model 700 is supported, execution result images 721, 722, 723) can be generated in parallel.

원본 입력 영상(711)에 대응하는 원본 출력 영상(731)이 원본 영상으로 제공되면, 원본 출력 영상(731)의 증강에 따라 증강 출력 영상들(732, 733)이 생성될 수 있다. 증강 입력 영상들(712, 713)의 생성에 이용된 증강 작업이 원본 출력 영상(731)에 동일하게 적용될 수 있고, 그 결과 증강 출력 영상들(732, 733)이 생성될 수 있다. 예를 들어, 원본 입력 영상(711)의 제2 입력 컴포넌트의 제거를 통해 증강 입력 영상(712)이 생성될 수 있고, 원본 입력 영상(711)의 제3 입력 컴포넌트의 제거를 통해 증강 입력 영상(713)이 생성될 수 있다. 대응 증강 작업으로서, 원본 출력 영상(731)의 제2 출력 컴포넌트의 제거를 통해 증강 출력 영상(732)이 생성될 수 있고, 원본 출력 영상(731)의 제3 출력 컴포넌트의 제거를 통해 증강 출력 영상(733)이 생성될 수 있다. 컴포넌트들의 구분을 위해 입력 영상의 컴포넌트는 입력 컴포넌트로, 출력 영상의 컴포넌트는 출력 컴포넌트로 부를 수 있다.When the original output image 731 corresponding to the original input image 711 is provided as the original image, augmented output images 732 and 733 may be generated according to augmentation of the original output image 731. The augmentation operation used to generate the augmented input images 712 and 713 may be equally applied to the original output image 731, and as a result, augmented output images 732 and 733 may be generated. For example, the augmented input image 712 can be generated by removing the second input component of the original input image 711, and the augmented input image 712 can be created by removing the third input component of the original input image 711. 713) can be created. As a corresponding augmentation operation, the augmented output image 732 may be generated through removal of the second output component of the original output image 731, and the augmented output image 732 may be generated through removal of the third output component of the original output image 731. (733) can be generated. To distinguish components, components of the input image can be called input components, and components of the output image can be called output components.

원본 출력 영상(731) 및 증강 출력 영상들(732, 733)은 GT(ground truth)로 이용될 수 있다. 뉴럴 모델(700)은 실행 결과와 GT 간의 차이가 작아지도록 트레이닝될 수 있다. 뉴럴 모델(700)은 실행 결과 영상(721)과 원본 출력 영상(731) 간의 차이가 작아지도록 트레이닝될 수 있고, 실행 결과 영상(722)과 증강 출력 영상(732) 간의 차이가 작아지도록 트레이닝될 수 있고, 실행 결과 영상(723)과 증강 출력 영상(733) 간의 차이가 작아지도록 트레이닝될 수 있다.The original output image 731 and the augmented output images 732 and 733 can be used as ground truth (GT). The neural model 700 can be trained so that the difference between the execution result and GT becomes smaller. The neural model 700 may be trained to reduce the difference between the execution result image 721 and the original output image 731, and may be trained to reduce the difference between the execution result image 722 and the augmented output image 732. and can be trained so that the difference between the execution result image 723 and the augmented output image 733 becomes smaller.

하나의 원본 영상 세트(예: 원본 입력 영상(711), 원본 출력 영상(731))에 대한 데이터 증강을 통해 여러 차례의 트레이닝이 이루어질 수 있으며, 복수의 원본 영상 세트가 제공되는 경우 더 많은 트레이닝이 이루어질 수 있다. 이를 통해 반도체 영상의 획득 비용에 의한 트레이닝 데이터 확보의 어려움이 크게 해소될 수 있다.Multiple training sessions can be performed through data augmentation for one original image set (e.g., original input image 711, original output image 731), and if multiple original image sets are provided, more training can be performed. It can be done. Through this, the difficulty in securing training data due to the acquisition cost of semiconductor images can be greatly resolved.

도 7은 원본 입력 영상(711)이 입력 패턴 영상에 해당하고 원본 출력 영상(731)이 출력 패턴 영상에 해당하는 예시를 나타낼 수 있다. 본 예시에서 뉴럴 모델(700)은 뉴럴 포워드 모델로 트레이닝될 수 있다. 이와 달리 원본 입력 영상(711)이 출력 패턴 영상에 해당하고 원본 출력 영상(731)이 입력 패턴 영상에 해당할 수 있고, 이 경우 뉴럴 모델(700)은 뉴럴 백워드 모델로 트레이닝될 수 있다.FIG. 7 may show an example in which the original input image 711 corresponds to the input pattern image and the original output image 731 corresponds to the output pattern image. In this example, the neural model 700 may be trained as a neural forward model. In contrast, the original input image 711 may correspond to the output pattern image and the original output image 731 may correspond to the input pattern image, and in this case, the neural model 700 may be trained as a neural backward model.

도 8은 일 실시예에 따른, 증강 데이터를 이용한 뉴럴 모델의 추론 과정을 예시적으로 나타내는 도면이다. 도 8을 참조하면, 원본 입력 영상(811)의 증강에 따라 증강 입력 영상들(812, 813)이 생성될 수 있고, 원본 입력 영상(811) 및/또는 증강 입력 영상들(812, 813)에 기초하여 뉴럴 모델(800)이 실행될 수 있다. 원본 입력 영상(811) 및 증강 입력 영상들(812, 813)이 뉴럴 모델(800)에 순차적으로 입력될 수 있고, 뉴럴 모델(800)의 실행에 따라 실행 결과 영상들(821 내지 823)이 생성될 수 있다. 좌측의 시간 축은 추론이 순차적으로 이루어짐을 나타낼 수 있다. 뉴럴 모델(800)의 병렬적 실행이 지원되는 경우, 뉴럴 모델(800)의 병렬적 실행을 통해 원본 입력 영상(811) 및 증강 입력 영상들(812, 813)에 따른 실행 결과 영상들(821, 822, 823)이 병렬적으로 생성될 수 있다.Figure 8 is a diagram illustrating an inference process of a neural model using augmented data, according to an embodiment. Referring to FIG. 8, augmented input images 812 and 813 may be generated according to augmentation of the original input image 811, and the original input image 811 and/or the augmented input images 812 and 813 may be generated. Based on this, the neural model 800 can be executed. The original input image 811 and the augmented input images 812 and 813 may be sequentially input to the neural model 800, and execution result images 821 to 823 are generated according to the execution of the neural model 800. It can be. The time axis on the left can indicate that inference is done sequentially. When parallel execution of the neural model 800 is supported, execution result images 821, 822, 823) can be generated in parallel.

실행 결과 영상들(821, 822, 823)의 조합을 통해 추정 결과 영상(830)이 결정될 수 있다. 실행 결과 영상들(821, 822, 823)은 일정 가중치에 기초하여 조합될 수 있다. 일 실시예에 따르면, 뉴럴 모델(800)은 앙상블 모델에 해당할 수 있고, 실행 결과 영상들(821, 822, 823)의 조합에 앙상블 가중치가 이용될 수 있다. 데이터 증강을 통해 다양한 관점의 데이터가 활용됨으로써 추론의 정확도가 향상될 수 있다.The estimated result image 830 may be determined through a combination of the execution result images 821, 822, and 823. The execution result images 821, 822, and 823 may be combined based on a certain weight. According to one embodiment, the neural model 800 may correspond to an ensemble model, and ensemble weights may be used in a combination of the execution result images 821, 822, and 823. Through data augmentation, the accuracy of inference can be improved by utilizing data from various perspectives.

도 7은 뉴럴 모델(800)이 뉴럴 포워드 모델에 해당하는 예시를 나타낼 수 있다. 본 예시에서 원본 입력 영상(811)은 입력 패턴 영상에 해당하고 추정 결과 영상(830)은 출력 패턴 영상에 해당할 수 있다. 이와 달리, 뉴럴 모델(800)은 뉴럴 백워드 모델에 해당할 수 있다. 이 경우, 원본 입력 영상(811)은 출력 패턴 영상에 해당하고 추정 결과 영상(830)은 입력 패턴 영상에 해당할 수 있다.FIG. 7 may show an example in which the neural model 800 corresponds to a neural forward model. In this example, the original input image 811 may correspond to the input pattern image and the estimation result image 830 may correspond to the output pattern image. In contrast, the neural model 800 may correspond to a neural backward model. In this case, the original input image 811 may correspond to the output pattern image and the estimation result image 830 may correspond to the input pattern image.

도 9는 일 실시예에 따른, 반도체 영상 처리 방법을 예시적으로 나타내는 플로우 차트이다. 도 9를 참조하면, 반도체 영상 처리 장치는 단계(910)에서 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고, 단계(920)에서 원본 입력 영상으로부터 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고, 단계(930)에서 증강 입력 영상에 기초하여 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행한다.9 is a flow chart illustrating a semiconductor image processing method according to an embodiment. Referring to FIG. 9, the semiconductor image processing device identifies input components of the semiconductor pattern of the original input image from the original input image corresponding to the subject to which the first process for semiconductor production is applied in step 910, and performs step 920. In step 930, an augmented input image is generated by modifying a deformation target including at least one of the input components, and a neural model is executed to estimate the pattern deformation according to the first process based on the augmented input image in step 930. do.

단계(920)는 변형 대상을 제거하여 증강 입력 영상을 생성하는 단계를 포함할 수 있다.Step 920 may include generating an augmented input image by removing the deformation target.

변형 대상의 변형은 변형 대상의 제거, 변형 대상의 스케일, 변형 대상의 쉬프트, 및 변형 대상의 회전 중 적어도 일부를 포함할 수 있다.The transformation of the transformation object may include at least some of removal of the transformation object, scaling of the transformation object, shifting of the transformation object, and rotation of the transformation object.

원본 입력 영상의 변형 대상에 해당하지 않는 부분은 증강 입력 영상에서 유지될 수 있다.Parts of the original input image that are not subject to transformation may be maintained in the augmented input image.

단계(910)는 원본 입력 영상에서 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹을 입력 컴포넌트들의 하나의 입력 컴포넌트로 식별하는 단계를 포함할 수 있다.Step 910 may include identifying one group of pixels that have non-zero pixel values and are connected to each other in the original input image as one of the input components.

반도체 영상 처리 장치는 뉴럴 모델의 실행 결과에 따라 뉴럴 모델을 트레이닝하는 단계를 더 수행할 수 있다.The semiconductor image processing device may further perform a step of training the neural model according to the execution result of the neural model.

반도체 영상 처리 장치는 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계, 및 원본 입력 영상의 변형 대상에 대한 변형에 대응하는 변형을 원본 출력 영상의 출력 컴포넌트들에 적용하여 증강 출력 영상을 생성하는 단계를 더 수행할 수 있다. 단계(930)는 뉴럴 모델의 실행 결과에 해당하는 결과 영상과 증강 출력 영상 간의 차이에 따라 뉴럴 모델을 트레이닝하는 단계를 포함할 수 있다.The semiconductor image processing device includes identifying output components of a semiconductor pattern of the original output image from the original output image corresponding to the result of applying the first process, and performing a transformation corresponding to the transformation of the transformation target of the original input image into the original output image. A step of generating an augmented output image by applying it to the output components of can be further performed. Step 930 may include training a neural model according to the difference between the result image corresponding to the execution result of the neural model and the augmented output image.

반도체 영상 처리 장치는 원본 입력 영상에 기초하여 뉴럴 모델을 실행하는 단계, 및 원본 입력 영상에 기초한 뉴럴 모델의 실행 결과 및 증강 입력 영상에 기초한 뉴럴 모델의 실행 결과를 조합하여 제1 공정에 따른 패턴 변형을 추정하는 단계를 더 수행할 수 있다.The semiconductor image processing device includes executing a neural model based on the original input image, and combining the execution result of the neural model based on the original input image and the execution result of the neural model based on the augmented input image to transform the pattern according to the first process. A further step of estimating can be performed.

제1 공정은 현상 공정 및 식각 공정 중 적어도 하나를 포함할 수 있다.The first process may include at least one of a developing process and an etching process.

그 밖에, 도 9의 반도체 영상 처리 방법에는 도 1 내지 도 8, 및 도 10 내지 도 12의 설명이 적용될 수 있다.In addition, the descriptions of FIGS. 1 to 8 and 10 to 12 may be applied to the semiconductor image processing method of FIG. 9 .

도 10은 일 실시예에 따른, 뉴럴 모델의 트레이닝 방법을 예시적으로 나타내는 플로우 차트이다. 도 10을 참조하면, 반도체 영상 처리 장치는 단계(1010)에서 반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상 및 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터, 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들 및 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하고, 단계(1020)에서 입력 컴포넌트들과 출력 컴포넌트들 간의 매칭 관계에 기초하여 컴포넌트 쌍들을 결정하고, 단계(1030)에서 원본 입력 영상 및 원본 출력 영상으로부터 컴포넌트 쌍들의 적어도 하나를 포함하는 변형 대상을 제거하여 증강 입력 영상 및 증강 출력 영상을 생성하고, 단계(1040)에서 증강 입력 영상 및 증강 출력 영상에 기초하여 제1 공정에 따른 패턴 변형을 예측하는 뉴럴 모델을 트레이닝한다.Figure 10 is a flow chart illustrating a neural model training method according to an embodiment. Referring to FIG. 10, in step 1010, the semiconductor image processing apparatus generates an original input image from an original input image corresponding to an object of application of the first process for semiconductor production and an original output image corresponding to the application result of the first process. Identify the input components of the semiconductor pattern and the output components of the semiconductor pattern of the original output image, determine component pairs based on the matching relationship between the input components and output components in step 1020, and determine the component pairs in step 1030. An augmented input image and an augmented output image are generated by removing a transformation object including at least one of the component pairs from the original input image and the original output image, and a first process is performed based on the augmented input image and the augmented output image in step 1040. Train a neural model that predicts pattern deformation according to .

그 밖에, 도 10의 반도체 영상 처리 방법에는 도 1 내지 도 9, 도 11, 및 도 12의 설명이 적용될 수 있다.In addition, the descriptions of FIGS. 1 to 9, 11, and 12 may be applied to the semiconductor image processing method of FIG. 10.

도 11은 일 실시예에 따른, 반도체 영상 처리 장치의 구성을 예시적으로 나타내는 블록도이다. 도 11을 참조하면, 반도체 영상 처리 장치(1100)는 프로세서(1110) 및 메모리(1120)를 포함한다. 메모리(1120)는 프로세서(1110)에 연결되고, 프로세서(1110)에 의해 실행가능한 명령어들, 프로세서(1110)가 연산할 데이터 또는 프로세서(1110)에 의해 처리된 데이터를 저장할 수 있다. 메모리(1120)는 비일시적인 컴퓨터 판독가능 매체, 예컨대 고속 랜덤 액세스 메모리 및/또는 비휘발성 컴퓨터 판독가능 저장 매체(예컨대, 하나 이상의 디스크 저장 장치, 플래쉬 메모리 장치, 또는 기타 비휘발성 솔리드 스테이트 메모리 장치)를 포함할 수 있다.FIG. 11 is a block diagram illustrating the configuration of a semiconductor image processing device according to an embodiment. Referring to FIG. 11 , the semiconductor image processing device 1100 includes a processor 1110 and a memory 1120. The memory 1120 is connected to the processor 1110 and can store instructions executable by the processor 1110, data to be operated by the processor 1110, or data processed by the processor 1110. Memory 1120 may include non-transitory computer-readable media, such as high-speed random access memory and/or non-volatile computer-readable storage media (e.g., one or more disk storage devices, flash memory devices, or other non-volatile solid-state memory devices). It can be included.

프로세서(1110)는 도 1 내지 도 10, 및 도 12의 동작을 수행하기 위한 명령어들을 실행할 수 있다. 예를 들어, 프로세서(1110)는 The processor 1110 may execute instructions to perform the operations of FIGS. 1 to 10 and 12 . For example, processor 1110

그 밖에, 반도체 영상 처리 장치(1110)에는 도 1 내지 도 10, 및 도 12의 설명이 적용될 수 있다.In addition, the descriptions of FIGS. 1 to 10 and 12 may be applied to the semiconductor image processing device 1110.

도 12는 일 실시예에 따른, 전자 장치의 구성을 예시적으로 나타내는 블록도이다. 도 12를 참조하면, 전자 장치(1200)는 프로세서(1210), 메모리(1220), 카메라(1230), 저장 장치(1240), 입력 장치(1250), 출력 장치(1260) 및 네트워크 인터페이스(1270)를 포함할 수 있으며, 이들은 통신 버스(1280)를 통해 서로 통신할 수 있다. 예를 들어, 전자 장치(1200)는 이동 전화, 스마트 폰, PDA, 넷북, 태블릿 컴퓨터, 랩톱 컴퓨터 등과 같은 모바일 장치, 스마트 워치, 스마트 밴드, 스마트 안경 등과 같은 웨어러블 디바이스, 데스크탑, 서버 등과 같은 컴퓨팅 장치, 텔레비전, 스마트 텔레비전, 냉장고 등과 같은 가전 제품, 도어 락 등과 같은 보안 장치, 자율주행 차량, 스마트 차량 등과 같은 차량의 적어도 일부로 구현될 수 있다. 전자 장치(1200)는 도 11의 반도체 영상 처리 장치(1110)를 구조적 및/또는 기능적으로 포함할 수 있다.FIG. 12 is a block diagram illustrating the configuration of an electronic device according to an embodiment. Referring to FIG. 12, the electronic device 1200 includes a processor 1210, a memory 1220, a camera 1230, a storage device 1240, an input device 1250, an output device 1260, and a network interface 1270. may include, and they may communicate with each other through the communication bus 1280. For example, electronic device 1200 may include mobile devices such as mobile phones, smart phones, PDAs, netbooks, tablet computers, laptop computers, etc., wearable devices such as smart watches, smart bands, smart glasses, etc., computing devices such as desktops, servers, etc. , may be implemented as at least part of a vehicle such as home appliances such as televisions, smart televisions, refrigerators, etc., security devices such as door locks, autonomous vehicles, smart vehicles, etc. The electronic device 1200 may structurally and/or functionally include the semiconductor image processing device 1110 of FIG. 11 .

프로세서(1210)는 전자 장치(1200) 내에서 실행하기 위한 기능 및 명령어들을 실행한다. 예를 들어, 프로세서(1210)는 메모리(1220) 또는 저장 장치(1240)에 저장된 명령어들을 처리할 수 있다. 프로세서(1210)는 도 1 내지 도 11을 통하여 설명된 하나 이상의 동작을 수행할 수 있다. 메모리(1220)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함할 수 있다. 메모리(1220)는 프로세서(1210)에 의해 실행하기 위한 명령어들을 저장할 수 있고, 전자 장치(1200)에 의해 소프트웨어 및/또는 애플리케이션이 실행되는 동안 관련 정보를 저장할 수 있다.The processor 1210 executes functions and instructions for execution within the electronic device 1200. For example, the processor 1210 may process instructions stored in the memory 1220 or the storage device 1240. The processor 1210 may perform one or more operations described with reference to FIGS. 1 to 11 . Memory 1220 may include a computer-readable storage medium or computer-readable storage device. The memory 1220 may store instructions for execution by the processor 1210 and may store related information while software and/or applications are executed by the electronic device 1200.

카메라(1230)는 사진 및/또는 비디오를 촬영할 수 있다. 저장 장치(1240)는 컴퓨터 판독가능한 저장 매체 또는 컴퓨터 판독가능한 저장 장치를 포함한다. 저장 장치(1240)는 메모리(1220)보다 더 많은 양의 정보를 저장하고, 정보를 장기간 저장할 수 있다. 예를 들어, 저장 장치(1240)는 자기 하드 디스크, 광 디스크, 플래쉬 메모리, 플로피 디스크 또는 이 기술 분야에서 알려진 다른 형태의 비휘발성 메모리를 포함할 수 있다.Camera 1230 may take photos and/or videos. Storage device 1240 includes a computer-readable storage medium or computer-readable storage device. The storage device 1240 can store a larger amount of information than the memory 1220 and store the information for a long period of time. For example, storage device 1240 may include a magnetic hard disk, optical disk, flash memory, floppy disk, or other forms of non-volatile memory known in the art.

입력 장치(1250)는 키보드 및 마우스를 통한 전통적인 입력 방식, 및 터치 입력, 음성 입력, 및 이미지 입력과 같은 새로운 입력 방식을 통해 사용자로부터 입력을 수신할 수 있다. 예를 들어, 입력 장치(1250)는 키보드, 마우스, 터치 스크린, 마이크로폰, 또는 사용자로부터 입력을 검출하고, 검출된 입력을 전자 장치(1200)에 전달할 수 있는 임의의 다른 장치를 포함할 수 있다. 출력 장치(1260)는 시각적, 청각적 또는 촉각적인 채널을 통해 사용자에게 전자 장치(1200)의 출력을 제공할 수 있다. 출력 장치(1260)는 예를 들어, 디스플레이, 터치 스크린, 스피커, 진동 발생 장치 또는 사용자에게 출력을 제공할 수 있는 임의의 다른 장치를 포함할 수 있다. 네트워크 인터페이스(1270)는 유선 또는 무선 네트워크를 통해 외부 장치와 통신할 수 있다.The input device 1250 may receive input from the user through traditional input methods such as a keyboard and mouse, and new input methods such as touch input, voice input, and image input. For example, input device 1250 may include a keyboard, mouse, touch screen, microphone, or any other device capable of detecting input from a user and transmitting the detected input to electronic device 1200. The output device 1260 may provide the output of the electronic device 1200 to the user through visual, auditory, or tactile channels. Output device 1260 may include, for example, a display, touch screen, speaker, vibration generating device, or any other device that can provide output to a user. The network interface 1270 can communicate with external devices through a wired or wireless network.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, and a field programmable gate (FPGA). It may be implemented using a general-purpose computer or a special-purpose computer, such as an array, programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include multiple processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on a computer-readable recording medium.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 저장할 수 있으며 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. A computer-readable medium may store program instructions, data files, data structures, etc., singly or in combination, and the program instructions recorded on the medium may be specially designed and constructed for the embodiment or may be known and available to those skilled in the art of computer software. there is. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

위에서 설명한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 또는 복수의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or multiple software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 이를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on this. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (20)

반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 상기 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하는 단계;
상기 원본 입력 영상으로부터 상기 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하는 단계; 및
상기 증강 입력 영상에 기초하여 상기 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는 단계
를 포함하는 반도체 영상 처리 방법.
Identifying input components of a semiconductor pattern of the original input image from the original input image corresponding to an object to which a first process for semiconductor production is applied;
generating an augmented input image by transforming a transformation target including at least one of the input components from the original input image; and
Executing a neural model to estimate pattern deformation according to the first process based on the augmented input image
A semiconductor image processing method comprising:
제1항에 있어서,
상기 증강 입력 영상을 생성하는 단계는
상기 변형 대상을 제거하여 상기 증강 입력 영상을 생성하는 단계를 포함하는,
반도체 영상 처리 방법.
According to paragraph 1,
The step of generating the augmented input image is
Comprising the step of generating the augmented input image by removing the deformation target,
Semiconductor image processing method.
제1항에 있어서,
상기 변형 대상의 변형은
상기 변형 대상의 제거, 상기 변형 대상의 스케일, 상기 변형 대상의 쉬프트, 및 상기 변형 대상의 회전 중 적어도 일부를 포함하는,
반도체 영상 처리 방법.
According to paragraph 1,
The transformation of the object of transformation is
Including at least some of removal of the object of transformation, scale of the object of transformation, shift of the object of transformation, and rotation of the object of transformation,
Semiconductor image processing method.
제1항에 있어서,
상기 원본 입력 영상의 상기 변형 대상에 해당하지 않는 부분은 상기 증강 입력 영상에서 유지되는,
반도체 영상 처리 방법.
According to paragraph 1,
The portion of the original input image that does not correspond to the transformation target is maintained in the augmented input image,
Semiconductor image processing method.
제1항에 있어서,
상기 입력 컴포넌트들을 식별하는 단계는
상기 원본 입력 영상에서 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹을 상기 입력 컴포넌트들의 하나의 입력 컴포넌트로 식별하는 단계를 포함하는,
반도체 영상 처리 방법.
According to paragraph 1,
The step of identifying the input components is
Comprising the step of identifying one group of pixels connected to each other with a non-zero pixel value in the original input image as one input component of the input components,
Semiconductor image processing method.
제1항에 있어서,
상기 뉴럴 모델의 실행 결과에 따라 상기 뉴럴 모델을 트레이닝하는 단계
를 더 포함하는, 반도체 영상 처리 방법.
According to paragraph 1,
Training the neural model according to the execution results of the neural model
A semiconductor image processing method further comprising:
제6항에 있어서,
상기 반도체 영상 처리 방법은
상기 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터 상기 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계; 및
상기 원본 입력 영상의 상기 변형 대상에 대한 변형에 대응하는 변형을 상기 원본 출력 영상의 상기 출력 컴포넌트들에 적용하여 증강 출력 영상을 생성하는 단계
를 더 포함하고,
상기 뉴럴 모델을 트레이닝하는 단계는
상기 뉴럴 모델의 실행 결과에 해당하는 결과 영상과 상기 증강 출력 영상 간의 차이에 따라 상기 뉴럴 모델을 트레이닝하는 단계를 포함하는,
반도체 영상 처리 방법.
According to clause 6,
The semiconductor image processing method is
identifying output components of a semiconductor pattern of the original output image from the original output image corresponding to a result of applying the first process; and
Generating an augmented output image by applying a transformation corresponding to the transformation of the transformation target of the original input image to the output components of the original output image.
It further includes,
The step of training the neural model is
Comprising the step of training the neural model according to the difference between the result image corresponding to the execution result of the neural model and the augmented output image,
Semiconductor image processing method.
제1항에 있어서,
상기 반도체 영상 처리 방법은
상기 원본 입력 영상에 기초하여 상기 뉴럴 모델을 실행하는 단계; 및
상기 원본 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과 및 상기 증강 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과를 조합하여 상기 제1 공정에 따른 패턴 변형을 추정하는 단계
를 더 포함하는, 반도체 영상 처리 방법.
According to paragraph 1,
The semiconductor image processing method is
executing the neural model based on the original input image; and
Estimating pattern deformation according to the first process by combining the execution result of the neural model based on the original input image and the execution result of the neural model based on the augmented input image.
A semiconductor image processing method further comprising:
제1항에 있어서,
상기 제1 공정은
현상 공정 및 식각 공정 중 적어도 하나를 포함하는,
반도체 영상 처리 방법.
According to paragraph 1,
The first process is
Including at least one of a developing process and an etching process,
Semiconductor image processing method.
반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상 및 상기 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터, 상기 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들 및 상기 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하는 단계;
상기 입력 컴포넌트들과 상기 출력 컴포넌트들 간의 매칭 관계에 기초하여 컴포넌트 쌍들을 결정하는 단계;
상기 원본 입력 영상 및 상기 원본 출력 영상으로부터 상기 컴포넌트 쌍들의 적어도 하나를 포함하는 변형 대상을 제거하여 증강 입력 영상 및 증강 출력 영상을 생성하는 단계; 및
상기 증강 입력 영상 및 상기 증강 출력 영상에 기초하여 상기 제1 공정에 따른 패턴 변형을 예측하는 뉴럴 모델을 트레이닝하는 단계
를 포함하는 트레이닝 방법.
From the original input image corresponding to the subject of application of the first process for semiconductor production and the original output image corresponding to the application result of the first process, the input components of the semiconductor pattern of the original input image and the semiconductor of the original output image identifying output components of the pattern;
determining component pairs based on matching relationships between the input components and the output components;
generating an augmented input image and an augmented output image by removing a transformation target including at least one of the component pairs from the original input image and the original output image; and
Training a neural model to predict pattern deformation according to the first process based on the augmented input image and the augmented output image.
Training method including.
하드웨어와 결합되어 제1항 내지 제10항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program combined with hardware and stored in a computer-readable recording medium to execute the method of any one of claims 1 to 10. 프로세서; 및
상기 프로세서에서 실행가능한 명령어들을 포함하는 메모리
를 포함하고,
상기 명령어들이 상기 프로세서에서 실행되면, 상기 프로세서는
반도체 생산을 위한 제1 공정의 적용 대상에 대응하는 원본 입력 영상으로부터 상기 원본 입력 영상의 반도체 패턴의 입력 컴포넌트들을 식별하고,
상기 원본 입력 영상으로부터 상기 입력 컴포넌트들의 적어도 하나를 포함하는 변형 대상을 변형하여 증강 입력 영상을 생성하고,
상기 증강 입력 영상에 기초하여 상기 제1 공정에 따른 패턴 변형을 추정하는 뉴럴 모델을 실행하는,
반도체 영상 처리 장치.
processor; and
Memory containing instructions executable by the processor
Including,
When the instructions are executed on the processor, the processor
Identifying input components of the semiconductor pattern of the original input image from the original input image corresponding to the subject of the first process for semiconductor production,
Generating an augmented input image by transforming a transformation target including at least one of the input components from the original input image,
Executing a neural model that estimates pattern deformation according to the first process based on the augmented input image,
Semiconductor image processing device.
제12항에 있어서,
상기 프로세서는, 상기 증강 입력 영상을 생성하기 위해,
상기 변형 대상을 제거하여 상기 증강 입력 영상을 생성하는,
반도체 영상 처리 장치.
According to clause 12,
The processor, in order to generate the augmented input image,
Generating the augmented input image by removing the deformation target,
Semiconductor image processing device.
제12항에 있어서,
상기 변형 대상의 변형은
상기 변형 대상의 제거, 상기 변형 대상의 스케일, 상기 변형 대상의 쉬프트, 및 상기 변형 대상의 회전 중 적어도 일부를 포함하는,
반도체 영상 처리 장치.
According to clause 12,
The transformation of the object of transformation is
Including at least some of removal of the object of transformation, scale of the object of transformation, shift of the object of transformation, and rotation of the object of transformation,
Semiconductor image processing device.
제12항에 있어서,
상기 원본 입력 영상의 상기 변형 대상에 해당하지 않는 부분은 상기 증강 입력 영상에서 유지되는,
반도체 영상 처리 장치.
According to clause 12,
The portion of the original input image that does not correspond to the transformation target is maintained in the augmented input image,
Semiconductor image processing device.
제12항에 있어서,
상기 프로세서는, 상기 입력 컴포넌트들을 식별하기 위해,
상기 원본 입력 영상에서 0이 아닌 픽셀 값을 갖고 서로 연결된 픽셀들의 하나의 그룹을 상기 입력 컴포넌트들의 하나의 입력 컴포넌트로 식별하는,
반도체 영상 처리 장치.
According to clause 12,
The processor, to identify the input components,
Identifying one group of pixels connected to each other with a non-zero pixel value in the original input image as one input component of the input components,
Semiconductor image processing device.
제12항에 있어서,
상기 프로세서는
상기 뉴럴 모델의 실행 결과에 따라 상기 뉴럴 모델을 트레이닝하는,
반도체 영상 처리 장치.
According to clause 12,
The processor is
Training the neural model according to the execution results of the neural model,
Semiconductor image processing device.
제17항에 있어서,
상기 프로세서는
상기 제1 공정의 적용 결과에 대응하는 원본 출력 영상으로부터 상기 원본 출력 영상의 반도체 패턴의 출력 컴포넌트들을 식별하고,
상기 원본 입력 영상의 상기 변형 대상에 대한 변형에 대응하는 변형을 상기 원본 출력 영상의 상기 출력 컴포넌트들에 적용하여 증강 출력 영상을 생성하고,
상기 뉴럴 모델의 실행 결과에 해당하는 결과 영상과 상기 증강 출력 영상 간의 차이에 따라 상기 뉴럴 모델을 트레이닝하는,
반도체 영상 처리 장치.
According to clause 17,
The processor is
Identifying output components of a semiconductor pattern of the original output image from the original output image corresponding to a result of applying the first process,
Applying a transformation corresponding to the transformation of the transformation target of the original input image to the output components of the original output image to generate an augmented output image,
Training the neural model according to the difference between the result image corresponding to the execution result of the neural model and the augmented output image,
Semiconductor image processing device.
제12항에 있어서,
상기 프로세서는
상기 원본 입력 영상에 기초하여 상기 뉴럴 모델을 실행하고,
상기 원본 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과 및 상기 증강 입력 영상에 기초한 상기 뉴럴 모델의 실행 결과를 조합하여 상기 제1 공정에 따른 패턴 변형을 추정하는,
반도체 영상 처리 장치.
According to clause 12,
The processor is
Executing the neural model based on the original input image,
Estimating pattern deformation according to the first process by combining the execution result of the neural model based on the original input image and the execution result of the neural model based on the augmented input image,
Semiconductor image processing device.
제12항에 있어서,
상기 제1 공정은
현상 공정 및 식각 공정 중 적어도 하나를 포함하는,
반도체 영상 처리 장치.
According to clause 12,
The first process is
Including at least one of a developing process and an etching process,
Semiconductor image processing device.
KR1020220175047A 2022-12-14 2022-12-14 Method and apparatus for processing semiconductor image KR20240092360A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020220175047A KR20240092360A (en) 2022-12-14 2022-12-14 Method and apparatus for processing semiconductor image
US18/356,555 US20240202910A1 (en) 2022-12-14 2023-07-21 Method and apparatus with semiconductor image processing
CN202310930748.0A CN118212120A (en) 2022-12-14 2023-07-27 Method and apparatus for semiconductor image processing
EP23192216.2A EP4386655A1 (en) 2022-12-14 2023-08-18 Method and apparatus with semiconductor image processing
JP2023180028A JP2024085379A (en) 2022-12-14 2023-10-19 Semiconductor image processing method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220175047A KR20240092360A (en) 2022-12-14 2022-12-14 Method and apparatus for processing semiconductor image

Publications (1)

Publication Number Publication Date
KR20240092360A true KR20240092360A (en) 2024-06-24

Family

ID=87748312

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220175047A KR20240092360A (en) 2022-12-14 2022-12-14 Method and apparatus for processing semiconductor image

Country Status (5)

Country Link
US (1) US20240202910A1 (en)
EP (1) EP4386655A1 (en)
JP (1) JP2024085379A (en)
KR (1) KR20240092360A (en)
CN (1) CN118212120A (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402524B2 (en) * 2017-05-08 2019-09-03 Globalfoundries Inc. Prediction of process-sensitive geometries with machine learning
KR102644214B1 (en) * 2018-02-23 2024-03-07 에이에스엠엘 네델란즈 비.브이. Methods for training machine learning model for computation lothography
KR20210133364A (en) * 2020-04-28 2021-11-08 삼성전자주식회사 Method and computing device for manufacturing semiconductor device
KR20220080768A (en) * 2020-12-07 2022-06-15 삼성전자주식회사 Error verifying method for optical proximity correction model

Also Published As

Publication number Publication date
CN118212120A (en) 2024-06-18
EP4386655A1 (en) 2024-06-19
JP2024085379A (en) 2024-06-26
US20240202910A1 (en) 2024-06-20

Similar Documents

Publication Publication Date Title
KR102184278B1 (en) Method and system for transfer learning into any target dataset and model structure based on meta-learning
US10991074B2 (en) Transforming source domain images into target domain images
CN110689109A (en) Neural network method and apparatus
KR20190118387A (en) Convolutional neural network based image processing system and method
EP3528181B1 (en) Processing method of neural network and apparatus using the processing method
CN115965061A (en) Deep neural network model design with feedback enhancement by real-time proxy evaluation
US11568212B2 (en) Techniques for understanding how trained neural networks operate
KR20230069607A (en) Method and apparatus of image recognition based on self attention
KR20240009759A (en) Method and appartus for image restoration
CN112819151A (en) Method and apparatus for recognizing image and training method
CN113767364A (en) Reshaping and broadcast optimization to avoid unnecessary data movement
US20070143234A1 (en) Method and system for intelligent model-based optical proximity correction (OPC)
US20210312278A1 (en) Method and apparatus with incremental learning moddel
CN117315758A (en) Facial expression detection method and device, electronic equipment and storage medium
KR20240092360A (en) Method and apparatus for processing semiconductor image
JP2023078578A (en) Image processing system, learning system, and learning method
KR20240090068A (en) Method and apparatus of neural correction for semiconductor pattern
CN113537295B (en) View estimation cross-scene adaptation method and device based on outlier guidance
KR20230065863A (en) Method and apparatus for training recognition model
JP6994572B2 (en) Data processing system and data processing method
KR20240059365A (en) Method and apparatus for image processing based on neural network
KR20230071017A (en) Method and apparatus for image deblurring
KR20240081554A (en) Method and apparatus of non-contrastive self-supervised learning using reconstruction regularizer
KR20230157021A (en) System and method for automating design of sound source separation deep learning model
KR20240069301A (en) Method and apparatus for estimating depth information