KR102502486B1 - 화상을 생성하는 시스템 - Google Patents

화상을 생성하는 시스템 Download PDF

Info

Publication number
KR102502486B1
KR102502486B1 KR1020200146522A KR20200146522A KR102502486B1 KR 102502486 B1 KR102502486 B1 KR 102502486B1 KR 1020200146522 A KR1020200146522 A KR 1020200146522A KR 20200146522 A KR20200146522 A KR 20200146522A KR 102502486 B1 KR102502486 B1 KR 102502486B1
Authority
KR
South Korea
Prior art keywords
image
images
model
input
learning
Prior art date
Application number
KR1020200146522A
Other languages
English (en)
Other versions
KR20210099998A (ko
Inventor
다케시 오모리
유타카 오쿠야마
Original Assignee
가부시끼가이샤 히다치 세이사꾸쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 히다치 세이사꾸쇼 filed Critical 가부시끼가이샤 히다치 세이사꾸쇼
Publication of KR20210099998A publication Critical patent/KR20210099998A/ko
Application granted granted Critical
Publication of KR102502486B1 publication Critical patent/KR102502486B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/04Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Electromagnetism (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

(과제) 학습 모델의 학습용 데이터베이스를 단기간에 구축한다.
(해결 수단) 시스템은, 구조 화상의 화상 처리에 의해, 상기 구조 화상을 실화상에 유사시킨 화상을 생성한다. 1 이상의 프로세서는, 제1 구조 화상과, 제1 구조 화상과 상이한 제2 구조 화상을 취득한다. 1 이상의 프로세서는, 제1 구조 화상과 제2 구조 화상 사이의 중간 구조를 나타내는 복수의 중간 구조 화상을 작성한다. 1 이상의 프로세서는, 복수의 중간 구조 화상 각각의 화상 처리에 의해, 복수의 중간 구조 화상 각각을 실화상에 유사시켜 화상을 생성한다.

Description

화상을 생성하는 시스템{IMAGE GENERATING SYSTEM}
본 발명은, 화상 생성에 관한 것이며, 특히, 구조 화상을 실화상에 유사시킨 화상의 생성에 관한 것이다.
최근, 반도체 디바이스의 성능 향상을 위해, 반도체 디바이스에 신재료가 도입되고, 동시에 반도체 디바이스의 구조가 입체화·복잡화하고 있다. 또한, 현재의 첨단 반도체 디바이스의 가공에서는, 나노미터 레벨의 정밀도가 요구된다. 이 때문에, 반도체 처리 장치는 다종(多種)의 재료를 각종 형상으로 매우 고정밀도로 가공할 수 있을 필요가 있어, 필연적으로 다수의 제어 파라미터(입력 파라미터)를 구비한 장치로 되어 있다.
한편, 반도체 처리 장치의 성능을 충분히 인출하기 위해서는, 반도체 처리 장치마다 수종 내지 수십종에도 미치는 입력 파라미터를 결정할 필요가 있다. 또한 1개의 공정 내에 다수의 스텝이 있고, 그 스텝마다 입력 파라미터를 변경할 필요가 있다. 따라서, 목표하는 가공 결과가 얻어지는 입력 파라미터의 조합을 파악하는 것이, 매우 곤란하다. 그 때문에, 가공 조건 개발의 장기화에 의해, 개발 비용이 증대하고 있다. 또한, 고난도의 공정 수가 증가하고 있어, 이에 대응할 수 있는 고도의 지식과 기술을 가진 탑 엔지니어가 부족하다.
또한, 처리 결과를 평가하기 위해, 가공 후의 시료의 단면(斷面) 화상을 취득하고, 중요 치수가 취득되지만, 반도체 디바이스 구조의 미세화 및 구조 복잡화에 의해, 그 계측이 어려워지고 있다. 나노미터 레벨의 정밀도에서의 계측 위치 판단이 요구되고, 또한 계측 치수의 통계적 편차를 평가하기 위해 계측점 수가 증가하고 있어, 계측에 필요해지는 시간이 증대하고 있다.
이상으로부터, 반도체 처리 장치 스스로가 자동적으로 반도체 처리 장치의 성능을 인출하는 기능, 및 반도체 처리 장치의 성능을 인출하는 엔지니어를 지원하는 기능이, 반도체 처리 장치에 요구된다.
상기 과제에 대해, 특허문헌 1에서는 최적의 가공 조건을 자동 탐색하는 방법이 제안되어 있다. 이에 따라, 엔지니어의 시행 착오에 의지하고 있었던 종래의 방법에 비해, 각 단에 공수(工數)를 삭감할 수 있다.
또한, 특허문헌 2, 특허문헌 3은 패턴의 단면 화상으로부터의 치수 계측에 대해서 개시하는 선행기술문헌이다. 특허문헌 2는, 화상의 휘도값으로부터 윤곽선을 구하고, 패턴 단면의 상부와 하부의 2점의 좌표값을 이용하여, 단면 SEM(Scanning Electron Microscope) 화상 특유의 흰 섀도우 부분의 신호 성분을 수동으로 제거함으로써, 측벽 각도의 측정 정밀도를 향상시키고 있다. 특허문헌 3은, 단면 SEM 화상의 휘도값의 변화로부터 에지 포인트를 구하고, 패턴의 각 변을 근사(近似)하는 직선을 산출함으로써, 각 변의 각도·길이의 측정에 있어서의 오퍼레이터 의존을 줄이고 있다.
일본국 특개2018-49936호 공보 일본국 특개2012-68138호 공보 일본국 특개2002-350127호 공보
미세 구조의 단면 화상 관찰에는 통상, SEM(Scanning Electron Microscope)이 사용된다. SEM 화상으로부터의 치수 추출을 고정밀도 또한 고속화하기 위해서는, 그 반자동화 또는 자동화가 가능하면 된다. 그 실현 방법으로서는, 기계 학습, 특히 심층 학습을 이용한 화상 인식 기술을 응용하는 것을 생각할 수 있다. 그 때의 과제로서, (1) 학습용 데이터베이스 구축, (2) 학습 모델 및 그 학습 방법 구축 2개를 들 수 있다.
(1) 학습 데이터베이스 구축에 대해서
치수 추출용 모델의 학습에서는, SEM 화상과 치수 추출 위치의 관계를 학습 할 필요가 있다. 따라서, 학습 데이터로서는, SEM 화상과, 치수 추출 위치를 지시하기 위한 데이터가 필요하다. 치수 추출 위치를 지시하는 데이터로서는, SEM 화상 중의 구조 윤곽선, 구조마다의 에어리어 지정, 계측 위치 좌표를 들 수 있다.
그러나, 현상의 SEM 화상으로부터의 치수 계측 처리는, 일반적으로 수작업으로 행해지고 있기 때문에, 학습 데이터의 준비도 필연적으로 수작업으로 되어, 치수 계측과 동등하거나 혹은 그 이상의 작업 시간이 필요해져 버린다. 기본이 되는 치수 추출만으로도, 첨단 디바이스의 단면 구조의 복잡화에 수반하여, 처리 결과의 평가를 위해 요구되는 화상 1매당의 측정점 수가 증가하고 있어, 사람의 손으로 행하는 치수 추출은 한계에 달하고 있다. 따라서, 학습용 데이터베이스를 단시간에 구축할 수 있는 방법 및 시스템이 필요하다.
(2) 학습 모델 및 그 학습 방법 구축에 대해서
상기 학습 데이터베이스를 학습한 치수 추출 모델에 의한 SEM 화상으로부터의 치수 추출에서는, 육안과 동등하거나 혹은 그 이상이 되는 화상 인식 성능을 실현할 필요가 있다. 이를 위한 화상 인식 방법으로서, 기계 학습, 특히 심층 학습을 이용한 화상 인식 기술을 응용하는 것을 생각할 수 있다.
특허문헌 2나 특허문헌 3에 개시되어 있는 방법은, 오퍼레이터 의존성을 어느 정도 줄일 수 있지만, 육안에 의한 조작을 수반하기 때문에, 오퍼레이터 의존에 의한 계측 편차가 발생한다. 이에 더하여, 1매씩 화상을 보면서 계측하기 때문에, 작업 시간을 요한다. 라인/스페이스의 단위 패턴이 반복되고 있는 화상이어도, 각각의 패턴마다 1개 1개 계측하기 때문에, 계측값의 통계량에는 프로세스 편차 이외에 인적 오차도 가산되는 등의 과제가 있다.
또한, 조건 도출을 진행하는 도중에, 당초 계획하고 있었던 위치보다도 중요한 계측 개소가 발견될 경우가 있어, 그 때에는 전체 화상의 재계측이 필요해진다. 이것에는 방대한 계측 시간이 필요해져, 실제로는 재계측 불가능해질 경우가 있다.
또한, 단면 SEM 화상에는, 밝기가 화상마다 상이한, 치수 계측에는 불필요한 안쪽 구조가 찍혀 있는, 치수를 계측하려는 이종(異種) 재료 계면의 경계가 불명료하다는 측장(測長) SEM(Critical Dimensional SEM) 화상에는 없는 치수 계측의 곤란함이 있다. 이 때문에, 휘도값을 이용한 에지 검출법에 의거하는 특허문헌 2 및 특허문헌 3의 방법에서는, 화상마다 임계값 등의 파라미터 튜닝을 필요로 하거나, 계면 위치를 육안으로 판단하여 지정하는 등의 조작이 필요하다. 육안에 의한 조정이 불필요한 자동 계측을 실현하려면, 국소적인 휘도 분포가 아니라, 화상에 찍혀 있는 각각의 물체의 영역을 인식함으로써, 물체의 윤곽을 추출할 필요가 있다.
본 발명의 일 태양은, 학습 모델 구축에 필요해지는 학습용 데이터베이스를 단기간에 구축하는 것을 목적으로 한다.
본 발명의 일 태양은, 구조 화상의 화상 처리에 의해, 상기 구조 화상을 실화상에 유사시킨 화상을 생성하는 시스템이다. 상기 시스템은, 1 이상의 기억 장치와, 상기 1 이상의 기억 장치에 저장되어 있는 프로그램에 따라서 동작하는 1 이상의 프로세서를 포함한다. 상기 1 이상의 프로세서는, 제1 구조 화상과, 상기 제1 구조 화상과 상이한 제2 구조 화상을 취득한다. 상기 1 이상의 프로세서는, 상기 제1 구조 화상과 상기 제2 구조 화상 사이의 중간 구조를 나타내는 복수의 중간 구조 화상을 작성한다. 상기 1 이상의 프로세서는, 상기 복수의 중간 구조 화상 각각의 화상 처리에 의해, 상기 복수의 중간 구조 화상 각각을 실화상에 유사시켜 화상을 생성한다.
본 발명의 대표적인 실시형태에 따르면, 학습 모델의 학습용 데이터베이스를 단기간에 구축하는 것이 가능해진다. 상술한 것 이외의 과제, 구성 및 효과는, 이하의 실시예의 설명에 의해 분명해진다.
도 1은 본 발명의 실시예 1을 나타내고, 구조 화상과 생성 화상의 데이터베이스 구축 방법, 및 생성 화상으로부터 구조 정보를 구하는 구조 취득 모델의 학습의 개요도.
도 2는 본 발명의 실시예 1을 나타내고, 구조 화상, 참조 화상, 생성 화상의 예를 나타낸 도면.
도 3a는 본 발명의 실시예 1을 나타내고, 구조 취득 모델에 의한 실화상으로부터의 구조 화상 취득, 데이터베이스 구축, 및 치수 추출 모델에 의한 구조 화상으로부터의 치수 취득의 개요도.
도 3b는 본 발명의 실시예 1을 나타내고, 치수 추출 위치의 예의 개요도를 나타내는 도면.
도 4는 본 발명의 실시예 2를 나타내고, 구조 화상 데이터의 준비 방법을 나타낸 도면.
도 5는 본 발명의 실시예 2를 나타내고, 구조 화상 데이터의 준비 방법을 나타낸 도면.
도 6은 본 발명의 실시예 2를 나타내고, 구조 화상 데이터의 준비 방법을 나타낸 도면.
도 7은 본 발명의 실시예 2를 나타내고, 구조 화상 데이터의 준비 방법을 나타낸 도면.
도 8a는 본 발명의 실시예 3을 나타내고, 각종 데이터베이스를 이용한 장치 처리 조건 도출 방법의 개요도.
도 8b는 본 발명의 실시예 3을 나타내고, 각종 데이터베이스를 이용한 장치 처리 조건 도출 방법의 개요도.
도 9는 본 발명의 실시예 4를 나타내고, 금속 재료 등의 구조 화상, 참조 화상, 생성 화상의 예를 나타낸 도면.
도 10은 본 발명의 실시예 5를 나타내고, 반도체 제조 시스템의 시스템 구성예를 나타내는 도면.
도 11은 본 발명의 실시예 5를 나타내고, 처리 조건 탐색 장치의 시스템 구성예를 나타내는 도면.
도 12는 본 발명의 실시예 5를 나타내고, 치수 계측 장치의 하드웨어 구성을 나타내는 블록도.
도 13은 본 발명의 실시예 5를 나타내고, 세만틱·세그멘테이션 모델의 일례를 나타내는 도면.
도 14는 본 발명의 실시예 5를 나타내고, 물체 검출 모델의 일례를 나타내는 도면.
도 15는 본 발명의 실시예 5를 나타내고, 치수 계측 장치가 입력 화상으로부터 치수를 계측하는 플로우 차트.
도 16은 본 발명의 실시예 5를 나타내고, 처리 조건 탐색 장치가 처리 조건을 탐색하는 플로우 차트.
도 17은 본 발명의 실시예 5를 나타내고, 입력 데이터 세트(단면 화상)의 예를 나타내는 도면.
도 18은 본 발명의 실시예 5를 나타내고, 치수 계측 개소의 예를 나타내는 도면.
도 19는 본 발명의 실시예 5를 나타내고, 바운딩·박스의 좌표계를 설명하기 위한 도면.
도 20은 본 발명의 실시예 5를 나타내고, 물체 검출 모델의 학습에 이용하는 어노테이션 데이터의 기술예를 나타내는 도면.
도 21은 본 발명의 실시예 5를 나타내고, 세만틱·세그멘테이션 모델의 학습에 이용하는 어노테이션 데이터의 예를 나타내는 도면.
도 22는 본 발명의 실시예 5를 나타내고, 세만틱·세그멘테이션 모델의 학습에 이용하는 어노테이션 데이터에 있어서의 라벨명·라벨 번호·색의 대응 관계를 나타내는 테이블.
도 23은 본 발명의 실시예 5를 나타내고, 학습 스텝 시에 표시되는 GUI 화면의 예를 나타내는 도면.
도 24는 본 발명의 실시예 5를 나타내고, 치수를 계측하는 테스트 화상의 예를 나타내는 도면.
도 25는 본 발명의 실시예 5를 나타내고, 학습 완료 물체 검출 모델에 테스트 화상을 입력하여 얻어진 물체 검출 결과를 나타내는 도면.
도 26은 본 발명의 실시예 5를 나타내고, 학습 완료 물체 검출 모델에 테스트 화상을 입력하여 얻어진 바운딩·박스의 좌표를 기재한 테이블.
도 27은 본 발명의 실시예 5를 나타내고, 학습 완료 세만틱·세그멘테이션 모델에 테스트 화상을 입력하여 얻어진 세만틱·세그멘테이션 결과를 나타내는 도면.
도 28은 본 발명의 실시예 5를 나타내고, 테스트 화상 상에 바운딩·박스와 치수 계측 결과를 나타낸 도면.
도 29는 본 발명의 실시예 5를 나타내고, 패턴마다 계측된 치수값을 기재한 테이블.
도 30은 본 발명의 실시예 5를 나타내고, 추론·계측 스텝 시에 표시되는 GUI 화면의 예를 나타내는 도면.
도 31은 본 발명의 실시예 5를 나타내고, 목표 형상 탐색 스텝 시에 표시되는 GUI 화면의 예를 나타내는 도면.
도 32는 본 발명의 실시예 6을 나타내고, 치수 계측 장치가 입력 화상으로부터 치수를 계측하는 플로우 차트.
도 33은 본 발명의 실시예 6을 나타내고, 윤곽선을 검출하는 제1 세만틱·세그멘테이션 모델의 학습에 이용하는 어노테이션 화상의 예를 나타내는 도면.
도 34는 본 발명의 실시예 6을 나타내고, 제1 세만틱·세그멘테이션 모델의 학습에 이용하는 어노테이션 화상에 있어서의 라벨명·라벨 번호·색의 대응 관계를 나타내는 테이블.
도 35는 본 발명의 실시예 6을 나타내고, 특징점을 검출하는 제2 세만틱·세그멘테이션 모델의 학습에 이용하는 어노테이션 데이터의 예를 나타내는 도면.
도 36은 본 발명의 실시예 6을 나타내고, 제2 세만틱·세그멘테이션 모델의 학습에 이용하는 어노테이션 데이터에 있어서의 라벨명·라벨 번호·색의 대응 관계를 나타내는 테이블.
도 37은 본 발명의 실시예 6을 나타내고, 학습 스텝 시에 표시되는 GUI 화면의 예를 나타내는 도면.
도 38은 본 발명의 실시예 6을 나타내고, 학습 완료된 제1 세만틱·세그멘테이션 모델에 테스트 화상을 입력하여 얻어진 윤곽선 검출 결과를 나타내는 도면.
도 39는 본 발명의 실시예 6을 나타내고, 학습 완료된 제2 세만틱·세그멘테이션 모델에 테스트 화상을 입력하여 얻어진 특징점 검출 결과를 나타내는 도면.
도 40은 본 발명의 실시예 6을 나타내고, 검출한 특징점의 좌표로부터 치수 계측에 필요한 다른 특징점의 좌표를 구하는 방법을 설명하는 도면.
도 41은 본 발명의 실시예 6을 나타내고, 추론·계측 스텝 시에 표시되는 GUI 화면의 예를 나타내는 도면.
도 42는 본 발명의 실시예 6을 나타내고, 형상 비교 스텝 시에 표시되는 GUI 화면의 예를 나타내는 도면.
도 43은 본 발명의 실시예 7을 나타내고, 화상 생성 장치의 구성예도 나타내는 블록도.
도 44는 본 발명의 실시예 7을 나타내고, 화상 생성 장치가 실행하는, 구조 화상을 입력으로 하여, 생성 화상을 출력하는 플로우 차트.
도 45는 본 발명의 실시예 7을 나타내고, 화상 생성 장치에 있어서, 구조 화상을 입력으로 하여, 생성 화상을 출력할 때의 GUI 화면의 예를 나타내는 도면.
이하, 본 발명의 실시예를 첨부 도면에 의거하여 설명한다. 이하에 있어서, 처리 결과 관찰 화상으로부터 특징량 또는 특징 치수를 취득하기 위한 학습 모델용 학습 데이터의 생성 기술을 설명한다. 또한, 취득한 특징량 또는 특징 치수를 학습함으로써 장치의 처리 조건을 탐색하는 기능 또는 시스템을 갖는 반도체 제조 시스템을 설명한다.
이하에 있어서는, 기계 학습, 특히 심층 학습에 의한 화상 인식 기술을 이용하여, SEM 화상으로부터의 치수 추출 모델 구축에 필요해지는, 학습용 데이터베이스를 단기간에 구축하는 방법, 및 치수 추출 모델을 이용하여 SEM(Scanning Electron Microscope) 화상으로부터 소정의 치수를 자동으로 계측함으로써, 치수 계측 시간의 단축과 오퍼레이터 기인의 오차를 포함하지 않는 계측 방법을 설명한다.
(실시예 1)
도 1은, 구조 화상과 생성 화상의 데이터베이스 구축 방법, 및 생성 화상으로부터 구조 정보를 구하는 구조 취득 모델의 학습의 개요를 나타낸다.
<구조 화상과 생성 화상의 데이터베이스 구축>
구조 화상(1000A)은, 예를 들면, 장치에 의해 처리된 시료의 단면의 관찰 화상에 있어서, 그 단면 구조를 나타내는 화상이다. 구체적으로는, 구조 화상(1000A)은, 단면 화상 중의 각 구조의 윤곽선이나, 각 구조 에어리어를 나타낸다. 이들은, 예를 들면, 선도(線圖), 또는 컬러도로 나타내는 것이 가능하다(도 2의 1000A1, 1000A2 참조). 구조 화상의 작성에는, 드로우 소프트, 페인트 소프트 등의 일반적인 묘화(描畵) 소프트를 사용할 수 있다. CAD 소프트를 사용하여 구조 화상(1000A)을 작성할 수도 있다.
화상 생성 모델(또는 화풍 변환 모델)(1000)은, 구조 화상(1000A)을 바탕으로 하여, 참조 화상(또는 스타일 화상)(1000C)을 참고로 함으로써, 생성 화상(1000B)을 생성한다. 생성 화상(1000B)은, 참조 화상(1000C)의 화풍 정보를 추출하고, 구조 화상(1000A)에 그 화풍을 반영시킴으로써, 실제의 관찰 화상(실화상)과 유사한 화상이 되도록 생성된 화상이다.
생성 화상(1000B)의 구체예로서는, 카메라 화상, 광학식 현미경 화상, 전자 현미경 화상 등을 들 수 있다. 참조 화상(1000C)으로서는, 예를 들면, 대상으로 하는 관찰 화상의 전형예가 사용된다.
화상 생성 모델(1000)은, 예를 들면 뉴럴 네트워크로 구성되고, 화상 인식 모델 학습용 데이터 세트를 미리 학습한 모델을 사용할 수 있다. 또는, 대상으로 하는 생성 화상과 유사한 구조 화상 및 실화상(생성 화상(1000B)에 대응하는 실제의 화상)의 데이터 세트가 있을 경우에는, 그 데이터 세트를 사용하여 화상 생성 모델을 구축할 수 있다. 이 경우에는, 화상 생성 모델은 참조 화상 없이 화상 생성이 가능해지기 때문에, 참조 화상 없이 구조 화상으로부터 생성 화상을 생성해도 된다.
구조 화상(1000A)을 복수 작성하고, 그것을 화상 생성 모델(1000)에 입력함으로써, 생성 화상(1000B)을 복수 취득할 수 있다. 이들 구조 화상(1000A)과 생성 화상(1000B)은, 데이터베이스(1001)에 보존된다. 또, 구조 화상(1000A)을 복수 작성할 때에는, 구조를 정의하는 수치 데이터 또는 벡터 데이터 등을, 랜덤 또는 일정 폭 혹은 일정한 비율로 변경하면서 자동적으로 작성할 수 있다. 혹은, 특정한 구조 화상을 사람의 손에 의해 작성해도 된다.
화상 생성 모델(1000)에 의한 생성 화상(1000B)의 품질이 불충분할 경우에는, 생성 화상(1000B)에 화상 필터 처리를 행함으로써, 휘도나 콘트라스트를 보정해도 된다.
또, 구조 화상과 생성 화상의 데이터 세트를 얻는 본 실시예와 상이한 방법으로서는, 생성 화상(1000B)에 대응하는 실화상으로부터, 직접, 구조 화상을 얻기 위해, 범용 화상 데이터 세트로 학습한 학습 완료 모델을 사용하는 방법을 생각할 수 있다. 그러나, 화상 중의 특징 치수 계측에 필요해지는 고정밀도의 윤곽 정보나 에어리어 정보를 얻기 위해서는, 통상, 그러한 학습 완료 모델의 정밀도는 불충분해진다. 이것은, 윤곽 부분은 화상 전체의 화소 수에 대하여 매우 작은 비율이기 때문에, 뉴럴 네트에 의한 심층 학습을 가지고도, 출력 화상에 윤곽 정보를 고정밀도로 묘화하는 것이 어렵기 때문이다.
본원의 실시예와 상이한 다른 방법으로서는, 실화상에 대한 윤곽 추출 처리를 생각할 수 있지만, 일본국 특개2012-68138호 공보 및 일본국 특개2002-350127호 공보를 참조하여 상술한 바와 같이, 임계값 등의 파라미터 튜닝이 필요해지거나, 또는 계면 위치의 육안 판단에 의한 지정이 필요해져, 데이터 세트의 준비에 장시간을 요한다.
따라서, 본원의 실시예는, 구조 화상(구조 정보)을 입력으로 하여, 대응하는 생성 화상을 생성하고, 이들 화상의 페어의 데이터 세트의 학습에 의해, 구조 취득 모델을 구축하는 방법을 이용한다.
<생성 화상으로부터 구조 정보를 구하는 구조 취득 모델의 학습>
구조 화상과 생성 화상의 페어의 데이터베이스(1001)를 구조 취득 모델(1010)의 학습에 이용함으로써, 생성 화상으로부터 구조 화상을 구하는 구조 취득 모델을 구축할 수 있다. 이때의 학습에서는, 구조 취득 모델(1010)의 입력측 데이터로서 생성 화상(1010A), 출력측 데이터로서 구조 화상(1010B)을 이용한다. 또, 생성 화상(1010A)은, 생성 화상(1000B)으로서 생성된 것이며, 구조 화상(1010B)은, 구조 화상(1000A)으로서 작성된 화상이다.
본원의 실시예와 상이한 방법의 하나로서, 생성 화상(1010A)과 유사한 실화상, 및 그 구조를 나타낸 어노테이션 데이터를 작성함으로써, 구조 취득 모델(1010)을 학습시킬 수 있다. 그러나, 상술한 바와 같이, 실화상의 취득에는 실제의 장치에 의한 처리 및 단면상의 SEM 관찰 등이 필요하며, 이에 더하여 구조를 나타내는 어노테이션 데이터 작성도 필요해져, 이 학습 데이터의 준비에 장기간을 요한다.
구체적으로는, 반도체 디바이스용 미세 가공에 있어서 데이터 세트를 취득할 경우, 그 취득 속도는, 장치에 의한 가공 처리, SEM 관찰, 어노테이션 데이터 작성의 세트에 대해서, 1일에 5∼10세트 정도이다. 예를 들면, 1일에 5세트 취득, 또는 구조 취득 모델의 정밀도를 충분히 높이기 위해 필요한 데이터 세트 수를 100세트로 하면, 학습 데이터의 준비에 20일 걸리게 된다.
본원의 실시예에 따른 방법에서는, 구조 취득 모델(1010)의 학습용 데이터 세트의 작성을 위해, 학습 완료된 화상 생성 모델을 사용하며, 또한 구조 화상 작성을 자동적으로 행하는 것이 가능하다. 이 때문에, 학습용 데이터 세트의 화상 생성에는 길어도 몇 분, 짧으면 1초 이내에 완료된다. 나머지 필요한 절차는, 구조 취득 모델(1010)의 학습 시간뿐이며, 이것은 짧으면 몇 분, 통상이라면 몇 시간 내지 1일 정도로 충분하다. 실화상을 사용할 경우와 비교하여, 본원의 실시예에 따른 방법에서는, 20배 내지 500배(구조 취득 모델의 학습 시간이 1시간 미만일 경우) 이상의 처리의 고속화가 가능해진다.
도 2는, 구조 화상, 참조 화상, 생성 화상의 구체예를 나타낸다. 생성 화상(1000B11, 1000B12)은, 미세 가공 처리된 시료 단면의 SEM 관찰 화상이다. 참조 화상(1000C1)은, 미세 가공 처리된 시료 단면의 SEM 관찰 화상의 참조 화상의 예이다. 구조 화상(1000A21, 1000A22)은, 단면 화상 중의 윤곽선에 의해 구조를 나타낸 선도이다. 구조 화상(1000A11, 1000A12)은 단면 화상 중의 구조 에어리어를 색 부여로 나타낸 컬러도를 모식적으로 나타낸다. 또, 본 명세서에 있어서, 컬러도의 구조 에어리어의 상이한 색은, 모노클로의 상이한 패턴으로 나타나 있다.
구조 화상(1000A11 또는 1000A21)이 화상 생성 모델(1000)에 입력되고, 화상 생성 모델(1000)은, 참조 화상(1000C)의 화풍(畵風)이 되는 화상인 생성 화상(1000B11)을 생성한다. 또한, 구조 화상(1000A12 또는 1000A22)이 화상 생성 모델(1000)에 입력되고, 화상 생성 모델(1000)은, 참조 화상(1000C)의 화풍이 되는 화상인 생성 화상(1000B12)을 생성한다.
도 3a는, 실화상으로부터 구조 화상을 생성하고, 또한, 구조 화상으로부터 치수 데이터를 취득하는 방법의 개략을 나타낸다. 도 3a에 있어서, 실화상(1020A)은, 장치에 의해 처리된 시료의 단면의 관찰 화상이다. 본 방법은, 실화상(1020A)으로부터, 그 구조 화상(1020B)을 취득한다. 실화상(1020A)과 실화상으로부터 취득된 구조 화상(1020B)은, 데이터베이스(1021)에 저장된다. 또한 본 방법은, 실화상으로부터 취득된 구조 화상(1030A)으로부터 치수 데이터(1030B)를 취득한다.
구조 취득 모델(1020)은, 학습 후의 구조 취득 모델(1010)이다. 이 구조 취득 모델(1020)에, 실화상(1020A)을 입력함으로써, 그 출력으로서 구조 화상(1020B)이 얻어진다. 실화상(1020A)과 그 구조 화상(1020B)의 데이터 세트로부터, 데이터베이스(1021)가 구축된다.
또한, 이 데이터베이스(1021)에 보존된 구조 화상(1020B)은, 구조 화상(1030A)으로서, 치수 추출 모델(1030)에 입력된다. 치수 추출 모델(1030)은, 구조 화상(1030A)에 있어서의 특징량 또는 특징 치수로서, 목적의 치수 데이터(1030B)를 추출한다. 또, 여기에서 치수 추출 모델(1030)은, 입력된 구조 화상(1030A)으로부터 치수 데이터(1030B)를 추출하는 학습 완료 모델이다. 이 치수 추출 모델의 학습 방법에 대해서는, 실시예 5 및 실시예 6에서 후술한다.
도 3b는, 치수 추출 위치의 예의 개요도(1031B)를 나타낸다. 치수 추출 모델(1030)은, 예를 들면 (ⅰ), (ⅱ) 및 (ⅲ)의 폭 치수, (ⅳ) 및 (ⅴ)의 깊이 치수를 자동적으로 계측할 수 있다.
이상, 도 1 및 도 3a의 절차를 거침으로써, 단시간 또한 자동에 의한, 실화상으로부터의 치수 추출을 행하기 위해 필요해지는 학습 데이터베이스 구축, 및 그 치수 추출이 가능해진다.
(실시예 2)
실시예 2로서, 도 1을 참조하여 설명한 구조 화상과 생성 화상의 데이터베이스 구축 시에, 복수의 구조 화상을 단시간에 작성하는 방법을 설명한다.
도 4는, 2개의 대표 구조 화상으로부터, 그들 중간 화상이 되는 복수의 구조 화상을 작성하는 방법을 나타낸다. 우선 대표 화상 A(1041)와 대표 화상 A'(1042) 2개를 작성한다. 지정된 대응 관계에 따라서, 이 대표 화상 A(1041)로부터 대표 화상 A'(1042)로 변화시켰을 때의 복수의 화상을 중간 화상(1043)으로서 작성한다. 이러한 화상 처리의 방법은 모핑(morphing)이라고 불리고 있다.
구체적으로는, 유저는, 2개의 구조 화상 중에서 대응 관계가 되는 구조를 구성하는 각, 선분, 호(弧)를 지정함으로써, 한쪽의 구조(대표 화상 A(1041))로부터 다른쪽의 구조(대표 화상 A'(1042))로의 변화를 지시할 수 있다. 또한, 대응 관계가 되는 구조의 지정 방법으로서는, 선분 및 호의 특정 위치나 그 양단(兩端) 등을 지정할 수도 있다.
도 5는, 대표 구조 A'(1052)를, 장치에 의한 처리에 있어서의 시료의 원하는 목표 형상으로 했을 경우를 나타낸다. 장치에 의해 처리된 시료의 형상으로서 목표 형상을 실현하는 장치 처리 조건을 탐색하는 과정의 전형적인 예에서는, 처음에는 목표 형상으로부터 벗어난 형상이 취득되지만, 탐색이 잘 진행되면, 서서히 목표 형상에 가까운 형상이 얻어지게 된다.
따라서, 대표 화상 A(1051)와 목표 형상(1052)의 화상 사이의 중간 화상이 되는 구조 화상(1053)을, 모핑에 의해 미리 준비해 두면, 그것에 대응하는 생성 화상을 생성할 수 있다. 또한, 그 생성 화상과 구조 화상을 학습한 구조 취득 모델(1020)을 구축할 수 있다. 따라서, 목표 형상의 탐색 중에 취득될 가능성이 높은 실화상에 대하여, 고정밀도로 구조 추출을 할 수 있는 구조 취득 모델(1020)의 구축을 할 수 있게 된다.
도 6은, 대표 화상 A'로서 취득 완료 실화상 중, 가장 목표 형상에 가까운 실화상의 구조 화상을 설정한 예를 나타낸다. 화상(1062)은, 가장 목표 형상에 가까운 실화상의 구조 화상의 예이다. 대표 화상 A(1061)로부터 구조 화상(1062)의 중간 화상이 되는 구조 화상(1063)을, 모핑에 의해 미리 준비할 수 있게 된다.
따라서, 목표 형상의 탐색 중에 취득될 가능성이 높은 실화상에 대하여, 고정밀도로 구조 추출을 할 수 있는 구조 취득 모델(1020)의 구축을 할 수 있게 된다. 또, 가장 목표 형상에 가까운 실화상에 대한 구조 화상의 작성은, 사람의 손으로 행하는 것도 가능하지만, 도 3a를 참조하여 설명한 바와 같이, 이제까지 학습 완료된 구조 취득 모델(1020)을 이용하여, 실화상으로부터 구조 화상을 자동적으로 취득함으로써, 구조 화상의 작성 시간을 단축하는 것이 가능하다.
또, 목표 형상과 실화상의 근접성, 즉 차이(혹은 유사도)는, 양자의 각 특징량 또는 각 특징 치수의 오차의 총합을 이용하여 평가할 수 있다. 오차는, 각 파라미터의 차분, 절대값, 또는 제곱 오차 등을 이용하여 계산할 수 있다. 이 오차가 작을수록 실화상이 목표 형상에 가까운 것을 알 수 있다.
도 7은, 더 취득될 가능성이 높은 실화상에의 대응 및 구조 추출의 고정밀도화를 실현하기 위한 대표 화상의 예를 나타낸다. 구체적으로는, 대표 화상 A로서, 취득 완료 실화상 중, 가장 목표 형상에 가까운 실화상으로부터 작성한 구조도(1062)가 설정되고, 대표 화상 A'로서 목표 형상의 구조 화상(1052)이 설정되어 있다.
목표 형상을 실현하는 장치 처리 조건을 탐색할 때, 탐색이 성공할 경우에는, 취득 완료된 최량(最良) 형상과 목표 형상의 중간이 되는 형상이 취득될 가능성이 매우 높다. 따라서, 그들에 대응하는 중간 화상(1073)을 미리 준비함으로써, 더 취득될 가능성이 높은 실화상에의 대응 및 구조 추출의 고정밀도화가 가능해진다.
또, 도 4 내지 도 7에 있어서 설명한 대표 화상 A와 대표 화상 A'는, 중간 구조의 화상을 작성할 때의 양단이 되는 구조를 결정하기 위해, 양자를 교체하여 설정하는 것이 가능하다.
상술한 바와 같이, 두 개의 구조 화상으로부터 중간 구조의 화상을 생성하고, 구조 화상 및 실제의 화상에 유사시킨 생성 화상을 데이터베이스로서 구축한다. 실제의 화상에 유사시킨 생성 화상을 이용함으로써, 구조 화상과 실제의 화상의 관계를, 실제의 화상을 취득하지 않고 학습하는 것이 가능해진다. 또한, 2개의 상이한 구조 화상 중 한쪽을 취득 완료 실화상 중에서 가장 목표 형상에 가까운 형상에 대응하는 구조 화상으로 하고, 다른쪽을 목표 형상으로 함으로써, 목표하는 가공 형상을 탐색할 때에, 실제로 취득될 가능성이 높은 화상을 미리 학습 데이터에 포함함으로써, 실제의 화상으로부터의 구조 취득 시의 정밀도를 향상한다.
(실시예 3)
실시예 3으로서, 도 1 및 도 3을 참조하여 설명한 방법에 의해 구축되는 학습 모델 및 데이터베이스를 이용한, 목표 형상을 얻기 위한 장치 처리 조건의 최적화의 방법을 설명한다. 도 8a 및 8b에 그 개요를 나타낸다. 데이터베이스(1101)는, 목표 형상의 탐색 시에 서서히 축적되는, 장치 조건(1100A) 및 장치 조건을 이용하여 처리된 시료의 단면 화상인 실화상(1100B1)을 포함한다. 또한, 데이터베이스(1101)는, 실화상(1100B1)으로부터 취득되는 구조 화상을 포함한다. 구조 화상(1100B2, 1100B3)은 그 구조 화상의 예이다. 또한, 데이터베이스(1101)는, 구조 화상으로부터 추출된 치수 데이터(1100B4)를 포함한다.
상술한 바와 같이, 실화상(1100B1)으로부터 구조 화상(1100B2, 1100B3)을 취득하기 위해서는, 구조 취득 모델(1020)을 사용할 수 있다. 또한, 치수 데이터(1100B4)는, 실화상(1100B1)으로부터 수동으로 계측한 값을 이용할 수 있지만, 치수 추출 모델(1030)을 이용하여 구조 화상(1100B2, 1100B3)으로부터 취득한 치수 데이터(1100B4)를 사용할 수도 있다.
장치 조건(1100A)과, 그 밖의 데이터(1100B1∼1100B4)와의 관계를 기술하는 학습 모델(1110)을 구축함으로써, 목표 형상을 취득하기 위한 장치 조건을 탐색할 수 있다. 학습 모델의 입출력으로서, 장치 조건과 치수 데이터를 선택했을 경우에는, 입출력은 수치 파라미터이며, 다입출력 회귀 모델이 구축된다.
또는, 학습 모델의 입출력으로서, 장치 조건과 실화상 또는 구조 화상을 선택했을 경우에는, 장치 조건의 수치 파라미터와 화상의 관계를 기술하는 학습 모델이 구축된다. 그 모델의 구체적인 예로서는, 컨볼루셔널 뉴럴 네트워크(Convolutional Neural Network)나 적대적 생성 네트워크(Generative Adversarial Network)를 들 수 있다.
이들 학습 모델을 이용하여, 목표 형상(1110B)을 얻기 위한 최적 장치 조건(1110A)을 탐색하는 것이 가능하다. 탐색 방법으로서는, 다수의 장치 조건 세트를 입력하고, 치수 데이터 또는 실화상 형상을 예측함으로써, 가장 목표 형상에 가까운 치수 데이터 또는 실화상 형상이 얻어지는 것으로 추정되는 장치 조건을 선택할 수 있다. 또는, 목표 형상을 실현하는 것으로 추정되는 장치 조건을 역문제로서 풀 수도 있다.
이들 학습 모델에서는, 입력으로서 장치 조건(1100A), 출력으로서 그 밖의 데이터(1100B1∼1100B4)로 하여 설명을 행했지만, 이들 입출력을 반대로 해서 학습 모델을 구축하고, 최적 장치 조건을 탐색하는 것도 가능하다.
(실시예 4)
이상의 실시예에서는, 시료를 가공 처리할 경우를 예로서 설명해 왔지만, 본 개시의 특징을, 그 밖의 예로서, 열화(劣化) 검출에 있어서의 대상물의 단면 검사에 적용할 수 있다. 금속이나 콘크리트의 피로 또는 경년 열화를 평가할 경우에, 그들 단면을 관찰한다. 따라서, 구조 화상으로서 단면에 발생하는 균열, 결함, 부식, 성질 변화 영역을 나타내는 구조 화상을 작성하고, 그들에 대응하는 참조 화상을 사용함으로써, 생성 화상을 생성하는 것이 가능하다.
도 9에는, 금속 재료의 예로서, 섬과 각 섬의 경계 영역의 2개의 상 구조를 가지는 구조 화상(1200A1), 참조 화상(1200C1), 생성 화상(1200B1)을 나타낸다. 도 9에는, 또한 크랙이 있는 구조 화상(1210A1), 참조 화상(1210C1), 생성 화상(1210B1)을 나타낸다.
실시예 1과 마찬가지의 절차에 의해, 실화상으로부터의 구조 화상 취득, 그 구조 화상으로부터의 치수 데이터, 즉 균열, 결함, 부식, 성질 변화 영역의 특징량 또는 특징 치수를 취득할 수 있다. 상 구조를 가지는 예에서는, 치수 데이터로서, 예를 들면, 섬의 면적, 각 섬의 최대 폭(섬을 구성하는 경계 상의 2점에서 가장 거리가 벗어나 있는 2점간의 폭), 섬의 수, 2개의 섬의 거리(마주 보는 2개의 섬의 경계선 상의 각 점으로부터의 최단 거리, 또는 그들 최단 거리의 평균값 등)가 사용된다.
또한, 크랙이 있는 예에서는, 치수 데이터로서, 예를 들면, 크랙의 면적, 크랙의 개수, 크랙의 폭(크랙을 구성하는 마주 보는 2개의 경계선에 있어서, 경계선 상의 각 점으로부터의 최단 거리, 또는 그들 최단 거리의 평균값 등)이 사용된다. 이와 같이, 본 개시의 특징을, 다양한 종류의 화상 처리에 적용할 수 있다.
(실시예 5)
이하, 실시예 5와 실시예 6에서는, 치수 추출 모델 및 그 학습 방법의 상세를 설명한다. 실시예 5에서는, 가공 구조와 배경 사이의 경계선 및 이종 재료간의 계면의 경계선의 좌표를 추출하기 위해 세만틱·세그멘테이션 모델(제1 화상 인식 모델)과, 단위 패턴의 좌표를 검출하기 위해 물체 검출 모델(제2 화상 인식 모델)의 2종류의 화상 인식 기술을 이용한다. 세만틱·세그멘테이션 모델은, 상기 실시예에 있어서의 구조 취득 모델에 대응한다.
사전의 학습 스텝에서는, 세만틱·세그멘테이션 모델에는, 입력 데이터인 단면 SEM 화상과, 출력 데이터인 영역마다 색별한 어노테이션 화상을, 교사 데이터로서 부여하여, 영역의 형상을 학습시킨다. 또한, 물체 검출 모델에는, 입력 데이터인 단면 SEM 화상과, 출력 데이터인 단위 패턴의 좌표(패턴을 둘러싸는 직사각형의 바운딩·박스로 지정함)를 기재한 어노테이션 데이터를, 교사 데이터로서 부여하여, 단위 패턴 형상을 학습시킨다.
추론 스텝에서는, 주어진 입력 화상에 대해, 학습 완료 세만틱·세그멘테이션 모델에서 영역마다 색별한 화상을 추정하고, 학습 완료 물체 검출 모델에서 단위 패턴의 좌표를 추정한다.
계측 스텝에서는, 영역마다 색별한 화상으로부터 얻어지는 영역 경계선의 좌표를, 단위 패턴 좌표를 이용하여 패턴마다 분할하고, 치수 계측에 필요한 특징점의 좌표를 구함으로써, 원하는 개소의 치수를 자동으로 계측한다.
도 10은, 반도체 제조 시스템의 시스템 구성예를 나타내는 도면이다. 반도체 제조 시스템(10)은, 처리 조건 탐색 장치(100)와, 입력 장치(103)와, 출력 장치(114)와, 처리 장치(111)와, 평가 장치(112)와, 치수 계측 장치(200)와, 입출력 장치(206)를 갖는다. 유저는, 목표 처리 결과(가공 형상)와 처리 장치(111)에서 이용하는 파라미터(101)를 선택하여 입력 장치(103)로부터 입력하고, 출력 장치(114)로부터 목표 가공 형상을 부여하는 최적 처리 조건(102)을 출력으로서 얻는다.
처리 조건 탐색 장치(100)는, 입력 장치(103)로부터 목표 가공 형상(101)을 접수하고, 처리 장치(111)가 최적으로 목표 가공 형상을 얻는 것이 가능한 처리 조건을 탐색하고, 탐색한 처리 조건을 출력 장치(114)에 출력하는 장치이다.
입력 장치(103)는, GUI 등의 입력 인터페이스와 카드 리더 등의 기억 매체 판독 장치를 구비하고, 처리 조건 탐색 장치(100)에 데이터를 입력한다. 또한, 유저로부터뿐만 아니라, 입출력 장치(206)로부터 치수 계측값도 마찬가지로 접수하여, 처리 조건 탐색 장치(100)에 입력한다. 입력 장치(103)는, 예를 들면, 키보드, 마우스, 터치패널, 기억 매체 판독 장치 등을 포함한다.
출력 장치(114)는, 처리 조건 탐색 장치(100)로부터 건네받은 처리 조건을, 최적 처리 조건(102)으로서 유저에 표시한다. 표시하는 수단으로서는, 디스플레이에의 표시, 또는 파일에의 쓰기 등이다. 출력 장치(114)는, 예를 들면, 디스플레이, 프린터, 기억 매체 쓰기 장치 등을 포함한다.
처리 장치(111)는, 반도체 또는 반도체를 포함하는 반도체 디바이스를 처리하는 장치이다. 처리 장치(111)의 처리의 내용은 특별히 한정되지 않는다. 예를 들면, 리소그래피 장치, 성막 장치, 패턴 가공 장치를 포함한다. 리소그래피 장치에는, 예를 들면, 노광 장치, 전자선 묘화 장치, X선 묘화 장치를 포함한다. 성막 장치는, 예를 들면 CVD(Chemical Vapor Deposition), PVD(Physical Vapor Deposition), 증착 장치, 스퍼터링 장치, 열산화 장치를 포함한다. 패턴 가공 장치는, 예를 들면, 웨트 에칭 장치, 드라이 에칭 장치, 전자 빔 가공 장치, 레이저 가공 장치를 포함한다. 처리 장치(111)는, 처리 조건 탐색 장치(100)로부터 입력된 처리 조건에 의거하여 반도체 또는 반도체 디바이스의 처리를 행하고, 평가 장치(112)에 건네준다.
평가 장치(112)는, 처리 장치(111)에서 처리된 반도체 또는 반도체 디바이스의 단면을 촬영하여, 처리 결과인 단면 화상(208)을 취득한다. 평가 장치(112)는, SEM, TEM(Transmission Electron Microscope), 광학식 모니터를 이용한 가공 치수 계측 장치를 포함한다. 처리 장치(111)에서 처리된 반도체 또는 반도체 디바이스의 일부를 단편으로서 취출하여, 그 단편을 평가 장치(112)에 운반하여 계측해도 된다. 취득한 단면 화상(208)은, 입출력 장치(206)에 건네진다.
치수 계측 장치(200)는, 중앙 처리부(201), 모델 학습부(202), 모델 추정부(203), 치수 계측부(204)와 데이터베이스(205)를 갖는다. 입출력 장치(206)를 통해 입력된 특징점과 치수의 정의, 배율, 학습 데이터 세트(209)와 단면 화상(208)을 접수하고, 단면 화상(208)으로부터 소정의 치수를 계측하고, 입출력 장치(206)에 출력한다.
입출력 장치(206)는, GUI 등의 입출력 인터페이스와 카드 리더 등 기억 매체 판독 장치를 구비하고, 치수 계측 장치(200)에 특징점과 치수의 정의, 배율, 학습 데이터 세트(209)를 입력한다. 또한, 평가 장치(112)로부터 단면 화상(208)을 수취하여, 중앙 처리부(201)에 건네준다. 입출력 장치(206)는, 예를 들면, 키보드, 마우스, 디스플레이, 터치패널, 기억 매체 판독 장치 등을 포함하고, 치수 계측 장치(200)로부터 건네받은 치수값을, 유저에 표시하거나, 혹은 직접 입력 장치(103)에 전송한다. 유저에 표시할 경우, 그 수단은 디스플레이에의 표시, 또는 파일에의 쓰기 등이다.
도 11은, 처리 조건 탐색 장치(100)의 시스템 구성예를 나타내는 도면이다. 처리 조건 탐색 장치(100)는, 중앙 처리부(104)와, 데이터베이스(105)와, 초기 처리 조건 설정부(106)와, 타깃 설정부(107)와, 모델 학습부(108)와, 처리 조건 탐색부(109)와, 장치 제어부(110)와, 수속 판정부(113)를 갖는다.
도 12에, 치수 계측 장치(200)의 하드웨어 구성을 나타내는 블록도를 나타낸다. 치수 계측 장치(200)는, 입출력 장치(206)를 통해 평가 장치(112)로부터 입력된 단면 화상(208)으로부터 치수를 계측하고, 계측 결과를 입출력 장치(206)에 출력한다. 치수 계측 장치(200)는, 프로세서(116)와, 통신 인터페이스(115)와, ROM(117)과, RAM(118)을 갖는다. 통신 인터페이스(115)는, 프로세서(116)와, 외부의 입출력 장치(206)를 접속한다. 프로세서(116)는, 통신 인터페이스(115)와, ROM(117)과, RAM(118)이 접속된다. ROM(117)에는, 프로세서(116)로 실행하는 처리 프로그램이 저장되어 있다. RAM(118)에는, 학습 데이터나 학습 모델, 특징점과 치수의 정의, 배율 등이 저장된다.
또, 도 10에 나타내는 치수 계측 장치(200)와의 대응에서는, 데이터베이스(205)는 ROM(117) 및 RAM(118)으로서 실장(實裝)되고, 모델 학습부(202), 모델 추정부(203), 치수 계측부(204)는 ROM(117) 및 RAM(118)에 저장되는 프로그램 및 파라미터로서 실장된다.
도 13은, 치수 계측 장치(200)의 모델 학습부(202) 및 모델 추정부(203)에서 이용하는 세만틱·세그멘테이션 모델의 구성의 일례이다. 또, 본 예에서는 뉴럴 네트워크(20)를 이용하는 예를 설명하지만, 이에 한정되지 않고, 결정목(決定木) 등의 기계 학습의 모델을 이용할 수도 있다. 뉴럴 네트워크는, 입력층에 입력된 화소 정보가, 중간층, 출력층으로 순서대로 전파되어 연산됨으로써, 출력층으로부터 각 화소가 속하는 영역의 라벨 번호를 출력한다. 중간층은 컨볼루셔널층, 풀링층 등이 다수 층 반복된다. 구체적인 층 구조는 채용하는 모델에 따라 상이하다. 학습 시에는 출력된 각 화소의 라벨과 정해(正解)인 어노테이션 데이터와의 오차가 최소가 되도록, 중간층의 파라미터를 조정한다.
도 14는, 치수 계측 장치(200)의 모델 학습부(202) 및 모델 추정부(203)에서 이용하는 물체 검출 모델의 구성의 일례이다. 또, 본 예에서는 뉴럴 네트워크(30)를 이용하는 예를 설명하지만, 이것에 한정되지 않고, 템플릿 매칭 등의 다른 모델을 이용할 수도 있다. 뉴럴 네트워크는, 입력층에 입력된 화소 정보가, 중간층, 출력층으로 순서대로 전파되어 연산됨으로써, 출력층으로부터 화상에 포함되는 물체의 라벨 번호와 바운딩·박스의 좌표값을 출력한다. 중간층은 컨볼루셔널층, 풀링층 등이 다수 층 반복된다. 구체적인 층 구조는 채용하는 모델에 따라 상이하다. 학습 시에는 출력된 물체의 라벨 번호와 바운딩·박스의 좌표값과 정해인 어노테이션 데이터와의 오차가 최소가 되도록, 중간층의 파라미터를 조정한다.
도 15는, 치수 계측 장치(200)가 실행하는, 입력 화상으로부터 필요한 치수를 계측하기까지의 플로우 차트이다.
우선, 사전에 치수 계측 장치(200)에 입력해야 할 학습 데이터 세트(209)를 작성한다. 학습 데이터 세트는, 입력 데이터인 단면 SEM 화상에 더해, 출력 데이터가 되는 물체 검출 모델에 대해서는 단위 패턴을 둘러싸는 바운딩·박스의 좌표를 기재한 어노테이션 데이터(209)를, 세만틱·세그멘테이션 모델에 대해서는 영역마다 색별한 어노테이션 화상(209)의 세트를 작성하고, 그들 학습 데이터 세트를 입출력 장치(206)로부터 입력한다(스텝 S100). 입력된 학습 데이터 세트는 데이터베이스(205)에 보존된다.
다음으로, 중앙 처리부(201)는 데이터베이스(205)로부터 모델 학습부(202)에 학습 데이터 세트와 모델을 전송하고, 모델 학습부(202)에서 2개의 모델의 학습을 행한다(스텝 S101). 학습한 모델의 파라미터는 데이터베이스(205)에 보존된다. 이하의 설명에서는, 모델로서는, 컨볼루셔널층이나 풀링층을 갖는 뉴럴 네트워크를 이용할 경우를 설명하지만, 물체 검출 모델로서 템플릿 매칭 등, 세만틱 세그멘테이션 모델로서 결정목 등의 기계 학습의 모델을 이용할 수도 있다.
다음으로, 추정 스텝에서, 치수를 계측하려는 테스트 화상을 입출력 장치(206)로부터 입력한다(스텝 S104). 동시에, 치수 계측에 필요해지는 특징점의 정의(209)와, 계측하는 치수의 정의(209)를 입출력 장치(206)를 통해 데이터베이스(205)에 저장한다(스텝 S102, S103). 입력 화상의 배율은, 화상을 저장하는 폴더명에 따라 판단시키도록 한다. 예를 들면, 배율이 100k배라면 폴더명을 100k로 한다. 각 화상의 배율 정보는, 데이터베이스(205)에 보존된다. 중앙 처리부(201)는 모델 추정부(203)에 데이터베이스(205)로부터 모델과 파라미터를 건네줌과 함께, 입력된 테스트 화상을 건네주고, 모델 추정부(203)에서 추정을 행하여(스텝 S105), 패턴 검출 결과인 바운딩·박스 좌표와 세만틱·세그멘테이션 화상을 얻는다(스텝 S106).
다음으로, 계측 스텝에 있어서, 중앙 처리부(201)는 치수 계측부(204)에 바운딩·박스 좌표와 세만틱·세그멘테이션 화상을 건네주고, 세만틱·세그멘테이션 화상으로부터 경계선의 좌표를 구한다. 다음으로, 패턴마다 경계선 좌표를 분할하고, 데이터베이스(205)에 저장되어 있는 특징점의 정의를 호출하여 특징점의 좌표를 구하고, 치수의 정의를 호출하여 주요 치수를 계산한다(스텝 S107). 얻어진 치수의 단위는 픽셀 수이므로, 데이터베이스(205)에 저장되어 있는 배율을 호출하여 실치수로 변환한다(스텝 S108). 계측한 치수값을 입출력 장치(206)에 출력함과 함께, 패턴마다의 경계선 좌표 데이터를 데이터베이스(205)에 보존한다(스텝 S109).
또한, 치수 계측 개소를 신규로 추가려는 경우에는, 치수 계측에 필요해지는 새로운 특징점(209)의 정의와, 새로운 치수 계측 개소의 정의(209)를 입출력 장치(206)로부터 입력하고, 데이터베이스(205)에 저장한다(스텝 S110, S111).
다음으로, 신규의 치수 계측 개소의 지정의 유무를 판정하여(스텝 S112), 지정이 없으면, 치수 계측 처리를 스킵한다. 지정이 있으면, 데이터베이스(205)에 저장되어 있는 패턴마다의 경계선의 좌표 데이터를 판독하여 치수를 계산하고(스텝 S114), 실치수로 스케일 변환(스텝 S115) 후, 계측한 치수값을 입출력 장치(206)에 출력한다(스텝 S116).
여기에서, 가공 형상의 탐색을 하려는 경우에는, 목표 치수값을 입력한다(스텝 S117). 중앙 처리부(201)는 형상 탐색의 지정의 유무를 판정하여(스텝 S118), 지정이 없으면, 치수 계측 처리를 종료한다(스텝 S119). 지정이 있으면, 데이터베이스(205)에 저장되어 있는 전체 화상의 치수값을 탐색하고(스텝 S120), 입력한 치수에 가까운 형상을 입출력 장치(206)에 출력한다(스텝 S121). 이상으로, 처리를 종료한다(스텝 S122).
도 16은, 반도체 제조 시스템(10)에 있어서 처리 조건 탐색 장치(100)가 실행하는, 목표 처리 결과(목표 출력 파라미터값)로부터 처리 장치(111)의 최적 처리 조건을 결정하는 플로우 차트이다.
우선, 처리 장치(111)가 행하는 처리에 대해서, 목표로 하는 목표 처리 결과(목표 출력 파라미터값) 및 처리 장치(111)를 제어하는 파라미터로서 선택하는 입력 파라미터(101)를, 입력 장치(103)로부터 중앙 처리부(104)에 건네받는다(스텝 S200).
다음으로, 중앙 처리부(104)는 접수한 목표 출력 파라미터값과 선택된 입력 파라미터(가공 조건 파라미터)를 데이터베이스(105)에 저장함과 함께, 선택된 입력 파라미터를 초기 처리 조건 설정부(106)에 건네준다. 초기 처리 조건 설정부(106)에서는, 건네받은 입력 파라미터를 바탕으로, 데이터베이스(105)로부터 입력 파라미터의 설정 가능 범위의 데이터를 판독하고, 초기 처리 조건을 자동 설정한다(스텝 S201). 중앙 처리부(104)는 설정된 초기 처리 조건을 데이터베이스(105)에 저장함과 함께, 초기 처리 조건을 장치 제어부(110)에 건네준다.
장치 제어부(110)는, 초기 처리 조건을 처리 장치(111)에 전송한다. 또는 장치 제어부(110)가 출력한 초기 처리 조건을 유저가 처리 장치(111)에 입력하는 것이어도 된다. 처리 장치(111)는 입력된 초기 조건에 따라서 처리를 행하고, 평가 장치(112)에서 평가하고, 입출력 장치(206)를 통해, 평가 결과인 단면 화상(208)을 치수 계측 장치(200)에 건네준다. 치수 계측 장치(200)에서 구해진 치수값(타깃 출력 파라미터값)은 입출력 장치(206)를 통해 입력 장치(103)에 입력된다. 중앙 처리부(104)는, 입력 장치(103)로부터 초기 처리 결과를 건네받는다(스텝 S202). 중앙 처리부(104)는, 초기 처리 조건과 초기 처리 결과를 수속 판정부(113)에 건네준다.
수속 판정부(113)는, 초기 처리 결과를 목표 처리 결과와 비교하여, 소정의 정밀도 내에서 목표 처리 결과에 수속하고 있는지의 여부를 판정한다(스텝 S203). 수속하고 있으면, 목표 처리 결과에 수속한 초기 처리 조건을 출력 장치(114)에 건네주고, 출력 장치(114)는 최적 처리 조건(102)으로서 출력한다(스텝 S210).
출력 파라미터값(처리 결과)의 수속성의 판정에는, (수식 1)에서 부여되는, 이용하는 전체 출력 파라미터에 관한 출력 파라미터값과 목표 출력 파라미터값과의 오차의 제곱합을 이용할 수 있다.
[수식 1]
Figure 112020118048839-pat00001
여기에서, NP는 이용하는 출력 파라미터의 총 수, xi는 i번째의 목표 출력 파라미터값, yi는 i번째의 출력 파라미터값(실적값), Wi는 유저가 출력 파라미터마다 지정하는 가중치이다.
한편, 수속하고 있지 않으면 처리를 계속하는 명령이 수속 판정부(113)로부터 중앙 처리부(104)로 보내지고, 중앙 처리부(104)는 데이터베이스(105)에, 초기 처리 조건(초기 입력 파라미터값)과 초기 처리 결과(초기 출력 파라미터값)로 이루어지는 초기 학습 데이터를 작성한다(스텝 S204).
다음으로, 중앙 처리부(104)는 목표 출력 파라미터값(목표 처리 결과)과 초기 학습 데이터를 데이터베이스(105)로부터 읽어들여, 타깃 설정부(107)에 건네준다. 타깃 설정부(107)는, 타깃 처리 결과(타깃 출력 파라미터값)를 설정한다(스텝 S205). 설정된 타깃 출력 파라미터값은, 중앙 처리부(104)에 건네받아, 데이터베이스(105)에 저장된다. 타깃 설정부(107)는, 기존의 학습 데이터 중에서 목표 출력 파라미터값에 가장 가까운 베스트 데이터(출력 파라미터값(실적값))를 선출하고, 그 때 베스트인 출력 파라미터값과 목표 출력 파라미터값 사이를 내삽보간(內揷補間)함으로써 타깃 출력 파라미터값을 설정한다. 설정하는 타깃의 개수는 1개 이상이면 몇 개여도 되지만, 효율을 생각해서 복수개, 예를 들면 4∼5개 정도를 설정하는 것이 바람직하다.
다음으로, 중앙 처리부(104)는, 데이터베이스(105)로부터 초기 학습 데이터를 읽어들여, 초기 학습 데이터를 모델 학습부(108)에 보낸다. 모델 학습부(108)는 입력 파라미터값(처리 조건)과 출력 파라미터값(처리 결과)을 관계짓는 추정 모델을 학습한다(스텝 S206). 추정 모델로서는, 뉴럴 네트워크, 서포트 벡터 머신, 커널법 등을 이용할 수 있다. 학습한 추정 모델은 처리 조건 탐색부(109)에 건네진다.
다음으로, 처리 조건 탐색부(109)는, 모델 학습부(108)로부터 건네받은 추정 모델 및 데이터베이스(105)로부터 판독한 입력 파라미터에의 제약 조건을 이용하여, 데이터베이스(105)로부터 판독한 목표 출력 파라미터값 및 타깃 출력 파라미터값에 대한 처리 조건을 탐색한다(스텝 S207). 추정 모델은 처리 조건이 입력이고, 처리 결과가 출력으로 되어 있기 때문에, 처리 결과로부터 처리 조건을 반대로 구하려면, 시뮬레이티드·어닐링법, 유전적 알고리즘 등 각종 최적해 탐색 방법을 이용할 수 있다. 처리 조건 탐색부(109)는, 탐색한 처리 조건(타깃 입력 파라미터값)을 장치 제어부(110)에 건네줌과 함께, 중앙 처리부(104)를 통해 데이터베이스(105)에 저장한다.
장치 제어부(110)는, 건네받은 처리 조건(타깃 입력 파라미터값)을 처리 장치(111)에 전송한다. 또는, 장치 제어부(110)가 출력한 처리 조건을 유저가 처리 장치(111)에 입력하는 것이어도 된다. 처리 장치(111)는 입력된 초기 조건에 따라서 처리를 행하고, 평가 장치(112)로 평가하고, 평가 결과인 단면 화상(208)을 입출력 장치(206)를 통해 치수 계측 장치(200)에 건네준다. 치수 계측 장치(200)에서 구해진 치수값(타깃 출력 파라미터값)은 입출력 장치(206)를 통해 입력 장치(103)에 입력된다. 중앙 처리부(104)는, 입력 장치(103)로부터 처리 결과(타깃 출력 파라미터값)를 건네받는다(스텝 S208). 중앙 처리부(104)는, 처리 조건(타깃 입력 파라미터값)과 처리 결과(타깃 출력 파라미터값)를 수속 판정부(113)에 건네준다.
수속 판정부(113)는, 처리 결과(출력 파라미터값(실적값))를 목표 처리 결과(목표 출력 파라미터값)와 비교하고, 소정의 정밀도 내에서 목표 처리 결과에 수속하고 있는지의 여부를 판정한다(스텝 S209). 수속하고 있으면, 목표 처리 결과에 수속한 처리 조건을 출력 장치(114)에 건네주고, 출력 장치(114)는 최적 처리 조건(102)으로서 출력한다(스텝 S210).
한편, 수속하고 있지 않으면 처리를 계속하는 명령이 수속 판정부(113)로부터 중앙 처리부(104)로 보내지고, 중앙 처리부(104)는 데이터베이스(105)의 학습 데이터 세트에, 새롭게 탐색한 목표 처리 결과와 타깃 처리 결과에 대한 처리 조건(입력 파라미터값)과 처리 결과(출력 파라미터값(실적값))의 세트를 추가 학습 데이터로서 추가함으로써, 학습 데이터 세트를 갱신한다(스텝 S204).
이하, 학습 데이터 세트의 작성·갱신(스텝 S204)부터 수속 판정(스텝 S209)까지의 추정 프로세스를, 처리 결과가 목표 처리 결과에 수속될 때까지 반복한다. 이와 같이 하여, 목표 처리 결과를 실현하는 최적 처리 조건을 자율적으로 탐색한다.
이상이, 처리 조건 탐색 장치(100)와 치수 계측 장치(200)를 구비한 반도체 제조 시스템(10) 전체의 처리 플로우이다.
이하, 처리 장치(111)가 에칭 장치일 경우를 예로 설명한다.
도 17은, 학습 데이터 세트 중의 입력 데이터 세트가 되는 단면 SEM 화상의 예이다. 이 화상의 사이즈는 1280×960 픽셀이다. 샘플은 라인/스페이스의 단위 패턴이 반복되고 있는 트렌치 구조이며, 영역은 배경(300), 마스크(301), 기판(302)의 3 영역으로 이루어진다. 또, 화상의 좌측 아래에는 촬상 조건이, 우측 아래에는 스케일이 중첩 표시되어 있다.
도 18은, 치수 계측 개소의 예이다. 이 예에서는, 치수 계측 개소는, (1) L1: 마스크 상면의 폭(305), (2) L2: 마스크/기판 계면의 폭(306), (3) L3: 기판 최협부의 폭(307), (4) L4: 마스크의 높이(308), (5) L5: 트렌치의 깊이(309)의 5개소를 설정하고 있다. 또, 마스크 상면의 폭(305)은, 볼록 형상으로 되어 있는 2개의 피크 위치의 간격이라고 정의했다. 피크 위치가 1개밖에 없는 형상일 경우에는 폭을 0으로 한다. 도면 중의 A부터 G까지의 7개의 점은 치수 계측에 이용하는 경계선 상의 특징점이며, 경계선 데이터만으로부터 일의(一意)로 정의할 수 있는 점을 이용한다. 예를 들면, A, B는 마스크 상면의 피크가 되는 점 등이다. 특징점(A∼G)의 정의 및 치수(L1∼L5)와 특징점(A∼G)과의 대응 관계(L1: A, B, L2: C, D 등)는 유저가 입출력 장치(206)를 통해 입력하고, 데이터베이스(205)에 저장되어 있다. 구체적으로는, 특징점과 치수의 정의를 기술한 스크립트를 저장해 둔다. 특징점과 계측 치수의 개수·위치는, 계측 대상의 구조에 따라 적절하게 설정한다.
도 19는, 학습 데이터 세트 중의 출력 데이터 세트가 되는 어노테이션 데이터 중, 물체 검출 모델에 부여하는 어노테이션 데이터에 기술하는 바운딩·박스의 좌표의 정의를 설명하는 도면이다. 도면 중에 나타낸 테두리선(바운딩·박스)으로 둘러싸인 라인/스페이스의 반복적인 단위 구조인 마스크와 기판의 일부로 이루어지는 영역에 대해 「패턴」이라는 라벨명을 정의한다. 이 예에서는, 라벨은 1종류뿐이며, 라벨 번호는 0이다. 도 19에는 5개의 패턴이 존재한다. 바운딩·박스의 좌표는 화상의 좌측 위를 원점으로 하고, 수평 방향에 X축을, 수직 방향에 Y축을 취한다. 바운딩·박스의 Y축 방향의 경계는, 마스크 상부와 트렌치 저부(底部)가 완전히 포함되도록, 각각 수 픽셀의 마진을 갖게 한 위치에 설정한다. 바운딩·박스는 직사각형이므로, 위치를 특정하려면, 좌측 위와 우측 아래의 2개의 좌표를 부여하면 된다.
도 20은, 도 19에 대응하는 어노테이션 데이터의 기재예의 발췌이다. 필수가 되는 항목만 발췌되어 있다. 이 예에서는 데이터는 xml 포맷으로 기술되어 있지만, 사용하는 물체 검출 모델이 상정하고 있는 포맷이면 무엇이든지 좋다. 태그 <folder>∼</folder>에 화상 파일을 저장하고 있는 폴더명을, 태그 <filename>∼</filename>에 화상 파일명을 기재한다. 태그 <object>∼</object>가 바운딩·박스에 관한 정보를 기재하는 개소에서, 화상 중에 포함되는 바운딩·박스의 개수만큼 반복된다. 그 중 태그 <name>∼</name>이 라벨명을 지정하는 개소이다. 태그 <bndbox>∼</bndbox>에 기재된 4개의 수치가, 1개째의 바운딩·박스의 좌측 위와 우측 아래의 점의 좌표이다. 어노테이션 데이터는 수작업으로 작성하거나, 학습 완료된 물체 검출 모델을 이용하여 작성할 수 있다.
도 21은, 학습 데이터 세트 중의 출력 데이터 세트가 되는 어노테이션 데이터 중, 세만틱·세그멘테이션 모델에 대한 어노테이션 데이터의 예이다. 어노테이션 데이터는 전용 소프트웨어를 이용하여 수작업으로 작성하거나, 학습 완료된 세만틱·세그멘테이션 모델을 이용하여 작성할 수 있다. 데이터는, 영역별로 색별된 화상이다. 여기에서 영역은, 측정 대상으로 하는 반도체 디바이스의 단면을 구성하는 각 층과 반도체 디바이스의 단면 이외의 배경을 포함한다. 이 예에서는, 배경(310), 반도체 디바이스의 단면을 구성하는 각 층으로서 마스크(311) 및 기판(312)의 3 영역으로 이루어진다. 3 영역의 라벨명은, 각각 「배경」, 「마스크」, 「기판」이며, 색은, 각각 검정, 그레이, 흰색이다.
도 22는, 라벨명, 라벨 번호, 색의 대응 관계이며, 데이터베이스(205)에 저장되어 있다. 각 라벨에 부여하는 라벨 번호와 색은 임의이지만, 치수 계측 장치(200) 내에서는 고정할 필요가 있다.
도 23은, 학습 스텝을 행할 때에 입출력 장치(206)에 표시되는 GUI 화면의 일례이다. 화면은 입력 데이터 윈도우(323)와, 어노테이션 데이터 윈도우(331)와, 터미널 윈도우(339)를 포함한다. 입력 데이터 윈도우(323)에서는, 로드 버튼(320)에 의해, 학습 데이터 세트의 입력 데이터 세트가 저장되어 있는 폴더를 선택한다. 셀렉트 버튼(321)에 의해, 입력 데이터 윈도우(323)에 표시하려는 화상 파일을 선택한다. 클리어 버튼(322)에 의해 표시 결과를 클리어한다. 셀(324와 325)에는 선택한 폴더명과 파일명이 표시된다. 화상 윈도우(326)에는 선택한 화상이 표시된다.
어노테이션 데이터 윈도우(331)에서는, 모델 버튼(328)에 의해 세만틱·세그멘테이션 모델이나, 물체 검출 모델 중 어느 것을 선택한다. 선택한 모델에 따라 어노테이션 데이터 윈도우(331)에 표시되는 데이터의 종류는 바뀐다. 또한, 어노테이션 데이터가 포함되는 폴더도 모델에 따라 자동으로 선택된다. 도 23은 세만틱·세그멘테이션 모델을 선택했을 경우의 예이다. 셀렉트 버튼(329)에 의해, 윈도우(334)에 표시하려는 샘플을 지정한다. 셀(332와 333)에는 선택한 샘플이 있는 폴더명과 파일명이 표시된다. 윈도우(334)에는 어노테이션 화상이, 테이블(335)에는 라벨명, 라벨 번호, 색의 대응표가 표시된다.
터미널 윈도우(339)에서는, 스타트 버튼(336)에 의해, 모델 버튼(328)에서 선택한 모델의 학습이 개시된다. 터미널 윈도우(339)에는 계산 중의 도중 경과, 최종 결과가 메시지로 표시된다. 스톱 버튼(337)에 의해 계산 도중에도 정지할 수 있다. 계산 결과인 학습 완료 모델은 자동으로 보존된다.
도 24는, 치수를 계측하려는 테스트 화상의 예이다. 이 테스트 화상에는, 상술한 바와 같이, 불필요한 안쪽 구조의 윤곽이 찍혀 있다. 이 구조는, 치수 계측 시에는 무시해야 할 구조이다.
도 25는, 도 24에 나타낸 테스트 화상을 학습 완료 물체 검출 모델에 입력하여 추론시킨 결과이다. 검출된 물체의 라벨명과 함께, 바운딩·박스 좌표가 검은 테두리로 나타나 있다. 도 25의 예에서는 4개의 패턴이 검출되어 있다.
도 26은, 도 25에 대응하는 바운딩·박스의 좌표값 데이터이며, 추론 후에 데이터베이스(205)에 자동으로 보존된다.
도 27은, 도 24에 나타낸 테스트 화상을 학습 완료 세만틱·세그멘테이션 모델에 입력하여 추론시킨 결과이다. 영역 각각의 색은, 도 22에서 설정한 대응 관계에 따르고 있으며, 배경이 검정, 마스크가 그레이, 기판이 흰색이다.
도 27에서 각 영역간의 경계선의 좌표가 구해지므로, 그것을 도 26의 바운딩·박스의 좌표값을 이용하여, 바운딩·박스마다 경계선 좌표를 잘라낸다. 잘라낸 바운딩·박스마다의 경계선 좌표로부터, 치수 계측에 필요한 특징점(A∼G)의 좌표를 구하고, 치수(L1∼L5)를 구한다. 이와 같이 하여, 입력한 화상으로부터 패턴마다 치수가 자동으로 계측된다.
도 28은, 계측한 치수값을 원래의 입력 화상 상에 표시한 예이며, 검출된 바운딩·박스 위치도 직사각형으로 나타나 있다.
도 29는 도 28의 계측 결과이며, 5개의 치수(L1∼L5)가, 패턴마다의 값 외에 통계값(평균값, 표준편차)도 계산되고, 표시된다. 결과는 데이터베이스(205)에 자동으로 보존됨과 함께, 평균값은 입출력 장치(206)에 출력된다.
도 30은, 추론·계측 스텝을 행할 때에 입출력 장치(206)에 표시되는 GUI 화면의 일례이다. 화면은 입력 데이터 윈도우(345)와, 추론·계측 결과 윈도우(353)를 포함한다. 입력 데이터 윈도우(345)에서는, 정의 버튼(340)에 의해 특징점과 치수와의 대응을 정의한 스크립트를 읽어들인다. 읽어들여진 정의는 정의 테이블(349)에 표시된다. 다음으로, 메뉴얼 버튼(341)에 의해 테스트 화상을 1매씩 선택하여 추론·계측을 행할지, 배치(batch) 버튼(342)에 의해 테스트 화상을 포함하는 폴더를 지정하여 폴더 내의 전체 화상을 일괄로 추론·계측을 행할지를 선택한다. 폴더명은 화상의 배율에 일치시킴으로써, 배율에 관한 정보는 폴더명으로부터 얻을 수 있다. 셀(346과 347)에는 선택한 폴더명과 파일명이 표시된다. 화상 윈도우(350)에는 선택된 테스트 화상이 표시된다. 배치를 선택했을 경우에는 1매째의 테스트 화상의 파일명과 화상이, 셀(347)과 화상 윈도우(350)에 표시된다. 스타트 버튼(343)에 의해 2개의 학습 완료 모델을 이용하여 추론과 치수 계측이 행해진다. 계산 결과는 자동으로 보존된다. 클리어 버튼(344)에 의해 표시 결과를 클리어한다.
추론·계측 결과 윈도우(353)에서는, 로드 버튼(351)에 의해 결과를 표시하려는 원(元)화상을 선택한다. 셀(354와 355)에는 선택한 화상의 폴더명과 파일명이 표시된다. 윈도우(356)에는 세만틱·세그멘테이션 결과가, 윈도우(357)에는 물체 검출 결과가 표시된다. 최종 결과 윈도우(358)에는, 원화상 상에 치수값이 표시된 화상이 표시되고, 수치 테이블(359)에는 계측된 치수값과 통계값이 표시된다.
도 31은, 원하는 치수에 가까운 형상을 데이터베이스(205)로부터 탐색하는 탐색 스텝 시에, 입출력 장치(206)에 표시되는 GUI 화면의 일례이며, 타깃 윈도우(360)와 탐색 결과 윈도우(363)를 포함한다. 타깃 윈도우(360)에서는, 타깃 구조 셀(361)에 목표로 하는 치수값을 입력한다. 정의 윈도우(362)에는 치수(L1∼L5)의 정의가 도시된다.
탐색 결과 윈도우(363)에서는, 서치 버튼(364)에 의해 탐색을 실행한다. 탐색 결과는 오차가 작은 순으로 소트(sort)하여 표시되고, 폴더명(366), 파일명(367), 치수값을 기재한 화상(368), 치수의 평균값(369)이 표시된다.
(실시예 6)
실시예 5에서는 제1 화상 인식 모델로서 세만틱·세그멘테이션 모델을, 제2 화상 인식 모델로서 물체 검출 모델을 이용했지만, 치수 계측 방법으로서는 이 조합에 한정되지 않는다. 실시예 6으로서, 2종류의 세만틱 세그멘테이션 모델을 이용하는 방법에 대해서 설명한다. 실시예 6에서는, 윤곽선을 검출시키는 제1 세만틱·세그멘테이션 모델과, 특징점을 검출시키는 제2 세만틱·세그멘테이션 모델을 이용한다. 이하, 실시예 6에 대해서는, 화상 인식 모델을 이용한 특징점의 추출을 중심으로 설명하고, 실시예 5와 중복되는 점에 대해서는 설명을 생략한다.
도 32는, 치수 계측 장치(200)가 실행하는, 사전의 학습 스텝을 거쳐 입력된 화상으로부터 치수를 계측하는 플로우 차트이다.
우선, 치수 계측에 필요한 특징점(209)을 정의하고, 입출력 장치(206)를 통해 데이터베이스(205)에 저장한다(스텝 S300). 이것은 학습 스텝 전에 행한다.
다음으로, 제1 세만틱 세그멘테이션 모델(제1 화상 인식 모델)에 대해서는 윤곽선과 그 이외로 영역 구분한 어노테이션 화상을, 제2 세만틱·세그멘테이션 모델(제2 화상 인식 모델)에 대해서는 치수 계측에 필요한 특징점과 그 이외로 영역 구분한 어노테이션 화상을 작성하고, 입출력 장치(206)로부터 입력한다(스텝 S302).
다음으로, 중앙 처리부(201)는 모델 학습부(202)에 학습 데이터 세트를 건네주고, 모델 학습부(202)에서 모델의 학습을 행한다(스텝 S303). 이하의 설명에서는, 모델로서는, 컨볼루셔널층을 갖는 뉴럴 네트워크를 이용할 경우를 설명하지만, 결정목 등의 기계 학습의 모델을 이용할 수도 있다.
다음으로, 치수를 계측하려는 테스트 화상을 평가 장치(112)로부터 읽어들인다(스텝 S304). 중앙 처리부(201)는 모델 학습부(202)에 화상을 건네주고, 모델 추정부(203)에서 추정을 행하고(스텝 S305), 2종류의 세만틱·세그멘테이션 화상을 얻는다(스텝 S306).
다음으로, 특징점과 치수 계측 개소의 대응 관계(209)를 입출력 장치(206)로부터 입력하고, 데이터베이스(205)에 저장한다(스텝 S301).
다음으로, 치수 계측부(204)에서, 2종류의 세만틱·세그멘테이션 화상으로부터, 윤곽선 상의 특징점 좌표를 구하고, 주요 치수를 계산하고, 윤곽선 전체의 좌표 데이터를 구한다(스텝 S307). 계속해서, 얻어진 치수를 실치수의 스케일로 변환한다(스텝 S308). 계측한 치수값을 입출력 장치(206)에 출력함과 함께, 윤곽선의 좌표 데이터를 데이터베이스(205)에 보존한다(스텝 S309).
또한, 가공 형상의 비교를 하려는 경우에는, 비교하려는 2개의 샘플을 지정한다(스텝 S310). 계속해서, 형상 비교의 지정의 유무를 판정하여(스텝 S311), 지정이 없으면, 치수 계측 처리를 종료한다(스텝 S312). 지정이 있으면, 데이터베이스(205)에 저장되어 있는 윤곽선 데이터와 치수값을 판독하고, 비교한 결과를 입출력 장치(206)에 출력한다(스텝 S313). 이상에 의해, 처리를 종료한다(스텝 S314).
이하, 처리 장치(111)가 에칭 장치일 경우를 예로 설명한다. 도 33은, 도 17의 학습 데이터 세트의 입력 데이터 화상에 대응하는 윤곽선을 알리는 어노테이션 데이터의 예이다. 영역은 배경(400)과 윤곽선(401)의 2 영역으로 이루어진다. 라벨명은 각각 「배경」, 「윤곽」이며, 라벨 번호는 각각 0, 1이다. 도 34는, 라벨명, 라벨 번호, 색의 대응 관계이다. 각 라벨에 부여하는 라벨 번호와 색은 임의이지만, 치수 계측 장치(200) 내에서는 고정할 필요가 있다.
도 35는, 도 17의 학습 데이터 세트의 입력 데이터 화상에 대응하는 특징점의 위치를 알리는 어노테이션 데이터의 예이다. 특징점으로서 도 18에 나타낸 A∼G의 7점 중, A(411), C(412), E(413), G(414)의 4점을 라벨로서 설정하고, 배경(410)을 포함한 5개의 라벨별로 색별한 화상이다. 다른 3개의 특징점 B, D, F는, 대칭성을 가정하면 A, C, E로부터 구해지므로 라벨에는 포함하지 않기로 했다. 후술하는 바와 같이, 특징점 A, C, E에 대해서는 특징점 B, D, F와 윤곽선으로부터 구함으로써, 육안으로 보지 않아도, 특징점 B, D, F와 특징점 A, C, E가 하나의 단위 패턴에 대한 특징점인 것을 담보하는 것이 가능해진다. 도 36은, 라벨명, 라벨 번호, 색의 대응 관계이다. 각 라벨에 부여하는 라벨 번호와 색은 임의이지만, 치수 계측 장치(200) 내에서는 고정할 필요가 있다.
도 37은, 학습 스텝을 행할 때에 입출력 장치(206)에 표시되는 GUI 화면의 일례이다. 화면은 입력 데이터 윈도우(323)와, 어노테이션 데이터 윈도우(331)와, 터미널 윈도우(339)를 포함한다. 입력 데이터 윈도우(323)에서는, 로드 버튼(320)에 의해, 입력 화상 파일이 저장되어 있는 폴더를 선택한다. 셀렉트 버튼(321)에 의해, 표시하려는 화상 파일을 선택한다. 클리어 버튼(322)에 의해 표시 결과를 클리어한다. 셀(324와 325)에는 선택한 폴더명과 파일명이 표시된다. 화상 윈도우(326)에는 선택한 화상이 표시된다.
어노테이션 데이터 윈도우(331)에서는, 모델 버튼(415)에 의해 윤곽선용 세만틱·세그멘테이션 모델(제1 세만틱·세그멘테이션 모델)이나, 특징점용 세만틱·세그멘테이션 모델(제2 세만틱·세그멘테이션 모델) 중 어느 것을 선택한다. 선택한 모델에 따라 어노테이션 데이터 윈도우(331)에 표시되는 데이터의 종류는 바뀐다. 또한, 어노테이션 데이터가 포함되는 폴더도 모델에 따라 자동으로 선택된다. 도 37은 윤곽선용 세만틱·세그멘테이션 모델을 선택했을 경우의 예이다. 셀렉트 버튼(329)에 의해, 윈도우에 표시하려는 샘플을 지정한다. 셀(324와 325)에는 선택한 샘플이 있는 폴더명과 파일명이 표시된다. 윈도우(334)에는 어노테이션 화상이, 테이블(335)에는 라벨명, 라벨 번호, 색의 대응표가 표시된다.
터미널 윈도우(339)에서는, 스타트 버튼(336)에 의해, 모델 버튼(415)에서 선택한 모델의 학습이 개시된다. 터미널 윈도우(339)에는 계산 중의 도중 경과, 최종 결과가 메시지로 표시된다. 스톱 버튼(337)에 의해 계산 도중에 정지할 수 있다. 계산 결과인 모델 파라미터는 자동으로 보존된다.
도 38은, 도 24에 나타낸 테스트 화상을 제1 학습 완료 세만틱 세그멘테이션 모델에 입력하여 추론시킨 윤곽선의 검출 결과의 화상이다. 동시에, 윤곽선의 좌표도 구해진다.
도 39는, 도 24에 나타낸 테스트 화상을 제2 학습 완료 세만틱 세그멘테이션 모델에 입력하여 추론시킨 특징점 A, C, E, G의 검출 결과의 화상이다. 동시에, 이들 특징점의 좌표도 구해진다. 또, 이들 특징점의 좌표는 도 38에서 얻어진 윤곽선 상에 반드시 위치하고 있다고는 할 수 없으므로, 도 39에서 얻어진 특징점 좌표에 가장 가까운 도 38의 윤곽선 상의 점을 특징점의 좌표로서 채용한다.
도 40은, 특징점 A, C, E로부터, 대응하는 특징점 B, D, F를 구하는 방법을 설명하는 도면이다. 대응점은, 원래의 점과 Y 좌표가 동일하고 X 좌표의 차가 최소, 즉 우측의 최근방의 윤곽선 상의 점으로 한다. 실시예 5에서는 경계선 좌표를 패턴마다 분할했지만, 실시예 6에서는 짝을 이루는 2점의 좌표를 알고 있으므로, 분할은 불필요하다. 얻어진 7종의 특징점의 좌표와, 데이터베이스(205)로부터 호출한 특징점과 치수의 정의에 의해, 소정의 치수가 계산된다. 이와 같이, 입력한 화상으로부터 치수가 자동적으로 계측된다.
도 41은, 추론·계측 스텝을 행할 때에 입출력 장치(206)에 표시되는 GUI 화면의 일례이다. 화면은 입력 데이터 윈도우(345)와, 추론·계측 결과 윈도우(353)를 포함한다. 입력 데이터 윈도우(345)에서는, 정의 버튼(340)에 의해 특징점과 치수와의 대응을 정의한 스크립트를 선택하여 읽어들인다. 읽어들여진 정의는 정의 테이블(349)에 표시된다. 다음으로, 메뉴얼 버튼(341)에 의해 테스트 화상을 1매씩 선택하여 추론·계측을 행할지, 배치 버튼(342)에 의해 테스트 화상을 포함하는 폴더를 지정하여 폴더 내의 전체 화상을 일괄로 추론·계측을 행할지를 선택한다. 폴더명은 화상의 배율에 일치시킴으로써, 배율에 관한 정보는 폴더명으로부터 얻을 수 있다. 셀(346과 347)에는 선택한 폴더명과 파일명이 표시된다. 화상 윈도우(350)에는 선택된 테스트 화상이 표시된다. 배치를 선택했을 경우에는 1매째의 테스트 화상의 파일명과 화상이, 셀(347)과 화상 윈도우(350)에 표시된다. 스타트 버튼(343)에 의해 2개의 학습 완료 모델을 이용하여 추론과 치수 계측이 행해진다. 계산 결과는 자동으로 보존된다. 클리어 버튼(344)에 의해 표시 결과를 클리어한다.
추론·계측 결과 윈도우(353)에서는, 로드 버튼(351)에 의해 결과를 표시하려는 원화상을 선택한다. 셀(354와 355)에는 선택한 화상의 폴더명과 파일명이 표시된다. 윈도우(416)에는 윤곽선에 대한 세만틱·세그멘테이션 결과가, 윈도우(417)에는 특징점에 대한 세만틱·세그멘테이션 결과가 표시된다. 최종 결과 윈도우(358)에는, 원화상 상에 치수값이 표시된 화상이 표시되고, 수치 테이블(359)에는 계측된 치수값과 통계값이 표시된다.
도 42는, 2개의 화상의 형상을 비교하는 비교 스텝을 행할 때에 입출력 장치(206)에 표시되는 GUI 화면의 일례이다. 화면은 입력 데이터 윈도우(423)와, 비교 결과 윈도우(436)를 포함한다. 입력 데이터 윈도우(423)에서는, 로드 1 버튼(420)에 의해 비교하려는 1매째의 화상을, 로드 2 버튼(421)에 의해 비교하려는 2매째의 화상을 선택한다. 셀(424와 425)에는 선택한 1매째의 화상의 폴더명과 파일명이, 셀(426과 427)에는 선택한 2매째의 화상의 폴더명과 파일명이 표시된다. 화상 윈도우(428과 429)에는 선택한 2개의 화상이 표시된다. 윤곽선 윈도우(430, 431)에는, 선택한 2개의 화상에 대하여 추출된 윤곽선 화상이, 데이터베이스(205)로부터 판독되고, 표시된다.
비교 결과 윈도우(436)는, 윤곽선을 겹쳐 표시한 윈도우(437)와, 2개의 화상의 치수값의 평균값과 그 차분을 나타낸 테이블(438)이 표시된다. 오토 버튼(432)은, 2개의 윤곽선(430, 431)을 종 방향은 마스크 상면이 일치하고, 횡 방향은 트렌치 중앙이 일치하도록 자동으로 조정하는 버튼이다. 자동 조정이 실패했을 경우 혹은 수동으로 조정하려는 경우에는, 메뉴얼 버튼(433)을 누르고, 유저가 마우스로 화상을 드래그함으로써, 위치를 조정한다. 테이블(438)에는, 2개의 화상에 대하여 계측된 치수값이 데이터베이스(205)로부터 판독되고, 양자의 차분이 계산되어 표시된다. 세이브 버튼(434)에 의해, 겹쳐 쓴 윤곽선 화상과 테이블의 수치를 데이터베이스(205)에 보존한다.
또, 본 발명은 상술한 실시예에 한정되는 것이 아니고, 첨부한 특허청구범위의 취지 내에 있어서의 다양한 변형예 및 동등한 구성이 포함된다. 예를 들면, 상술한 실시예는 본 발명을 이해하기 쉽게 설명하기 위해 상세하게 설명한 것이며, 반드시 설명한 모든 구성을 구비하는 것에 본 발명은 한정되지 않는다.
또한, 어떤 실시예의 구성의 일부를 다른 실시예의 구성으로 치환해도 된다. 또한, 어떤 실시예의 구성에 다른 실시예의 구성을 더해도 된다. 또한, 각 실시예의 구성의 일부에 대해서, 다른 구성의 추가, 삭제, 또는 치환을 해도 된다. 예를 들면, 실시예 5에 있어서 세만틱·세그멘테이션 모델은 반도체 디바이스의 단면을 구성하는 각 층을 영역으로서 색별한 화상을 출력하는 예를 설명했지만, 실시예 6과 같이 특징점을 출력하는 세만틱·세그멘테이션 모델로 해도 된다. 단, 이 경우는, 실시예 6의 예와 달리 모든 특징점(실시예 6의 예에서는 특징점 A∼G)을 출력 할 필요가 있다.
(실시예 7)
실시예 5와 마찬가지의 구성에 있어서, 화상 생성 장치를 탑재한 반도체 제조 시스템을 구성할 수 있다. 구체적으로는, 도 10 및 도 12에 나타낸 치수 계측 장치(200)를, 화상 생성 장치로 치환할 수 있다. 화상 생성 장치(2000)는, 실시예 1 내지 4에 있어서 설명한, 구조 화상의 생성, 및 구조 화상으로부터 (필요에 따라 참조 화상을 사용한) 생성 화상의 생성 등의 처리를, 실행하도록 구성할 수 있다.
도 43은, 화상 생성 장치(2000)의 논리 구성예를 나타낸다. 화상 생성 장치(2000)는, 도 12에 나타내는 치수 계측 장치(200)와 같이, 1 이상의 프로세서 및 1 이상의 기억 장치를 포함하는, 하나의 계산기 또는 복수의 계산기로 구성할 수 있다. 1 이상의 프로세서가 프로그램에 따라서 동작함으로써, 화상 생성 장치(2000)의 각종 기능 및 처치를 실현할 수 있다. 화상 생성 장치(2000)에 있어서는, 평가 장치(112)로부터의 입력은 불필요하다.
화상 생성 장치(2000)는, 치수 계측 장치(200)와 마찬가지로, 중앙 처리부(201), 모델 학습부(202), 데이터베이스(205)를 갖는다. 또한, 치수 계측 장치(200)의 모델 추정부(203) 및 치수 계측부(204)의 양쪽을 포함한 부분을 대신하여 화상 생성부(2040)를 갖는다. 화상 생성부(2040)는, 구조 화상에 대응하는, 실제의 관찰 화상에 유사시킨 화상으로서 추정되는 화상을 생성한다. 화상 생성부(2040)의 기능으로부터, 모델 추정부(203)의 기능을 분리해도 된다.
치수 계측 장치(200)의 모델 추정부(203)와 치수 계측부(204)의 양쪽을 포함한 부분의 대신으로서 학습 데이터 세트를 사용할 경우에는, 화상 생성부(2040)는, 학습 데이터 세트(209) 대신에, 구조 화상과 실화상의 데이터 세트를 갖는 학습 데이터 세트를 사용한다.
실시예 1에서 설명한 바와 같이, 학습 완료된 화상 생성 모델(1000)을 사용할 경우에는, 모델 학습부(202)에서의 화상 생성 모델(1000)의 학습은 불필요하다. 데이터베이스(205) 또는 외부의 데이터 보존 영역에 학습 완료 모델 데이터 또는 실행 파일을 보존해 두고, 그것을 로드함으로써, 화상 생성 모델(1000)을 동작시킬 수 있다.
또한, 화상 생성 모델(1000)용 학습 데이터 세트가 있을 경우에는, 유저는, 그것을 데이터베이스(205)에 미리 보존해 두고, 그 학습 데이터 세트를 사용하여, 모델 학습부(202)가, 학습 완료 화상 생성 모델(1000)을 구축할 수 있다.
참조 화상은 데이터베이스(205) 또는 외부의 데이터 보존 영역에 보존되고, 화상 생성 모델(1000)에 의한 화상 생성 시에 사용된다.
화상 생성 장치(2000)는, 예를 들면 입출력 장치(206)를 통해 입력된, 구조 화상 또는 구조 화상과 참조 화상을 접수하고, 이들 화상을 화상 생성 모델(1000)에 입력하여 생성 화상을 출력하고, 데이터베이스(205)에 보존하고, 또한 입출력 장치(206)에 출력한다.
입출력 장치(206)는, GUI 등의 입출력 인터페이스와 카드 리더 등 기억 매체 판독 장치를 구비하고, 화상 생성 장치(2000)에 학습 데이터 세트를 입력한다.
입출력 장치(206)는, 예를 들면, 키보드, 마우스, 디스플레이, 터치패널, 기억 매체 판독 장치 등을 포함한다. 화상 생성 장치(2000)로부터 건네받은 생성 화상을, 유저에 표시한다. 유저에 표시할 경우, 입출력 장치(206)는, 예를 들면 디스플레이에의 표시, 또는 파일에의 쓰기 등을 실행한다.
화상 생성 장치(2000)는, 예를 들면 입출력 장치(206)를 통해 구조 화상 또는 구조 화상 및 참조 화상을 취득하고, 그들 화상으로부터 생성 화상을 생성하여, 입출력 장치(206)에 출력한다.
화상 생성 장치(2000)는, 프로세서(116)와, 통신 인터페이스(115)와, ROM(117)과, RAM(118)을 갖는다. 통신 인터페이스(115)는, 프로세서(116)와, 외부의 입출력 장치(206)를 접속한다. 프로세서(116)는, 통신 인터페이스(115)와, ROM(117)과, RAM(118)이 접속된다. ROM(117)에는, 프로세서(116)로 실행하는 처리 프로그램이 저장되어 있다. RAM(118)에는, 학습 데이터나 학습 모델, 구조 화상 및 참조 화상 등이 저장된다.
또, 데이터베이스(205)는 ROM(117) 및 RAM(118)에 저장되고, 모델 학습부(202), 화상 생성부(2040)는, ROM(117) 및 RAM(118)에 저장되는 프로그램 및 파라미터에 따라서 동작하는 프로세서(116)에 의해 실현할 수 있다.
화상 생성 장치(2000)에서 이용되는 화상 생성 모델 구성은, 예를 들면, 도 13을 참조하여 설명한 구성과 마찬가지이다. 화상 생성 모델에서는, 구조 화소 데이터의 각 화소가 입력이며, 생성 화상 데이터의 각 화소가 출력이 된다. 또, 도 13에서는, 뉴럴 네트워크(20)를 이용하는 예를 설명하지만, 이에 한정하지 않고, 결정목 등의 기계 학습의 모델을 이용할 수도 있다.
반도체 제조 시스템(10)은, 치수 계측 장치(200) 및 화상 생성 장치(2000)를 갖는 것이 가능하며, 화상 생성 장치(2000)에 의해, 구조 화상과 생성 화상의 데이터 세트를 데이터베이스에 보존한 뒤, 그 데이터를 학습 데이터로서 치수 계측 장치(200)의 학습 모델 구축 및 치수 계측을 행할 수 있다. 또, 화상 생성 장치(2000), 치수 계측 장치 및 처리 조건 탐색 장치(100) 각각의 일부 또는 전부의 기능은, 다른 장치에 포함되어 있어도 된다.
도 44는, 화상 생성 장치(2000)가 실행하는, 구조 화상을 입력으로 하여, 생성 화상을 출력하는 플로우 차트이다.
화상 생성 모델의 학습을 행할 경우에는, 유저는, 사전에 화상 생성 장치(2000)에 입력해야 할 학습 데이터 세트를 작성한다. 학습 데이터 세트는, 예를 들면, 입력 데이터로서 구조 화상, 출력 데이터로서 실제의 관찰 화상과 같은 화상이 되도록 생성된 생성 화상의 입출력의 세트로 구성된다. 유저는, 학습 데이터 세트를, 입출력 장치(206)로부터 입력한다(스텝 S300). 입력된 학습 데이터 세트는 데이터베이스(205)에 보존된다.
다음으로, 중앙 처리부(201)는 데이터베이스(205)로부터 모델 학습부(202)에 학습 데이터 세트와 화상 생성 모델을 전송하고, 모델 학습부(202)에서 화상 생성 모델의 학습을 행한다(스텝 S301). 학습한 화상 생성 모델의 파라미터는, 데이터베이스(205)에 보존된다. 또, 사전에 학습 완료된 화상 생성 모델을 사용할 경우에는, 스텝 S300 및 S301은 스킵한다.
유저는, 구조 화상을 입출력 장치(206)로부터 입력한다(스텝 S302). 도 2를 참조하여 설명한 바와 같이, 구조 화상의 작성에는, 드로우 소프트, 페인트 소프트 등의 일반적인 묘화 소프트를 사용할 수 있다. CAD 소프트를 이용하여 구조 화상을 작성할 수도 있다.
또한, 구조 화상의 입력 방법으로서, 도 4 내지 도 7에서 설명한 바와 같이, 2개의 대표적인 구조 화상을 등록하고(스텝 S303), 그 중간이 되는 복수의 구조 화상을 작성하는 방법을 사용할 수 있다(스텝 S304). 유저는, 두 개의 대표 화상을 입출력 장치(206)로부터 입력함과 함께, 모핑을 위한 정보를 입력한다. 화상 생성부(2040)는, 두 개의 대표 화상과 유저 지정 정보에 따라서, 모핑에 의해 중간 화상을 생성한다.
구조 화상으로부터의 화상 생성에서는(스텝 S305), 화상 생성부(2040)는, 화상 생성 모델로서, 스텝 S301에서 학습한 화상 생성 모델, 또는 사전에 학습 완료된 화상 생성 모델을 사용한다. 또한 구조 화상으로서, 스텝 S302의 등록 화상, 또는 스텝 S303의 등록 화상 및 스텝 S304에서 작성한 중간 화상을 이용한다. 또는, 구조 화상으로서, 이들 모든 구조 화상을 이용해도 된다. 화상 생성부(2040)는, 구조 화상 및 생성 화상을 데이터베이스에 보존한다(스텝 S306). 또, 구조 화상의 데이터베이스에의 보존은, 구조 화상 등록 시에 행해도 된다.
스텝 S306에서 보존된 데이터는, 도 15에서 설명한 학습 데이터 세트로서 사용된다(스텝 S100).
구체적으로는, 도 3a를 참조하여 설명한 바와 같이, 실화상을 구조 취득 모델에 입력함으로써, 구조 화상을 출력하고, 이들 실화상 및 구조 화상을 데이터베이스에 등록한다. 다음으로, 이 구조 화상을 치수 추출 모델에 입력함으로써, 치수 데이터를 출력한다. 구조 취득 모델 및 치수 취득 모델의 학습 방법은, 도 15의 플로우 차트에서 설명한 바와 같다.
도 45는, 화상 생성 장치(2000)에 있어서, 구조 화상의 작성, 또는 구조 화상을 입력으로 하여, 생성 화상의 출력 등을 행할 때의 GUI 화면의 예이다. 본 GUI에서는, 유저는, 우선 두 개의 대표 구조 화상을 지정한다. 지정된 대표 구조 화상이 GUI에 표시된다. 또한, 대표 구조 화상 및 대표 구조 화상을 이용하여 작성된 중간 화상이 표시된다. 이들 구조 화상은, 중간 화상 보존처에 보존된다.
구조 화상으로부터 생성 화상을 생성할 때에는, 유저는 GUI에 있어서, 보존된 중간 구조 화상 및 대표 구조 화상을 사용할지, 별도 작성한 구조 화상을 사용할지, 선택할 수 있다. 또한, 유저는, 참조 화상을 참고로 함으로써, 생성 화상을 생성하는 방식을 사용하거나, 학습용 구조 화상과 학습용 생성 화상을 이용하여 학습시킨 화상 생성 모델을 사용하는 방법을 선택할 수 있다.
참조 화상을 사용할 경우에는, 유저는, 사용하는 참조 화상을 지정한다. 그 때, 지정한 참조 화상이 GUI에 표시된다. 화상 생성 모델을 학습시킬 경우에는, 유저는, 학습에 사용하는 학습용 구조 화상 및 학습용 생성 화상을 지정한다.
상기 절차 후, 화상 생성 버튼을 누름으로써, 화상 생성이 행해지고, 생성 화상이 GUI에 표시된다. 또한, 유저는, 생성 화상의 보존처를 지정할 수 있다.
상술한 바와 같이, 실제의 화상으로부터 취득한 구조 화상에 대하여, 소정의 특징 치수를 취득할 수 있는 치수 추출 모델을 이용하여 특징 치수를 계측함으로써, 실제의 화상을 취득했을 때의 장치 조건, 실제의 화상, 실제의 화상으로부터 취득한 구조 화상, 특징 치수의 데이터베이스를 자동으로 구축할 수 있다. 이에 더하여, 이들 데이터베이스를 이용하여, 장치 조건에 대응한 구조 화상을 출력하는 학습 모델을 구축하고, 상기 학습 모델을 이용하여, 목표 형상을 실현하는 장치 조건을 추정할 수 있다.
상술한 각 구성, 기능, 처리부, 처리 수단 등은, 그들의 일부 또는 전부를, 예를 들면 집적 회로로 설계하는 등에 의해, 하드웨어로 실현해도 되고, 프로세서가 각각의 기능을 실현하는 프로그램을 해석해 실행함으로써, 소프트웨어로 실현해도 된다. 각 기능을 실현하는 프로그램, 테이블, 파일 등의 정보는, 메모리, 하드 디스크, SSD(Solid State Drive) 등의 기억 장치, 또는, IC(Integrated Circuit) 카드, SD 카드, DVD(Digital Versatile Disc)의 비일과성 기록 매체에 저장할 수 있다.
또한, 제어선이나 정보선은 설명상 필요하다고 생각되는 것을 나타내고 있으며, 설치상 필요한 모든 제어선이나 정보선을 나타내고 있다고는 할 수 없다. 실제로는, 거의 모든 구성이 상호 접속되어 있다고 생각해도 된다.
특허청구범위에 기재되어 있는 구성에 더해, 본 개시의 관점의 대표적인 예를 이하에 기재한다.
본 개시의 일 태양인, 반복 패턴을 갖는 반도체 디바이스의 단면 화상으로부터 반도체 디바이스의 치수를 계측하는 치수 계측 장치는, 프로세서와, 메모리와, 메모리에 저장되고, 프로세서에 실행됨으로써, 반도체 디바이스의 치수를 계측하는 치수 계측 프로그램을 갖고, 치수 계측 프로그램은, 모델 추정부와 치수 계측부를 갖고, 모델 추정부는, 제1 화상 인식 모델에 의해, 단면 화상에 대하여 영역별로 라벨 부착한 라벨 부착 화상을 출력하고, 제2 화상 인식 모델에 의해, 단면 화상에 있어서 반복 패턴을 구성하는 단위 패턴 각각이 위치하는 좌표를 출력하고, 치수 계측부는, 라벨 부착 화상 및 단위 패턴 각각이 위치하는 좌표를 이용하여, 단위 패턴마다 미리 정의된 복수의 특징점의 좌표를 구하고, 복수의 특징점 중 소정의 2점간의 거리로서 정의되는 치수를 계측한다.
또한, 본 개시의 다른 일 태양인, 반복 패턴을 갖는 반도체 디바이스의 단면 화상으로부터 반도체 디바이스의 치수를 계측하는 치수 계측 장치로서, 프로세서와, 메모리와, 메모리에 저장되고, 프로세서에 실행됨으로써, 반도체 디바이스의 치수를 계측하는 치수 계측 프로그램을 갖고, 치수 계측 프로그램은, 모델 추정부와 치수 계측부를 갖고, 모델 추정부는, 제1 화상 인식 모델에 의해, 단면 화상을, 윤곽선과 배경에 라벨 부착한 제1 라벨 부착 화상을 출력하고, 제2 화상 인식 모델에 의해, 단면 화상을, 반복 패턴을 구성하는 단위 패턴에 있어서 정의되는 제1 복수의 특징점과 배경에 라벨 부착한 제2 라벨 부착 화상을 출력하고, 치수 계측부는, 제1 라벨 부착 화상으로부터의 윤곽선의 좌표 및 제2 라벨 부착 화상으로부터의 제1 복수의 특징점의 좌표를 이용하여 제2 복수의 특징점의 좌표를 구하고, 제1 복수의 특징점 중 소정의 점과 제2 복수의 특징점 중 소정의 점 사이의 거리로서 정의되는 치수를 계측한다.
10: 반도체 제조 시스템
20, 30: 뉴럴 네트워크 모델
100: 처리 조건 탐색 장치
101: 목표 처리 결과·파라미터 선택
102: 최적 처리 조건
103: 입력 장치
104: 중앙 처리부
105: 데이터베이스
106: 초기 처리 조건 설정부
107: 타깃 설정부
108: 모델 학습부
109: 처리 조건 탐색부
110: 장치 제어부
111: 처리 장치
112: 평가 장치
113: 수속 판정부
114: 출력 장치
115: 인터페이스
116: 프로세서
117: ROM
118: RAM
200: 치수 계측 장치
201: 중앙 처리부
202: 모델 학습부
203: 모델 추정부
204: 치수 계측부
205: 데이터베이스
206: 입출력 장치
208: 단면 화상
209: 특징점과 치수의 정의·배율·학습 데이터 세트
300: 배경
301: 마스크
302: 기판
305: 마스크 상면 폭
306: 마스크/기판 계면 폭
307: 기판 최협부 폭
308: 마스크 높이
309: 트렌치 깊이
310: 배경
311: 마스크
312: 기판
320: 로드 버튼
321: 셀렉트 버튼
322: 클리어 버튼
323: 입력 데이터 윈도우
324, 325: 셀
326: 화상 윈도우
328: 모델 버튼
329: 셀렉트 버튼
330: 클리어 버튼
332, 333: 셀
334: 윈도우
335: 테이블
336: 스타트 버튼
337: 스톱 버튼
338: 클리어 버튼
339: 터미널 윈도우
340: 정의 버튼
341: 메뉴얼 버튼
342: 배치 버튼
343: 스타트 버튼
344: 클리어 버튼
345: 입력 데이터 윈도우
346, 347: 셀
349: 정의 테이블
350: 화상 윈도우
351: 로드 버튼
352: 클리어 버튼
353: 추론·계측 결과 윈도우
354, 355: 셀
356, 357: 윈도우
358: 최종 결과 윈도우
359: 수치 테이블
360: 타깃 윈도우
361: 타깃 구조 셀
362: 정의 윈도우
363: 탐색 결과 윈도우
364: 서치 버튼
365: 클리어 버튼
366: 폴더명
367: 파일명
368: 화상
369: 치수의 평균값
400: 배경
401: 윤곽선
410: 배경
411: 특징점 A
412: 특징점 C
413: 특징점 E
414: 특징점 G
415: 모델 버튼
416, 417: 윈도우
420: 로드 1 버튼
421: 로드 2 버튼
422: 클리어 버튼
423: 입력 데이터 윈도우
424, 425, 426, 427: 셀
428, 429: 화상 윈도우
430, 431: 윤곽선 윈도우
432: 오토 버튼
433: 메뉴얼 버튼
434: 세이브 버튼
435: 클리어 버튼
436: 비교 결과 윈도우
437: 윈도우
438: 테이블
1000: 화상 생성 모델
1000A: 구조 화상
1000B: 생성 화상
1000C: 참조 화상
1001: 구조 화상과 생성 화상의 데이터베이스
1010: 구조 취득 모델
1010A: 생성 화상(구조 취득 모델 학습 시의 입력)
1010B: 구조 화상(구조 취득 모델 학습 시의 출력)
1000A1: 컬러도의 구조 화상
1000A2: 선도의 구조 화상
1000C1: 참조 화상의 예
1000B1: 생성 화상의 예
1020: 구조 취득 모델(학습 완료)
1020A: 실화상
1020B: 실화상으로부터 취득한 구조 화상
1021: 실화상과 구조 화상의 데이터베이스
1030: 치수 추출 모델
1030A: 실화상으로부터 취득한 구조 화상(치수 추출 모델에의 입력)
1030B: 치수 데이터
1031B: 치수 데이터의 취득 위치의 예
1041: 대표 화상 A
1042: 대표 화상 A'
1043: 중간 화상
1051: 대표 화상 A
1052: 목표 형상
1053: 중간 화상(대표 화상 A'가 목표 형상일 경우)
1061: 대표 화상 A
1062: 실화상 베스트 형상
1063: 중간 화상(대표 화상 A'가 실화상 베스트 형상일 경우)
1073: 중간 화상(대표 화상 A가 실화상 베스트 형상일 경우, 대표 화상 A'가 목표 형상일 경우)
1101: 복합 데이터베이스
1100: 형상 추정 모델
1100A: 장치 조건
1100B: 추정 형상
1100B1: 실화상(형상 탐색 시)
1100B2: 컬러도의 구조 화상(형상 탐색 시)
1100B3: 선도의 구조 화상(형상 탐색 시)
1100B4: 치수 데이터(형상 탐색 시)

Claims (10)

  1. 구조 화상의 화상 처리에 의해, 상기 구조 화상을 실화상에 유사시킨 화상을 생성하는 시스템으로서,
    1 이상의 기억 장치와,
    상기 1 이상의 기억 장치에 저장되어 있는 프로그램에 따라서 동작하는 1 이상의 프로세서를 포함하고,
    상기 1 이상의 프로세서는,
    제1 구조 화상과, 상기 제1 구조 화상과 상이한 제2 구조 화상을 취득하고,
    상기 제1 구조 화상과 상기 제2 구조 화상 사이의 중간 구조를 나타내는 복수의 중간 구조 화상을 작성하고,
    상기 복수의 중간 구조 화상 각각의 화상 처리에 의해, 상기 복수의 중간 구조 화상 각각을 실화상에 유사시켜 화상을 생성하고,
    상기 복수의 중간 구조 화상과, 상기 복수의 중간 구조 화상 각각을 실화상에 유사시킨 화상을 포함하는 데이터베이스를 구축하고,
    상기 데이터베이스를 이용하여, 입력된 실화상으로부터 구조 화상을 출력하는 구조 취득 모델을 구축하고,
    상기 구조 취득 모델을 이용하여, 새로운 실화상으로부터 새로운 구조 화상을 생성하고,
    소정의 특징 치수를 추출하는 치수 추출 모델을 이용하여, 상기 새로운 구조 화상에 있어서의 상기 특징 치수를 계측하는, 시스템.
  2. 제1항에 있어서,
    상기 1 이상의 프로세서는, 참조 화상에 의거하여, 상기 복수의 중간 구조 화상 각각을 실화상에 유사시킨 화상을 생성하는, 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 제1 구조 화상 및 상기 제2 구조 화상 중 한쪽은, 목표 형상에 대응하는 구조 화상인, 시스템.
  4. 제1항 또는 제2항에 있어서,
    상기 제1 구조 화상 및 상기 제2 구조 화상 중 한쪽은, 취득 완료 실화상 중에서 가장 목표 형상에 가까운 형상에 대응하는 구조 화상인, 시스템.
  5. 제1항 또는 제2항에 있어서,
    상기 제1 구조 화상은, 취득 완료 실화상 중에서 가장 목표 형상에 가까운 형상에 대응하는 구조 화상이며,
    상기 제2 구조 화상은, 목표 형상에 대응하는 구조 화상인, 시스템.
  6. 제1항 또는 제2항에 있어서,
    상기 1 이상의 프로세서는, 지정된 대응 관계에 따라서 상기 제1 구조 화상으로부터 상기 제2 구조 화상으로 구조 화상을 변화시킴으로써, 상기 복수의 중간 구조 화상을 생성하는, 시스템.
  7. 삭제
  8. 삭제
  9. 제1항에 있어서,
    상기 1 이상의 프로세서는,
    계측된 상기 특징 치수, 상기 새로운 구조 화상, 상기 새로운 실화상, 및 상기 새로운 실화상이 취득된 시료를 처리한 장치 조건을 포함하는 데이터베이스를 이용하여, 입력된 장치 조건에 대응한 구조 화상을 출력하는 학습 모델을 구축하고,
    상기 학습 모델을 이용하여, 목표 형상을 실현하는 장치 조건을 추정하는, 시스템.
  10. 시스템이, 구조 화상의 화상 처리에 의해 상기 구조 화상을 실화상에 유사시킨 화상을 생성하는 방법으로서,
    시스템이, 제1 구조 화상과, 상기 제1 구조 화상과 상이한 제2 구조 화상을 취득하고,
    시스템이, 상기 제1 구조 화상과 상기 제2 구조 화상 사이의 중간 구조를 나타내는 복수의 중간 구조 화상을 작성하고,
    시스템이, 상기 복수의 중간 구조 화상 각각의 화상 처리에 의해, 상기 복수의 중간 구조 화상 각각을 실화상에 유사시킨 화상을 생성하고,
    시스템이, 상기 복수의 중간 구조 화상과, 상기 복수의 중간 구조 화상 각각을 실화상에 유사시킨 화상을 포함하는 데이터베이스를 구축하고,
    시스템이, 상기 데이터베이스를 이용하여, 입력된 실화상으로부터 구조 화상을 출력하는 구조 취득 모델을 구축하고,
    시스템이, 상기 구조 취득 모델을 이용하여, 새로운 실화상으로부터 새로운 구조 화상을 생성하고,
    시스템이, 소정의 특징 치수를 추출하는 치수 추출 모델을 이용하여, 상기 새로운 구조 화상에 있어서의 상기 특징 치수를 계측하는, 방법.
KR1020200146522A 2020-02-05 2020-11-05 화상을 생성하는 시스템 KR102502486B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2020-017613 2020-02-05
JP2020017613A JP7288870B2 (ja) 2020-02-05 2020-02-05 画像を生成するシステム

Publications (2)

Publication Number Publication Date
KR20210099998A KR20210099998A (ko) 2021-08-13
KR102502486B1 true KR102502486B1 (ko) 2023-02-23

Family

ID=76853561

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200146522A KR102502486B1 (ko) 2020-02-05 2020-11-05 화상을 생성하는 시스템

Country Status (5)

Country Link
US (1) US11663713B2 (ko)
JP (1) JP7288870B2 (ko)
KR (1) KR102502486B1 (ko)
DE (1) DE102021101704A1 (ko)
TW (1) TWI773063B (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113240767B (zh) * 2021-06-10 2022-11-29 河北华电沽源风电有限公司 一种输电线路通道异常裂缝样本生成方法及系统
JP7233592B1 (ja) * 2021-10-22 2023-03-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7403108B2 (ja) * 2021-10-28 2023-12-22 株式会社 Sai 建屋内構造物認識システム及び建屋内構造物認識方法
KR20240003985A (ko) * 2022-07-04 2024-01-11 삼성전자주식회사 이미지 처리 방법 및 시스템
JP7512532B1 (ja) 2022-08-26 2024-07-08 株式会社日立ハイテク コンピュータシステム、寸法計測方法、および半導体装置製造システム
WO2024176319A1 (ja) * 2023-02-20 2024-08-29 ファナック株式会社 対象領域抽出装置、方法、及びシステム
JP7369316B1 (ja) * 2023-02-27 2023-10-25 株式会社安部日鋼工業 コンクリートを認証コードとする、識別システムおよび識別方法
JP2024137177A (ja) * 2023-03-24 2024-10-07 株式会社Screenホールディングス 予測モデル生成装置、情報処理装置、基板処理装置、予測モデル生成方法および処理条件決定方法
JP2024137178A (ja) * 2023-03-24 2024-10-07 株式会社Screenホールディングス 予測アルゴリズム生成装置、情報処理装置、基板処理装置、予測アルゴリズム生成方法および処理条件決定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013122022A1 (ja) 2012-02-14 2013-08-22 株式会社 日立ハイテクノロジーズ 画像評価装置及びパターン形状評価装置
WO2019069629A1 (ja) * 2017-10-06 2019-04-11 富士フイルム株式会社 画像処理装置及び学習済みモデル
JP2019129169A (ja) * 2018-01-22 2019-08-01 株式会社日立ハイテクノロジーズ 画像評価方法及び画像評価装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4865147B2 (ja) 2001-05-29 2012-02-01 エスアイアイ・ナノテクノロジー株式会社 ディスプレイ顕微鏡画像を用いたパターン測定方法及び測定システム
JP5549502B2 (ja) * 2010-09-24 2014-07-16 凸版印刷株式会社 パターン画像測定方法及びパターン画像測定装置
JP5948262B2 (ja) * 2013-01-30 2016-07-06 株式会社日立ハイテクノロジーズ 欠陥観察方法および欠陥観察装置
JP6608344B2 (ja) * 2016-09-21 2019-11-20 株式会社日立製作所 探索装置および探索方法
JP6731370B2 (ja) * 2017-03-27 2020-07-29 株式会社日立ハイテク 画像処理システム及び画像処理を行うためのコンピュータープログラム
US11544440B2 (en) * 2018-06-15 2023-01-03 Asml Netherlands B.V. Machine learning based inverse optical proximity correction and process model calibration
CN112424826A (zh) * 2018-07-13 2021-02-26 Asml荷兰有限公司 基于机器学习的图案分组方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013122022A1 (ja) 2012-02-14 2013-08-22 株式会社 日立ハイテクノロジーズ 画像評価装置及びパターン形状評価装置
WO2019069629A1 (ja) * 2017-10-06 2019-04-11 富士フイルム株式会社 画像処理装置及び学習済みモデル
JP2019129169A (ja) * 2018-01-22 2019-08-01 株式会社日立ハイテクノロジーズ 画像評価方法及び画像評価装置

Also Published As

Publication number Publication date
TWI773063B (zh) 2022-08-01
JP7288870B2 (ja) 2023-06-08
DE102021101704A1 (de) 2021-08-05
KR20210099998A (ko) 2021-08-13
US20210241436A1 (en) 2021-08-05
TW202142833A (zh) 2021-11-16
US11663713B2 (en) 2023-05-30
JP2021124933A (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
KR102502486B1 (ko) 화상을 생성하는 시스템
KR102476683B1 (ko) 치수 계측 장치, 치수 계측 프로그램 및 반도체 제조 시스템
US10937138B2 (en) Crack information detection device, method of detecting crack information, and crack information detection program
CN103988069B (zh) 图像检查装置的检查区域设定方法
JP6029870B2 (ja) コンクリート表面の変状検出方法及び装置
US7426302B2 (en) System and method for digitizing a pattern
KR101719088B1 (ko) 영역 분할 방법 및 검사 장치
JP2000057349A (ja) 欠陥の分類方法およびその装置並びに教示用データ作成方法
JP5988615B2 (ja) 半導体評価装置、及びコンピュータープログラム
CN110443791B (zh) 一种基于深度学习网络的工件检测方法及其检测装置
US20150170355A1 (en) Wafer appearance inspection system and method of sensitivity threshold setting
CN112561989B (zh) 一种建造场景下吊装对象的识别方法
WO2021260765A1 (ja) 寸法計測装置、半導体製造装置及び半導体装置製造システム
TWI844033B (zh) 電腦系統、尺寸計測方法、及記憶媒體
CN118447196B (zh) 一种ar景观自动观测方法及系统
CN118537339B (zh) 一种基于磨砂机的零部件表面质量的评估方法及系统
JP7512532B1 (ja) コンピュータシステム、寸法計測方法、および半導体装置製造システム
WO2023112302A1 (ja) 教師データ作成支援装置、教師データ作成支援方法
KR20220123467A (ko) 패턴 매칭 장치, 패턴 측정 시스템 및 비일시적 컴퓨터 가독 매체
CN116310331A (zh) 一种基于有限元方法的鲜花图像分割方法

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right