KR102218364B1 - 패턴 검사 시스템 - Google Patents

패턴 검사 시스템 Download PDF

Info

Publication number
KR102218364B1
KR102218364B1 KR1020190105674A KR20190105674A KR102218364B1 KR 102218364 B1 KR102218364 B1 KR 102218364B1 KR 1020190105674 A KR1020190105674 A KR 1020190105674A KR 20190105674 A KR20190105674 A KR 20190105674A KR 102218364 B1 KR102218364 B1 KR 102218364B1
Authority
KR
South Korea
Prior art keywords
pattern
image
data
learning
unit
Prior art date
Application number
KR1020190105674A
Other languages
English (en)
Other versions
KR20200026110A (ko
Inventor
슈양 도우
신이찌 시노다
야스따까 도요다
히로유끼 신도
Original Assignee
주식회사 히타치하이테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 히타치하이테크 filed Critical 주식회사 히타치하이테크
Publication of KR20200026110A publication Critical patent/KR20200026110A/ko
Application granted granted Critical
Publication of KR102218364B1 publication Critical patent/KR102218364B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/70508Data handling in all parts of the microlithographic apparatus, e.g. handling pattern data for addressable masks or data transfer to or from different components within the exposure apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70625Dimensions, e.g. line width, critical dimension [CD], profile, sidewall angle or edge roughness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Analytical Chemistry (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • Immunology (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

학습 데이터의 참값 작성 작업의 수고를 줄이고, 학습 데이터의 소량화를 도모함으로써, 학습 시간의 단기간화를 가능하게 하는 패턴 검사 시스템을 제공한다.
전자 디바이스의 검사 대상 패턴의 화상(102)과, 검사 대상 패턴을 제조하기 위해 사용하는 데이터(101)에 기초하여, 기계 학습에 의해 구성된 식별기(302)를 사용하여 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며, 전자 디바이스의 복수의 패턴 화상과 상기 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터(101)를 저장하는 기억부와, 기억부에 저장된 패턴 데이터(101)와 패턴 화상에 기초하여, 상기 복수의 패턴 화상으로부터 기계 학습에 사용할 학습용 패턴 화상을 선택하는 화상 선택부(103)를 구비한다.

Description

패턴 검사 시스템 {PATTERN INSPECTION SYSTEM}
본 발명은 하전 입자선 장치 등을 사용한 패턴 검사 시스템에 관한 것이며, 특히 화상 정보에 기초하여 기계 학습을 행하는 패턴 검사 시스템에 관한 것이다.
근년, 반도체 검사 등의 분야에서 화상으로부터 특징량을 추출하고, 사전에 데이터베이스 등에 등록되어 있는 정보와 비교 대조함으로써 대상물을 판별하는 화상 해석 기술이 이용되고 있다. 대상물을 판별하는 기계 학습의 알고리즘으로서 신경망이나 서포트 벡터 머신이 알려져 있다. 어느 방법도 어떠한 특징량을 선택하는가에 따라 식별 정밀도가 크게 변동되기 때문에, 특징량의 선택 방법이 중요하게 되었다.
근년에는, CNN(Convolutional Neural Network; 컨벌루션 신경망)이라고 불리는 심층 학습기가 개발되어, 주목받고 있다(비특허문헌 1). CNN은 기계 학습기의 일종이며, 화상의 특징을 시스템이 자동 추출하여 학습하고, 화상에 포함된 물체상의 추출이나, 물체의 판별, 화상의 분류 등을 행하는 것이다. 종래의 서포트 벡터 머신 등의 기계 학습에서 필요한 특징량의 선택을 학습 데이터로부터 자동 추출할 수 있어, 매우 높은 화상 해석 성능을 발휘한다.
그러나, CNN에 의한 화상 해석 성능을 향상시키기 위해서는 해석 대상의 베리에이션을 망라적으로 학습할 필요가 있어, 반도체 검사와 같이 학습 데이터의 취득에 수고를 요하는 애플리케이션에서는 그 운용이 어렵다고 하는 문제가 있다.
해석 대상의 베리에이션을 확장하고 또한 기계 학습의 데이터를 삭감하는 대책으로서, OPC(Optical Proximity Correction) 모델 작성이 있다(비특허문헌 2). 이것은 반도체의 회로 설계도가 반도체 제조 장치를 거쳐 실리콘 웨이퍼 상에, 어떻게 형성되는가를 시뮬레이트할 때 이용되는 모델이며, 회로 설계도와 실제로 웨이퍼에 제조된 SEM 사진의 관계를 기계 학습하는 것이다. 비특허문헌 2에서는, 해석 대상의 베리에이션을 확장하기 위해, 회로 설계 데이터를 참조하여, 회로 형상의 베리에이션을 분석하여 학습 대상을 결정하는 방법이 제안되어 있다.
Alex Krizhevsky,Ilya Sutskever,and Geoffrey E Hinton,"ImageNetClassification with Deep Convolutional Neural Networks", Advances InNeural Information Processing Systems,Vol.25,pp.1106-1114, 2012. Sun,Yuyang,et al. "Optimizing OPC data sampling based on orthogonal vector space." Optical Microlithography XXIV.Vol.7973. International Society for Optics and Photonics, 2011.
기계 학습을 반도체의 화상 검사에 활용하는 경우, 반도체의 촬영에 사용하는 SEM(Scanning Electron Microscope)의 촬영 조건의 베리에이션이나, 회로 형상의 베리에이션, 반도체 제조 프로세스의 변동이나 반도체 디바이스 상의 회로 형성 위치에 기인하는 회로 형상 변형의 베리에이션에 대응하기 위한 많은 화상 데이터의 준비가 필요하게 된다. 또한, 화상 데이터의 각각에 쌍으로 되는 올바른 검사 결과(이하, 참값이라고 칭함)를 작성할 필요가 있으며, 대량의 학습 데이터에 대응하는 참값의 작성 작업은 사람 손에 의한 작업과 시간을 요한다. 또한 계산기를 사용한 대량의 학습 작업은 수주일 내지 수개월의 시간을 요하는 경우도 있다. 이러한 학습 작업은 생산 라인 운용의 방해로 되기 때문에, 그 활용이 곤란하다. 이 때문에, 목표로 하는 검사 성능의 달성에 필요 최저한의 데이터를 선택하는 방법이 요망되고 있다.
그래서, 본 발명은 학습 데이터의 참값 작성 작업의 수고를 줄이고, 학습 데이터의 소량화를 도모함으로써, 학습 시간의 단기간화를 가능하게 하는 패턴 검사 시스템을 제공한다.
상기 과제를 해결하기 위해, 본 발명에 관한 패턴 검사 시스템은, 전자 디바이스의 검사 대상 패턴의 화상과, 상기 검사 대상 패턴을 제조하기 위해 사용하는 데이터에 기초하여, 기계 학습에 의해 구성된 식별기를 사용하여 상기 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며, 전자 디바이스의 복수의 패턴 화상과 상기 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터를 저장하는 기억부와, 상기 기억부에 저장된 상기 패턴 데이터와 상기 패턴 화상에 기초하여, 상기 복수의 패턴 화상으로부터 기계 학습에 사용할 학습용 패턴 화상을 선택하는 화상 선택부를 구비하는 것을 특징으로 한다.
또한, 본 발명에 관한 다른 패턴 검사 시스템은, 전자 디바이스의 검사 대상 패턴의 화상과, 상기 검사 대상 패턴을 제조하기 위해 사용하는 데이터에 기초하여, 기계 학습에 의해 구성된 식별기를 사용하여 상기 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며, 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터와 상기 검사 대상 패턴의 화상의 촬영 조건 데이터를 저장하는 기억부와, 상기 기억부에 저장된 상기 패턴 데이터와 상기 촬영 조건 데이터에 기초하여, 기계 학습에 사용할 상기 전자 디바이스 상의 학습용 패턴 화상의 촬영 위치를 선택하는 촬영 위치 선택부를 구비하는 것을 특징으로 한다.
또한, 본 발명에 관한 다른 패턴 검사 시스템은, 전자 디바이스의 검사 대상 패턴의 화상과, 상기 검사 대상 패턴을 제조하기 위해 사용하는 데이터에 기초하여, 기계 학습에 의해 구성된 식별기를 사용하여 상기 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며, 전자 디바이스의 패턴 화상과 상기 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터와 상기 검사 대상 패턴의 화상의 촬영 조건 데이터를 저장하는 기억부와, 상기 기억부에 저장된 상기 패턴 데이터와 상기 패턴 화상과 상기 촬영 조건 데이터에 기초하여, 기계 학습에 이용할 학습용 패턴 화상을 선택하는 화상 선택부를 구비하는 것을 특징으로 한다.
본 발명에 따르면, 학습 데이터의 참값 작성 작업의 수고를 줄이고, 학습 데이터의 소량화를 도모함으로써, 학습 시간의 단기간화를 가능하게 하는 패턴 검사 시스템을 제공하는 것이 가능하게 된다.
상기한 것 이외의 과제, 구성 및 효과는, 이하의 실시 형태의 설명에 의해 밝혀진다.
도 1은, 본 발명의 일 실시예에 관한 화상 생성부를 구성하는 학습 데이터 선택부의 개요를 도시하는 도면이다.
도 2는, 본 발명의 일 실시예에 관한 화상 생성부를 구성하는 화상 촬영부의 개요를 도시하는 도면이다.
도 3은, 모델 생성부와 모델 평가부의 개요를 도시하는 도면이다.
도 4는, 도 1에 도시하는 학습 데이터 선택부의 처리 플로우를 도시하는 흐름도이다.
도 5는, 도 4의 스텝 S20에 있어서의 형상 베리에이션 분석의 상세 플로우를 도시하는 흐름도이다.
도 6은, 도 5의 스텝 S201에 있어서의 종/횡 에지 비율 분석의 상세 플로우를 도시하는 흐름도이다.
도 7은, 도 5의 스텝 S202에 있어서의 패턴 간격 분석의 상세 플로우를 도시하는 흐름도이다.
도 8은, 도 5의 스텝 S203에 있어서의 패턴 밀도 분석의 상세 플로우를 도시하는 흐름도이다.
도 9는, 도 4의 스텝 S30에 있어서의 형상 베리에이션에 의한 학습 데이터 선택 처리의 상세 플로우를 도시하는 흐름도이다.
도 10은, 도 4의 스텝 S40에 있어서의 위치 베리에이션 분석의 상세 플로우를 도시하는 흐름도이다.
도 11은, 도 4의 스텝 S50에 있어서의 위치 베리에이션에 의한 학습 데이터 선택 처리의 상세 플로우를 도시하는 흐름도이다.
도 12는, 도 2에 도시하는 레시피 작성부의 GUI의 표시 화면예를 도시하는 도면이다.
도 13은, 도 3에 도시하는 교시 데이터 작성부의 GUI의 표시 화면예이며, 학습 데이터의 참값 부여 실행 시에 있어서의 상태를 도시하는 도면이다.
도 14는, 본 발명의 일 실시예에 관한 화상 생성부의 개요를 도시하는 도면이다.
도 15는, 본 발명의 다른 실시예에 관한 화상 생성부의 개요를 도시하는 도면이다.
도 16은, 도 15에 도시하는 학습 데이터 선택부의 처리 플로우를 도시하는 흐름도이다.
도 17은, 도 16의 스텝 S60에 있어서의 프로세스 변동 분석의 상세 플로우를 도시하는 흐름도이다.
도 18은, 도 16의 스텝 S70에 있어서의 프로세스 변동 학습 데이터 선택의 상세 플로우를 도시하는 흐름도이다.
도 19는, 반도체 계측 시스템의 전체 개략 구성도이다.
도 20은, 주사 전자 현미경의 개략 구성도이다.
도 21은, 패턴의 종과 횡의 에지 화소를 산출하는 개략 설명도이며, 도 21의 (a)는 설계 데이터에 있어서의 정점 좌표를, 도 21의 (b)는 설계 데이터 화상을, 도 21의 (c)는 에지 화상을, 도 21의 (d)는 종 에지와 횡 에지의 화소수를 도시하는 도면이다.
도 22는, 화상 생성부 및 평가 장치의 전체 개략 구성도이다.
이하에 설명하는 실시예에서 예시하는 패턴 검사 시스템을 구성하는 화상 생성부는, 기계 학습을 활용한 반도체 검사에서의 학습 데이터의 소량화 및 학습 시간의 단기간화를 도모하기 위한 것이다. 또한, 그 구체적인 일례로서, 설계 데이터와 SEM 촬영 조건을 사용하여 학습용 화상 데이터 세트를 생성하는 예를 나타낸다.
본 명세서에서는, 기계 학습을 활용한 반도체 검사에서의 학습 데이터를 생성하는 기능을 구비한 장치, 즉 패턴 검사 시스템에 대하여 설명한다. 패턴 검사 시스템으로서 사용되는 하전 입자선 장치는, 예를 들어 시료 상에 이온 빔을 주사하여 화상을 형성하는 집속 이온 빔(Focused Ion Beam: FIB) 장치, 시료 상에 전자 빔을 주사하여 화상을 형성하는 주사 전자 현미경(SEM), 및 측정 장치의 일종인 측장용 주사 전자 현미경(Critical Dimension-Scanning Electron Microscope: CD-SEM) 등을 포함한다. 단, 미세화가 진행되는 패턴을 고정밀도로 측정하기 위해서는, 매우 높은 배율이 요구되기 때문에, 일반적으로 분해능의 면에서 FIB 장치보다 우수한 SEM을 사용하는 것이 바람직하다.
도 19는 반도체 계측 시스템의 전체 개략 구성도이며, 복수의 측정 혹은 검사 장치가 네트워크에 접속된 측정, 검사 시스템의 개략 설명도이다. 도 19에 도시하는 반도체 계측 시스템에는, 주로 반도체 웨이퍼나 포토마스크 등의 패턴 치수를 측정하는 CD-SEM(2401)(측장 SEM이라고도 칭해짐), 시료에 전자 빔을 조사함으로써, 화상을 취득하고 당해 화상과 미리 등록되어 있는 참조 화상의 비교에 기초하여 결함을 추출하는 결함 검사 장치(2402)가 네트워크에 접속된 구성으로 되어 있다. 또한, 네트워크에는, 반도체 디바이스의 설계 데이터 상에서, 측정 위치나 측정 조건 등을 설정하는 조건 설정 장치(2403), 반도체 디바이스의 설계 데이터와, 반도체 제조 장치의 제조 조건 등에 기초하여, 패턴의 성과를 시뮬레이션하는 시뮬레이터(2404), 및 반도체 디바이스의 레이아웃 데이터나 제조 조건이 등록된 설계 데이터가 기억되는 기억 매체(2405)가 접속되어 있다.
설계 데이터는, 예를 들어 GDS 포맷이나 OASIS 포맷 등으로 표현되고 있으며, 소정의 형식으로 기억되어 있다. 또한, 설계 데이터는, 설계 데이터를 표시하는 소프트웨어가 그 포맷 형식을 표시할 수 있고, 도형 데이터로서 취급할 수 있다면, 그 종류는 불문한다. 또한, 기억 매체(2405)는, 측정 장치, 검사 장치의 제어 장치, 혹은 조건 설정 장치(2403), 시뮬레이터(2404)에 내장되도록 해도 된다. 또한, CD-SEM(2401) 및 결함 검사 장치(2402)에는, 각각의 제어 장치가 구비되고, 각 장치에 필요한 제어가 행해지지만, 이들 제어 장치에, 시뮬레이터(2404)의 기능이나 측정 조건 등의 설정 기능을 탑재하도록 해도 된다.
SEM에서는, 전자원으로부터 방출되는 전자 빔이 복수단의 렌즈에 집속됨과 함께, 집속된 전자 빔은 주사 편향기에 의해, 시료 상을 일차원적, 혹은 이차원적으로 주사된다. 전자 빔의 주사에 의해 시료로부터 방출되는 이차 전자(Secondary Electron: SE) 혹은 후방 산란 전자(Backscattered Electron: BSE)는, 검출기에 의해 검출되고, 주사 편향기의 주사에 동기하여, 프레임 메모리 등의 기억 매체에 기억된다. 이 프레임 메모리에 기억되어 있는 화상 신호는, 제어 장치 내에 탑재된 연산 장치에 의해 적산된다. 또한, 주사 편향기에 의한 주사는 임의의 크기, 위치 및 방향에 대하여 가능하다.
이상과 같은 제어 등은, 각 SEM의 제어 장치에서 행해지며, 전자 빔의 주사 결과, 얻어진 화상이나 신호는, 통신 회선 네트워크를 통하여 조건 설정 장치(2403)에 보내진다. 또한, 본 예에서는, SEM을 제어하는 제어 장치와, 조건 설정 장치(2403)를 별체의 것으로서 설명하고 있지만, 이것에 한정되지 않고, 조건 설정 장치(2403)에서 장치의 제어와 측정 처리를 일괄하여 행하도록 해도 되고, 각 제어 장치에서, SEM의 제어와 측정 처리를 함께 행하도록 해도 된다.
또한, 상기 조건 설정 장치(2403) 혹은 제어 장치에는, 측정 처리를 실행하기 위한 프로그램이 기억되어 있고, 당해 프로그램에 따라 측정, 혹은 연산이 행해진다.
또한, 조건 설정 장치(2403)는, SEM의 동작을 제어하는 프로그램(레시피)을, 반도체의 설계 데이터에 기초하여 작성하는 기능이 구비되어 있고, 레시피 설정부로서 기능한다. 구체적으로는, 설계 데이터, 패턴의 윤곽선 데이터, 혹은 시뮬레이션이 실시된 설계 데이터 상에서 원하는 측정점, 오토 포커스, 오토 스티그마, 어드레싱점 등의 SEM에 있어서 필요한 처리를 행하기 위한 위치 등을 설정하고, 당해 설정에 기초하여, SEM의 시료 스테이지나 편향기 등을 자동 제어하기 위한 프로그램을 작성한다.
이하에서는 도면을 사용하여, 하전 입자선 장치로서, CD-SEM(측장 SEM이라고도 칭해짐)을 일례로 들어 실시예를 설명한다.
<실시예 1>
도 20은, 주사 전자 현미경의 개략 구성도이다. 전자원(2501)으로부터 인출 전극(2502)에 의해 인출되고, 도시하지 않은 가속 전극에 의해 가속된 전자 빔(2503)은, 집속 렌즈의 일 형태인 콘덴서 렌즈(2504)에 의해 포커싱된 후에, 주사 편향기(2505)에 의해, 시료(2509) 상을 일차원적, 혹은 이차원적으로 주사된다. 전자 빔(2503)은, 챔버(2507) 내의 시료대(2508)에 내장된 전극에 인가된 부전압에 의해 감속됨과 함께, 대물 렌즈(2506)의 렌즈 작용에 의해 집속되어 시료(2509) 상에 조사된다.
전자 빔(2503)이 시료(2509)에 조사되면, 당해 조사 개소로부터 이차 전자, 및 후방 산란 전자를 포함하는 전자(2510)가 방출된다. 방출된 전자(2510)는, 시료에 인가되는 부전압에 기초하는 가속 작용에 의해, 전자원 방향으로 가속되고, 변환 전극(2512)에 충돌하여, 이차 전자(2511)를 발생시킨다. 변환 전극(2512)으로부터 방출된 이차 전자(2511)는, 검출기(2513)에 의해 포착되고, 포착된 이차 전자량에 의해, 검출기(2513)의 출력 I가 변화한다. 이 출력 I에 따라 도시하지 않은 표시 장치의 휘도가 변화한다. 예를 들어 이차원상을 형성하는 경우에는, 주사 편향기(2505)에 대한 편향 신호와, 검출기(2513)의 출력 I의 동기를 취함으로써, 주사 영역의 화상을 형성한다. 또한, 도 20의 예에서는 시료(2509)로부터 방출된 전자(2510)를 변환 전극(2512)에서 일단 변환하여 검출하는 예에 대하여 설명하고 있지만, 물론 이러한 구성에 한정되지 않고, 예를 들어 가속된 전자의 궤도 상에, 전자 배상관이나 검출기의 검출면을 배치하는 구성으로 하는 것도 가능하다. 제어 장치(2514)는, 주사 전자 현미경의 각 구성을 제어함과 함께, 검출된 전자에 기초하여 화상을 형성하는 기능이나, 라인 프로파일이라고 불리는 검출 전자의 강도 분포에 기초하여, 시료 상에 형성된 패턴의 패턴 폭을 측정하는 기능을 구비하고 있다.
이어서, 기계 학습의 학습용 화상 데이터 생성 및 평가 장치의 전체 개략 구도를 도 22에 도시한다. 설계 데이터(101)와 SEM 촬영 조건(102)을 화상 생성부(1)에 입력하여, 학습용 화상 데이터가 생성되고, 학습용 화상 데이터 기억부(203)에 보존된다. 모델 생성부(30)는, 학습용 화상 데이터를 학습하고, 화상 검사를 행하기 위한 모델(303)을 생성한다. 모델 평가부(40)는, 모델(303)을 사용하여 평가용 화상 데이터 기억부(401)로부터 화상 데이터를 취출하여, 평가를 행하고, 평가 결과(402)를 생성한다. 도 22에 점선으로 나타내는 바와 같이, 평가 장치는, 이들 설계 데이터(101), SEM 촬영 조건(102), 화상 생성부(1), 학습용 화상 데이터 기억부(203), 모델 생성부(30), 모델(303), 모델 평가부(40) 및 평가용 화상 데이터 기억부(401)로 구성되어 있다.
화상 생성부(1) 및 모델 생성부(30), 모델 평가부(40)의 일 양태를 설명한다. 화상 생성부(1) 및 모델 생성부(30) 및 모델 평가부(40)는, 제어 장치(2514) 내에 내장, 혹은 화상 처리 기능이 내장된 연산 장치로 실행하는 것도 가능하고, 네트워크를 경유하여, 외부의 연산 장치(예를 들어, 조건 설정 장치(2403))로 화상 생성을 실행하는 것도 가능하다.
도 1은, 본 발명의 일 실시예에 관한 화상 생성부(1)를 구성하는 학습 데이터 선택부의 개요를 도시하는 도면이다. 즉, 기계 학습의 학습용 화상 데이터를 생성하기 위해, SEM 촬영 좌표 리스트를 작성하는 학습 데이터 선택부(103)의 일례를 설명하는 도면이다. 학습 데이터 선택부(103)는, 설계 데이터(101) 및 SEM 촬영 조건(102)을 사용하여, 학습에 적합한 화상을 취득하기 위해 촬영 위치의 좌표를 구하고, 학습용 화상 좌표 리스트(104)로서 출력한다.
도 4는, 도 1에 도시하는 학습 데이터 선택부(103)의 처리 플로우를 도시하는 흐름도이다. 기계 학습을 화상 검사에 적용하는 경우, 검사 대상으로 되는 피사체의 베리에이션을 망라적으로 학습할 필요가 있다. 이 예에서는 반도체 디바이스의 설계 데이터와 SEM의 촬영 조건을 사용하여, 반도체 디바이스 상의 패턴 형상의 베리에이션을 망라하도록 학습 데이터를 효율적으로 선택하는 예를 설명한다. 반도체의 경우, 제조 프로세스의 변동에 따라, 반도체 디바이스 상의 패턴의 형성 위치에 따라, 패턴 형상의 변형량이 상이하기 때문에, 패턴 형상의 베리에이션 외에, 패턴 형성 위치를 고려한 선택이 유효하다. 이하, 개요를 설명한 후, 각각의 처리의 상세를 설명한다.
도 4에 도시하는 바와 같이, 학습 데이터 선택부(103)는, 스텝 S10에서, 처음에 FOV(Field Of View: 촬상 시야라고도 칭해짐) 설계 데이터 잘라내기 처리를 실행한다. 즉, SEM 촬영 조건(102)에 대응하는 설계 데이터(101) 상의 위치와 취득할 화상 사이즈로 설계 데이터(101)를 잘라낸다. 예를 들어, 촬영 위치 X, Y에서 FOV가 2㎛인 경우에는 X, Y 좌표를 중심으로 2㎛ 사이즈의 크기로 설계 데이터(101)를 잘라낸다. 미리 설계 데이터(101)를 묘화하고 나서 설계 데이터(101)의 화상을 잘라내도 되고, 잘라내기 영역을 구하고 잘라내기 영역에 대응하는 설계 데이터를 묘화해도 된다.
계속해서, 학습 데이터 선택부(103)는, 스텝 S20에서, 형상 베리에이션 분석 처리를 실행한다. 즉, 스텝 S10에서 잘라낸 설계 데이터 화상으로부터 패턴의 형상이나 패턴의 밀도에 관한 특징을 구한다.
그리고, 스텝 S30에서는, 학습 데이터 선택부(103)가 형상 베리에이션 학습 데이터 선택 처리를 실행한다. 즉, 스텝 S20에서 구한 패턴의 형상이나 패턴의 밀도로부터 얻은 지표를 사용하여 학습 데이터에 적합한 패턴을 하나 이상 선택한다.
이어서 스텝 S40에서는, 학습 데이터 선택부(103)가 위치 베리에이션 분석 처리를 실행한다. 즉, 스텝 S30에서 선택한 패턴의 동일한 형상의 패턴을 설계 데이터(101)로부터 검출한다. 위치 베리에이션 분석 처리에서는 하나 이상의 동형 패턴의 좌표 위치를 구한다.
스텝 S50에서는, 학습 데이터 선택부(103)가 위치 베리에이션 학습 데이터 선택 처리를 실행한다. 즉, 스텝 S40에서 구한 동형 패턴의 좌표 위치를 사용하여 학습 데이터에 적합한 패턴을 선택한다.
이상의 처리를 설계 데이터(101)로부터 잘라낸 모든 국소적인 설계 데이터에 대하여 행한다. SEM의 촬영 조건의 제약으로 FOV 사이즈가 작은 경우, 대량으로 잘라내어진 설계 데이터의 분석이 필요하게 되므로, 분석수를 한정해도 된다. 예를 들어, 미리 설정한 수의 좌표를 랜덤하게 선정하고, 그 좌표에 대응하는 설계 데이터만을 한정하여 분석해도 되고, 설계 데이터를 소정의 간격으로 샘플링한 좌표를 선정하고, 그 좌표에 대응하는 설계 데이터만을 한정하여 분석해도 된다.
도 5는, 도 4의 스텝 S20에 있어서의 형상 베리에이션 분석의 상세 플로우를 도시하는 흐름도이다. 스텝 S201에서는, 학습 데이터 선택부(103)가 종/횡 에지 비율 분석 처리를 실행한다. 즉, 설계 데이터 화상을 사용하여 패턴의 종 에지와 횡 에지의 비율을 산출한다. 설계 데이터는 주로 종방향과 횡방향의 직사각형 패턴이기 때문에, 종 에지와 횡 에지의 비율로부터 패턴 형상의 경향을 파악할 수 있다.
계속되는 스텝 S202에서는, 학습 데이터 선택부(103)가 패턴 간격 분석 처리를 실행한다. 즉, 설계 데이터 화상으로부터 패턴의 폭 및 간격을 산출한다.
그리고, 스텝 S203에서는, 학습 데이터 선택부(103)가 패턴 밀도 분석 처리를 실행한다. 즉, 설계 데이터로부터 작성한 설계 데이터 화상을 사용하여 패턴의 밀도를 산출한다. 패턴 밀도는, 패턴의 개수나 면적 등을 사용함으로써 산출할 수 있다.
도 6은, 도 5의 스텝 S201에 있어서의 종/횡 에지 비율 분석의 상세 플로우를 도시하는 흐름도이다. 도 6에 도시하는 바와 같이, 스텝 S2011에서는, 설계 데이터로부터 종 에지와 횡 에지의 수를 검출하는 종/횡 에지 성분 검출 처리를 실행한다.
스텝 S2012에서는, 스텝 S2011에서 검출한 종/횡 에지 성분의 화소수를 카운트하는 종/횡 에지 화소수 카운트 처리를 실행한다.
스텝 S2013에서는, 스텝 S2012에서 카운트한 종/횡 에지 화소로부터 종/횡 에지의 비율을 산출하는 종/횡 에지 비율 산출 처리를 실행한다.
여기서, 도 21에, 설계 데이터로부터 패턴의 종과 횡의 에지 화소를 산출하는 개략 설명도를 도시한다. 도 21의 (a)에 도시하는 설계 데이터의 정보인 폐도형의 정점 좌표 A, B, C, D에 기초하여, 도 21의 (b)에 도시하는 설계 데이터 화상을 작성할 수 있다. 이 예에서는, 폐도형 내에 패턴이 존재하기 때문에, 폐도형 내가 흑색으로 칠해지고, 패턴이 존재하지 않는 폐도형의 외측은 백색으로 칠해진다. 도 21의 (b)에 도시하는 설계 데이터 화상에 대하여 에지 검출을 행함으로써, 도 21의 (c)에 도시하는 에지 화상을 얻을 수 있다. 이것은, 도 6에 도시한 스텝 S2011에 있어서의 종/횡 에지 성분 검출 처리에 상당한다. 이 도 21의 (c)에 도시하는 에지 화상으로부터 세로선에 포함되는 에지의 화소수와 가로선에 포함되는 에지의 화소수를 나누어 카운트함으로써, 도 21의 (d)에 도시하는 종 에지와 횡 에지의 화소수를 취득할 수 있다. 이것은, 도 6에 도시한 스텝 S2012에 있어서의 종/횡 에지 화소수 카운트 처리에 상당한다. 이 종/횡 에지의 화소수를 사용하여 종/횡 에지의 비율을 산출할 수 있다.
도 7은, 도 5의 스텝 S202에 있어서의 패턴 간격 분석의 상세 플로우를 도시하는 흐름도이다. 처음에 스텝 S2021에서, 행/열의 샘플링에서 설계 데이터 화상에 대하여, 행방향(x 방향)과 열방향(y 방향)으로 서치하여, 패턴의 유무를 검출하고, 패턴의 폭, 간격을 산출하여 기억한다. 서치는 1행, 1열마다 행해도 되고, 복수행, 복수열마다 건너뛰어 행함으로써 처리 시간의 단축을 도모해도 된다.
스텝 S2022에서는, 패턴 간격 최대/최솟값/평균값 검출 처리를 실행한다. 즉, 스텝 S2021에서 행/열의 샘플링에서 기억한 패턴의 폭, 간격에 기초하여, 그 최댓값과 최솟값 및 평균값을 산출한다.
도 8은, 도 5의 스텝 S203에 있어서의 패턴 밀도 분석의 상세 플로우를 도시하는 흐름도이다. 스텝 S2031에서는, 설계 데이터로부터 설계 데이터 화상을 생성하고, 설계 데이터 화상에 Grid를 설정하는 화상 Grid 설정 처리를 실행한다.
스텝 S2032에서는, 패턴이 포함되는 Grid의 수를 카운트하고, 스텝 S2033에서는, 전체 Grid의 패턴 밀도를 산출한다.
도 9는, 도 4의 스텝 S30에 있어서의 형상 베리에이션에 의한 학습 데이터 선택 처리의 상세 플로우를 도시하는 흐름도이다. 형상 베리에이션 학습 데이터 선택 처리는, 종/횡 에지의 비율과 패턴 간격, 패턴 밀도의 값을 이용하여 형상 베리에이션을 고려한 학습 데이터(샘플)를 선택한다.
도 9에 도시하는 바와 같이 처음에, 스텝 S301에서는, 학습 데이터 선택부(103)가, 형상 클러스터링 처리를 실행하고, 종/횡 에지의 비율과 패턴 간격, 패턴 밀도의 값을 사용하여 클러스터링하고, 하나 이상의 클래스로 나눈다. 클러스터링의 방법은 예를 들어, k-means법 등의 기지의 기술로 실현할 수 있다. 계속해서, 스텝 S302에서는, 학습 데이터 선택부(103)가, 각 클러스터로부터 n개(n≥1)의 샘플을 선택한다. 학습 데이터에 적합한 샘플은, 패턴의 형상이나 밀도에 대하여, 치우침 없이 망라적으로 되도록 선택하는 것이 바람직하다. 그를 위해, 샘플간에서 종/횡 에지의 비율, 패턴 간격 및 패턴 밀도의 값의 차분이 커지도록 샘플을 선택하고, 마찬가지 경향의 샘플에 치우치지 않도록 하면 된다. 충분한 수를 샘플로서 선택할 수 있는 경우에는 랜덤하게 선택해도 된다. 예를 들어, 매수가 적은 경우에는, 샘플간에서 종/횡 에지의 비율 및 패턴 간격, 패턴 밀도의 값의 차분이 커지도록 샘플을 선택하고, 선택하는 샘플수가 다량인 경우에는 랜덤하게 선택하는 등, 샘플 매수에 따라 선택 방법을 전환해도 된다. 샘플 매수는 디폴트로 미리 결정해 두어도 되고, 유저가 설정해도 된다. 설계 데이터의 패턴 베리에이션 분석 처리의 종/횡 에지의 비율, 패턴 간격과 밀도의 값을 사용한 통계 처리나 실험값에 기초하는 변환 테이블을 사용하여 구해도 된다.
도 10은, 도 4의 스텝 S40에 있어서의 위치 베리에이션 분석의 상세 플로우를 도시하는 흐름도이다. 위치 베리에이션 분석 처리는, 스텝 S30에서 형상 베리에이션 학습 데이터 선택 처리에서 선택한 전체 샘플의 형상에 기초하여, 설계 데이터 상을 탐색하여 동형 패턴을 검출하고, 그 위치 좌표를 기억한다.
구체적으로는, 도 10에 도시하는 바와 같이, 스텝 S30에서 선택된 패턴을 집합 A, 스텝 S30에서 선택된 패턴의 수를 N이라고 하였을 때, i=1로 하고, 스텝 S401에서, 학습 데이터 선택부(103)가 i≤N인지 여부를 판정한다. 판정 결과, i가 N을 초과하는 경우에는 처리를 종료한다. 한편, 판정 결과, i≤N인 경우에는 스텝 S402로 진행한다.
스텝 S402에서는, 학습 데이터 선택부(103)가, 집합 A로부터 i번째 패턴 Pi를 취출하고, 스텝 S403으로 진행한다.
스텝 S403에서는, 학습 데이터 선택부(103)는 설계도(설계 데이터)로부터 패턴 Pi에 유사한 패턴의 위치를 탐색하고, 집합 Bi에 기억하고, 스텝 S401로 되돌아가 반복 처리를 실행한다.
또한, 동형 패턴의 검출은, 샘플의 화상을 템플릿으로 한 템플릿 매칭으로 실현할 수 있다. 정규화 상관 등의 기지의 기술로 얻은 화상의 유사도가 특정한 역치보다 높은 경우에, 동형 패턴으로서, 그 위치 좌표를 기억한다. 또한, 웨이퍼 상을 상정하여 검출 위치를 구하는 것도 고려된다. 웨이퍼 상에는 설계 데이터를 기초로 Chip이 복수 생성된다. 그들 Chip은 동일한 회로 패턴이기 때문에, 예를 들어 Chip의 설계 데이터 상에 유사 패턴이 하나도 없는 경우에도, 웨이퍼 상에는 복수의 Chip이 생성된다는 점에서, 반드시 동형 패턴이 복수 존재하게 되며, 그것들을 상정하여 동형 패턴의 검출 위치를 기억하는 것도 고려된다. 바꾸어 말하면, 웨이퍼 상에 형성된 복수의 Chip의 회로 패턴(모든 Chip의 회로 패턴은 동일)에 있어서, 각 Chip의 회로 패턴 중에, FOV의 설정에 의해, 당해 FOV 내의 회로 패턴의 특징 형상(특징량)이, Chip 내의 다른 회로 패턴에는 존재하지 않고, 이 특징 형상(특징량)이 웨이퍼 상에 형성된 모든 Chip의 회로 패턴에서 동일하게 됨을 의미한다.
도 11은, 도 4의 스텝 S50에 있어서의 위치 베리에이션에 의한 학습 데이터 선택 처리의 상세 플로우를 도시하는 흐름도이다. 스텝 S501에서는, 학습 데이터 선택부(103)가, 패턴별로 기억한 동형 패턴이 존재하는 복수의 위치 좌표의 데이터를 클러스터링하고, 하나 이상의 클래스로 나눈다. 클러스터링은 상술한 스텝 S301과 마찬가지로 실현할 수 있다. 계속해서, 스텝 S502에서는, 나눈 클래스로부터 각각 m개(m≥1)의 샘플을 랜덤하게 선택한다. 그리고, 선택한 샘플의 화상 좌표를 학습용 화상 좌표 리스트(104)로서 출력한다.
웨이퍼에 패턴을 전사할 때, 설계 데이터 상에서 동형 패턴이라도, 프로세스 변동으로 패턴 형상은 변화한다. 그래서, 위치 베리에이션 학습 데이터 선택 처리(스텝 S50)에서는, 발생하는 패턴 형상의 변동을 학습 데이터로서 추가하기 위해, 동형 패턴에서 위치 좌표가 상이한 데이터를 선택한다.
본 방법에서는, 형상 베리에이션 분석 처리(스텝 S20) 및 형상 베리에이션 학습 데이터 선택 처리(스텝 S30)에 의해, 패턴 형상에 치우침을 없앰으로써 범화(汎化) 성능에 기여하는 학습에 적합한 샘플을 취득할 수 있다. 또한, 위치 베리에이션 분석 처리(스텝 S40) 및 위치 베리에이션 학습 데이터 선택 처리(스텝 S50)에 의해, 실제로 발생하는 형상 변동에 대하여 로버스트한 식별기의 생성에 기여하는 학습 데이터를 작성하는 것이 가능하게 된다. 여기서, 예를 들어 어그멘테이션으로 패턴 형상을 왜곡시키는 등의 화상 처리를 실시한 학습 데이터를 추가하여 학습시켜, 형상 변동에 로버스트한 식별기를 생성하는 것이 고려되지만, 추가하는 형상의 왜곡의 크기가 실제로 발생하는 왜곡과 상이한 경우에는 식별 성능이 열화될 가능성이 있다.
이에 비해, 본 방법에서는 실제로 발생하는 형상의 변동을 학습 데이터로서 추가하기 때문에, 안정되게 식별 성능을 향상시킬 수 있다.
이어서, 화상 촬영부(20)에 대하여 설명한다. 도 2는, 본 발명의 일 실시예에 관한 화상 생성부(1)를 구성하는 화상 촬영부(20)의 개요를 도시하는 도면이다. 도 2에 도시하는 바와 같이, 화상 촬영부(20)는, 학습용 화상 좌표 리스트(104)로부터 레시피 작성부(201)에서 SEM 촬영하기 위한 레시피를 작성하고, 작성한 레시피에 기초하여 촬영부(202)에서 SEM 촬영하고 학습용 화상 데이터 기억부(203)에 저장한다. 여기서 레시피 작성부(201)를 도 12에 도시하는 바와 같은 GUI의 표시 화면에 표시하여 유저가 확인할 수 있도록 하는 것이 고려된다. 설계 데이터에 의한 설계 도형과 그 좌표를 대응시켜 표시시켜 확인하거나, 유저의 지시로 표시한 좌표를 학습용 화상 좌표 리스트(104)에 추가 또는 삭제가 가능하도록 해도 된다.
계속해서, 모델 생성부(30)에 대하여 설명한다. 도 3은, 모델 생성부(30)와 모델 평가부(40)의 개요를 도시하는 도면이다. 모델 생성부(30)는 학습용 화상 데이터 기억부(203)에 저장한 학습용 화상에 대하여, 교시 데이터 작성부(301)에서 대응하는 교시 데이터를 유저가 화소별 또는 화상별로 부여한다. 그리고 학습부(302)에서 학습용 화상과 그것에 대응하는 교시 데이터의 관계를 학습하여, 모델(303)을 작성한다. 학습부(302)는 기계 학습에서 사용되는 식별기로 실현할 수 있다. 예를 들어, 심층 학습 등의 다층의 신경망(예를 들어, CNN)에 의한 식별기로 실현할 수 있다.
화소별 교시 데이터가 필요한 케이스로서, 심층 학습에 의한 시맨틱 세그멘테이션을 들 수 있다. 이 태스크에서는, 화상의 각 화소에 대하여 라벨을 부여한다. 이 라벨은 해당 화소의 종류를 의미한다. 학습부(302)에서 화상으로부터 화소별 라벨을 추정하는 모델을 학습한다. 예를 들어, 회로 패턴의 SEM 화상으로부터 회로 패턴의 윤곽선을 추출하는 반도체 검사용 식별기의 모델을 작성하는 경우, 교시 데이터의 일례로서는, 윤곽선의 화소는 적색, 그 이외의 화소는 청색으로 하는 영역 분할의 라벨을 RGB의 8bit 신호로서 표현한 화상의 교시 데이터를 작성한다. 패턴의 내측, 외측 및 윤곽선으로 나누어 각각 색 구분한 교시 데이터를 작성해도 된다. 대상으로 되는 회로 패턴이 복수층에 걸치는 경우, 각 층 패턴의 내측, 외측 및 윤곽선을 각각 미세하게 색 구분한 교시 데이터를 작성하면 된다. 그때에는, GUI에 학습용 화상 좌표 리스트(104)에 기초한 학습용 화상을 표시시켜, 그 화상 상에 교시 데이터를 겹쳐 눈으로 보고 확인하면서 작성한다. 또한, 윤곽선 등의 가는 교시 데이터를 작성할 때에는 펜 태블릿을 사용하여 작성하는 것이 바람직하다. 복수층에서 각 층별로 패턴의 내측, 외측 및 윤곽선으로 나누어 색 구분할 때, 각각의 색을 결정할 필요가 있다. 학습에 사용하는 데이터 세트의 참값 부여에서는, 윗층에서부터의 번호(몇층째인지를 나타냄), 패턴의 내측, 패턴의 외측, 윤곽선 등의 속성에 대응하는 색을 결정하여, 전체 데이터를 통일할 필요가 있다. 또한, 상이한 데이터 세트라도, 나중에 그들 데이터 세트를 함께 학습할 가능성도 있어, 데이터 세트에 한하지 않고, 예를 들어 윤곽선을 추출하는 식별기를 평가하는 데이터 세트는, 모든 데이터 세트에서 속성과 색의 대응을 맞춰 두는 것이 바람직하다. 그때, 학습 데이터의 SEM 화상에 대응하는 설계 데이터를 사용함으로써, 그 SEM 화상의 참값 부여에 필요하게 되는 속성의 수, 속성의 종류(층의 번호, 패턴의 내측, 패턴의 외측, 패턴의 윤곽선)를 구할 수 있다. 속성의 수에 대해서는, 단층 패턴의 SEM 화상이라면, 패턴의 내측, 패턴의 외측, 패턴의 윤곽선의 3개이며, 2층 패턴의 SEM 화상이라면, 1층째와 2층째의 패턴의 내측, 패턴의 외측, 패턴의 윤곽선으로 6개가 되어, 속성의 수는 층수×3으로 된다. 예를 들어, 패턴의 내측, 외측의 경계를 윤곽선이라고 생각하고, 패턴의 내측, 외측만을 참값 부여하는 것이라면, 속성의 수는 층수×2로 된다. 속성의 수에 대응하는 색은, 유저가 임의로 결정하는 것도 고려되며, 미리, 속성의 종류에 따라 속성의 수에 대응한 색을 결정해 두는 것이 바람직하다. 그때, 랜덤으로 결정해도 되고, 각각의 색이 보이기 쉬워지도록 색 공간 상에서 선명한 색을 선택하거나, 각각의 색이 색 공간 상에서 거리가 균등해지도록 선택하거나, 또는 가장 거리가 이격되도록 색을 결정해도 된다. 또한, 설계 데이터에 기초하여 패턴의 내측(패턴 영역)과 패턴의 외측(비패턴 영역)과, 그 경계를 패턴의 윤곽선으로 하여, 각각의 속성에 대응하는 색을 부여한 추정 참값 화상을 작성하는 것도 고려된다. 작성한 추정 참값 화상을 표시 화면 상에 표시하고, 이 추정 참값 화상을 참고로 유저가 참값 부여하는 것도 고려된다. 그때, 추정 참값 화상의 전체 속성의 색의 팔레트를 표시해 두고, 그 팔레트의 색을 지정함으로써, 예를 들어 펜 태블릿의 펜의 색이, 그 팔레트의 색으로 되도록 해도 된다.
또한, 표시 화면 상에 표시한 추정 참값 화상을 참값 부여 대상의 SEM 화상에 겹쳐 표시하고, 추정 참값 화상을 가공하여 참값 화상을 작성하는 것도 고려된다. 그때에는, 겹쳐 표시하고 있는 SEM 화상을 보면서 추정 참값 화상의 패턴과 비패턴의 경계(윤곽선)의 일부분, 혹은 1점을 유저가 펜 태블릿으로 이상적인 윤곽선의 위치로 이동시키도록 하는 것이 고려된다. 이동하는 윤곽선의 일부분, 혹은 1점에 이어지는 다른 윤곽선의 점도 이동에 맞추어 이동하도록 해 두는 것이 고려된다. 그 이동량은 유저가 지시하고 있는 윤곽선의 일부, 혹은 1점으로부터의 거리가 멀어질수록, 이동량이 감소하도록 한다. 그리고, 패턴 영역과 비패턴 영역의 경계도 이동한 윤곽선에 맞추어 바꾸는 것이 고려된다.
또한, 설계 데이터뿐만 아니라, 공정 정보에 따라 속성의 종류, 속성의 수에 대응하는 색을 결정하는 것도 고려된다. 그 경우에는, 설계 데이터와 공정 정보를 사용하여 추정 참값 화상을 작성한다. 그때, 트렌치 내에 비아가 존재하는 비아 인 트렌치 등의 구조의 속성의 색은 별도로 관리하는 것도 고려된다.
또한, 유저가 작성한 참값 화상 데이터에 대하여, 윤곽선을 굵게 하거나, 가늘게 하거나 하는 기능을 구비해 두고, 유저의 지시에 따라, 예를 들어 유저가 그은 1화소의 윤곽선을 3화소로 굵게 하거나, 10화소의 윤곽선을 5화소로 가늘게 하는 것이 고려된다.
또한, 참값 데이터 작성에서는 시뮬레이션에 의해, 설계 데이터로부터 SEM 화상의 윤곽선을 추정하고, 그것에 기초하여 참값 부여를 하는 것도 고려된다.
또한, 학습 대상 외의 영역으로서 마스크 영역을 두는 것도 고려된다. 또한, 식별 대상으로 되는 영역이 작은 경우에는, 학습의 가중치를 바꿈으로써 식별 성능이 향상된다. 그 때문에, 유저가 작성한 참값 데이터의 데이터 세트 전체를 해석하여 식별하는 속성의 종류의 영역에 큰 차가 존재하는 경우에는, 그 차에 따라 각 속성의 학습의 가중치를 변경한다. 예를 들어, 데이터 세트 전체에서 3종의 속성의 영역의 비율이 100:100:1인 경우에는, 각 속성의 학습의 가중치를 1:1:100으로 바꾸는 것이 고려된다.
여기서는, 유저가 작성한 참값 데이터의 데이터 세트 전체를 해석하지만, 데이터 세트 전체의 설계 데이터를 해석함으로써 마찬가지로 각 속성의 영역의 비율을 구하여 각 속성의 학습의 가중치를 변경하는 것이 고려된다. 또한, 유저가 경험적으로 각 속성의 학습의 가중치를 설정하는 것도 고려된다.
또한, 결함의 식별기의 생성에서는, 화상 내의 결함 영역을 유저가 색 구분하여 참값 부여를 행하여 학습함으로써, 화상 내에 포함되는 결함의 영역을 검출하는 식별기를 작성하는 것도 고려된다. 그때, 결함의 영역 또는 정상적인 영역에 색 구분을 하여 참값 부여를 해도 된다. 이상은 RGB의 24bit 신호로서 라벨을 작성하는 예를 나타내었지만, 라벨에 대해서는 식별기가 인식할 수 있는 정보이면 되므로, 이것에 한정되는 것은 아니다.
화상별 교시 데이터가 필요한 케이스로서, 심층 학습에 의한 화상 분류를 들 수 있다. 이 태스크에서, 각 화상에 대하여 화상의 종류를 선택하고, 그 종류를 의미하는 라벨을 교시 데이터로서 부여한다. 학습부(302)에서 화상으로부터 해당 화상의 종류를 추정하는 모델을 학습한다. 예를 들어, 결함 화상을 분류하는 식별기의 모델을 학습하는 경우, 화상별로 결함의 종류의 정보를 태그 부여한 교시 데이터를 작성한다. 이 경우에는, GUI의 표시 화면에 학습 데이터 선택부(103)에서 얻은 학습용 화상 좌표 리스트(104)에 기초한 학습용 화상을 표시시켜, 눈으로 보고 결함종을 확인하면서 결함종의 교시 데이터를 작성한다.
여기서, 생성된 식별기의 모델은 단층과 다층 등으로 나누는 것이 고려된다. 그때, 설계 데이터를 사용하여 식별기의 모델을 선택하는 것이 고려된다. 또한, 학습 데이터 세트를 생성할 때에도, 설계 데이터를 사용하여 단층과 다층 등으로 나누어 학습 데이터 세트를 생성해도 된다.
또한, 마찬가지로 공정 정보를 사용하여 학습 데이터 세트를 생성하고, 공정 정보를 사용하여 식별기의 모델을 선택하는 것이 고려된다.
또한, SEM 화상의 촬영 배율이나 촬영의 프레임 적산수에 의해서도 식별기의 모델을 나누는 것이 고려된다. 그때에는, SEM 촬영 조건 정보를 사용하여, 학습 데이터 세트를 생성하고, 모델을 선택하는 것이 고려된다.
작성한 식별기의 모델의 관리는, 모델명과 그것에 대응하는 모델의 종류를 나타내는 모델 관리표를 작성한다. 모델의 종류로서는, 학습 데이터 세트에 대응하는 설계 데이터로부터 취득한 층수, 공정 정보로부터 취득한 공정, SEM 촬영 조건 정보로부터 취득한 촬영 배율, 프레임 적산수 등을 들 수 있다. 그 이외에도 유저가 추가하고 싶은 정보가 넣어지도록 해도 된다.
화상 데이터를 식별할 때, 화상 데이터의 설계 데이터, 공정 정보, 촬영 조건 정보와 모델 관리표에 기초하여, 대응 가능한 모델인지 확인하여, 대응할 수 없는 상이한 종류의 모델인 경우에는, 유저에게 그 취지의 통지를 하여 알리는 기능을 구비해도 된다.
또한, 식별할 화상 데이터의 설계 데이터, 공정 정보, SEM 촬영 조건 정보와 모델 관리표에 기초하여, 복수의 모델 중에서 가장 적합한 모델을 탐색하여, 식별을 행하는 것도 고려된다.
이상은, 설계 데이터(101)와 SEM 촬영 조건(102)으로부터 학습용 화상 좌표 리스트(104)를 작성하고, 그 좌표에 기초하여 촬영하고, 얻어진 화상 데이터에 대하여 참값 부여를 행하여, 학습용 화상 및 교시 데이터를 작성하는 것이다.
그러나, 촬영한 SEM 화상으로부터 학습용 화상을 선택하고 싶은 경우도 있다. 그를 위해, 이미 촬영한 화상 데이터로부터 학습용 화상을 선택하는 화상 생성부(1)의 개요를 도 14에 도시한다. 단, 이 화상 생성부(1)는 이미 촬영한 화상 데이터에 대응한 설계 데이터(101)와 SEM 촬영 조건(102)이 존재하는 것을 전제로 하고 있다. 입력은 설계 데이터(101)와 SEM 촬영 조건(102)이며, 이들을 입력으로 하여 학습 데이터 선택부(103)에서 학습 데이터를 선택하고, 그것에 대응하는 화상 데이터를 촬영 완료 화상 데이터 기억부(204)로부터 취출하여, 학습용 화상 데이터 기억부(203)에 저장한다. 여기서 사용하는 학습 데이터 선택부(103)는 상술한 학습 데이터 선택부(103)와 거의 마찬가지의 처리로 실현할 수 있다. 상이한 점은, 잘라내는 화상이나 분석할 패턴 형상, 좌표 위치에 대하여, 이미 촬영한 화상에 대응한 형상 및 위치 좌표로 한정된다는 점이다. 예를 들어, 도 4의 스텝 S10에 있어서의 FOV 설계 데이터 잘라내기 처리는, 이미 잘라내어진 설계 데이터(101)가 있기 때문에 생략할 수 있다. 이후는 이미 촬영한 화상에 대응한 형상 및 위치 좌표에 한하여 행함으로써 실현할 수 있다.
최적의 노광 조건의 어긋남 등의 프로세스 변동에 의해 생성되는 패턴 형상은 변화한다. 그 패턴을 촬영한 SEM 화상으로부터도 패턴의 화이트 밴드의 폭이나 조도의 크기가 바뀌는 등에 의해, 어느 정도는 파악할 수 있다고 생각한다.
이상과 같이 본 실시예에 따르면, 학습 데이터의 참값 작성 작업의 수고를 줄이고, 학습 데이터의 소량화를 도모함으로써, 학습 시간의 단기간화를 가능하게 하는 패턴 검사 시스템을 제공하는 것이 가능하게 된다.
또한, 본 실시예에 따르면, 모델(303)(도 22)의 정밀도를 유지하면서 학습 시간의 단축화가 가능하게 된다.
<실시예 2>
도 15는, 본 발명의 다른 실시예에 관한 화상 생성부의 개요를 도시하는 도면이다. 본 실시예에서는, 설계 데이터(101)와 촬영 완료 화상 데이터 기억부(204)로부터의 입력에 기초하여 학습 데이터 선택부(103)에서 학습 데이터를 선택하는 구성으로 하였다는 점이 실시예 1과 상이하다. 실시예 1과 마찬가지의 구성 요소에 동일 부호를 붙이고, 이하에서는 중복되는 설명을 생략한다.
우선 본 실시예에서는, 이미 취득한 화상 데이터가 있는 경우에, 그 화상 데이터로부터 실제로 일어난 프로세스 변동의 정보를 사용하여 학습 데이터를 선택할 수 있다는 것에 착안한 점에 특징을 갖는다. 도 15에 도시하는 바와 같이, 입력은 설계 데이터(101)와 촬영 완료 화상 데이터 기억부(204)이며, 이들을 입력으로 하여 학습 데이터 선택부(103)에서 학습 데이터를 선택하고, 그 화상 데이터를 학습용 화상 데이터 기억부(203)에 저장한다.
도 16은, 도 15에 도시하는 학습 데이터 선택부(103)의 처리 플로우를 도시하는 흐름도이다. 스텝 S20에 있어서의 형상 베리에이션 분석 처리 및 스텝 S30에 있어서의 형상 베리에이션 선택 처리는, 상술한 실시예 1에 있어서의 도 4와 동일하기 때문에 설명을 생략한다. 계속되는, 스텝 S60에서는, 학습 데이터 선택부(103)가, 프로세스 변동 분석 처리를 실행한다. 즉, 스텝 S30에서 선택된 패턴에 대응하는 SEM 화상에 대하여, 프로세스 변동에 의한 변동을 분석한다.
계속해서, 스텝 S70에서는, 학습 데이터 선택부(103)가, 프로세스 변동 학습 데이터 선택 처리를 실행한다. 즉, 스텝 S60에서 분석한 프로세스 변동의 평가값에 기초하여 학습 데이터를 선택한다.
도 17은, 도 16의 스텝 S60에 있어서의 프로세스 변동 분석의 상세 플로우를 도시하는 흐름도이다. 스텝 S601에서는, 학습 데이터 선택부(103)가, 프로세스의 변동에 의해, 패턴 형상이나 패턴 부위에 따라 패턴의 측벽의 기울기가 변화한다는 것이 알려져 있으며, 또한 패턴의 측벽이 변화하면 패턴의 화이트 밴드의 폭이 바뀐다고 생각될 수 있다. 그래서, 화이트 밴드 폭 변동 검출 처리를 실행함으로써 프로세스 변동에 의한 변동을 평가하는 지표로서 화이트 밴드 폭의 변동을 검출한다. 화이트 밴드 폭은 SEM 화상에 대하여 가우스 필터 처리 등으로 노이즈 제거를 행하고, 화이트 밴드가 백색으로 되도록 설정한 역치 2치화로, 백색 영역의 폭의 변동을 구함으로써 검출할 수 있다.
계속해서 스텝 S602에서는, 학습 데이터 선택부(103)가 패턴 내외 판정 처리를 실행한다. 즉, 패턴(패턴 내부)과 패턴 이외(패턴 외부)를 판정한다. 이 경우, SEM 화상과 설계 데이터에 대하여 패턴 매칭으로 위치 정렬을 행하고, 패턴의 내측과 외측을 검출할 수 있다. 또한, 패턴의 내측과 외측에서 농담이 상이한 것을 이용하여 SEM 화상에 대하여 가우스 필터 처리 등으로 노이즈 제거를 행하고, 2치화함으로써 패턴의 내측과 외측을 판별함으로써 실현할 수 있다.
계속해서 스텝 S603에서는, 학습 데이터 선택부(103)가 패턴 내측 휘도 변동 검출 처리를 실행한다. 즉, 패턴 내측의 영역의 휘도값의 변동을 구한다.
계속해서, 스텝 S604에서는, 학습 데이터 선택부(103)가 패턴 외측 휘도 변동 검출 처리를 실행한다. 즉, 패턴 외측의 영역의 휘도값의 변동을 구한다.
여기서, 화이트 밴드 폭 변동 검출 처리(스텝 S601), 패턴 내측 휘도 변동 검출 처리(스텝 S603), 패턴 외측 휘도 변동 검출 처리(스텝 S604)에서는, 휘도값의 변동을 구하였지만, 휘도값의 변동 대신에 휘도값의 최댓값 및 최솟값을 구해도 된다. 또한, 조도의 변동이나 패턴 내외의 노이즈의 변동 등을 구하는 구성으로 해도 된다.
도 18은, 도 16의 스텝 S70에 있어서의 프로세스 변동 학습 데이터 선택의 상세 플로우를 도시하는 흐름도이다. 스텝 S701에서는, 학습 데이터 선택부(103)가, 형상 베리에이션 학습 데이터 선택 처리(스텝 S30)에서 선택된 패턴 형상의 동형 패턴의 화상별로, 프로세스 변동 분석 처리(스텝 S60)에서 검출한 화이트 밴드 폭의 변동, 패턴 내측의 영역의 휘도값의 변동, 패턴 외측의 영역의 휘도값의 변동의 값을 기초로 클러스터링하고, 하나 이상의 클래스로 나눈다. 또한, 클러스터링은 상술한 스텝 S301과 마찬가지로 실현할 수 있다. 계속해서, 스텝 S702에서는, 나눈 클래스로부터 각각 m개(m≥1)의 화상 데이터를 랜덤하게 선택한다. 그리고, 선택한 화상 데이터를 학습용 화상 데이터 기억부(203)에 저장한다.
여기서는, SEM 화상에 대하여, 프로세스 변동에 의한 변동을 분석하여 화상을 선택하지만, SEM 화상을 촬영한 촬영 정보의 촬영 위치로부터, 앞서 설명한 위치 베리에이션 분석 처리(스텝 S40)를 사용하여, 마찬가지로 설계 데이터 상의 위치, 반도체 디바이스 상의 위치, 웨이퍼 상의 위치를 구하여, 프로세스 변동의 변동이 크게 보이는 화상을 선택한다. 예를 들어, 반도체 디바이스 상의 중앙과 네 코너 부근에 대응하는 촬영 위치의 패턴의 화상을 선택하거나, 웨이퍼 상의 중앙과 네 코너 부근에 대응하는 촬영 위치의 패턴의 화상을 선택하는 것, 렌즈 히팅을 고려하여 웨이퍼 상에서 노광에 의한 열이 가장 높아지는 위치와 가장 낮아지는 위치에 대응하는 촬영 위치의 패턴의 화상을 선택하거나, 또는 촬영 위치의 패턴의 화상간의 거리가 가장 이격되도록 선택하는 것 등이 고려된다.
또한, 설계 데이터를 사용하여 형상 베리에이션 학습 데이터 선택 처리(스텝 S30)에서 선택된 패턴 형상의 동형 패턴의 SEM 화상에 대하여, SEM 화상의 촬영 정보를 사용하여, SEM 화상 촬영 위치로부터 앞서 설명한 위치 베리에이션 분석 처리(스텝 S40)를 사용하여 촬영 위치의 패턴의 SEM 화상을 선택한 후에, 선택한 SEM 화상에 대하여, 화이트 밴드 폭의 변동, 패턴 내측의 영역의 휘도값의 변동, 패턴 외측의 영역의 휘도값의 변동 등으로부터 프로세스 변동에 의한 변동을 분석하여, 프로세스 변동의 변동이 크게 보이는 화상을 엄선하는 구성으로 해도 된다.
여기서, 촬영 완료 화상 데이터 기억부(204)(도 15)의 화상 데이터는, 미리 촬영 위치를 랜덤하게 결정하여 촬영한 화상 데이터여도 되고, 촬영 위치를, 균등하게 간격을 두면서 웨이퍼를 촬영한 화상 데이터여도 된다. 또한, 노광 조건을 바꾸어 회로 패턴을 생성한 FEM(Focus Exposure Matrix) 웨이퍼를 사용하는 것도 고려된다. 그때의 촬영 위치는 상이한 노광 조건의 화상을 촬영할 수 있는 촬영 위치로 하여 촬영하는 것도 고려된다. 그때, 촬영 위치에 대응하는 노광 조건을 알 수 있으므로, 프로세스 변동의 하나의 요인인 노광 조건의 변동을 촬영 위치에 기초하여 구할 수 있다. 그때에는, 화상간에서 노광 조건의 차가 커지도록 화상을 선택하는 것이 바람직하다.
이상과 같이 본 실시예에 따르면, 실시예 1의 구성과 비교하여, 설계 데이터(101)와 촬영 완료 화상 데이터 기억부(204)로부터의 입력에 기초하여 학습 데이터 선택부(103)에서 학습 데이터를 선택하는 구성으로 하고 있다는 점에서, 보다 학습 시간의 단축화를 도모할 수 있다.
상술한 실시예 1 또는 실시예 2에 있어서의 처리의 일부, 또한 전부를 범용 CPU에서 동작하는 처리 프로그램으로 작성해도 된다. 또한, 상술한 처리의 일부, 또한 전부를 전용 LSI나 FPGA로 하는 것도 고려된다. 상술한 설계 데이터(101)는 설계자가 만든 회로 패턴의 설계도여도 되고, SEM 화상으로부터 계산한 패턴 형상이어도 되고, 시뮬레이션으로 작성한 패턴 형상을 사용해도 된다.
또한, 본 발명은 상기한 실시예에 한정되는 것은 아니며, 여러 가지 변형예가 포함된다. 예를 들어, 상기한 실시예는 본 발명을 이해하기 쉽게 설명하기 위해 상세하게 설명한 것이며, 반드시 설명한 모든 구성을 구비하는 것에 한정되는 것은 아니다. 또한, 어떤 실시예의 구성의 일부를 다른 실시예의 구성으로 치환하는 것이 가능하고, 또한 어떤 실시예의 구성에 다른 실시예의 구성을 첨가하는 것도 가능하다.
1: 화상 생성부
20: 화상 촬영부
30: 모델 생성부
40: 모델 평가부
101: 설계 데이터
102: SEM 촬영 조건
103: 학습 데이터 선택부
104: 학습용 화상 좌표 리스트
201: 레시피 작성부
202: 촬영부
203: 학습용 화상 데이터 기억부
204: 촬영 완료 화상 데이터 기억부
301: 교시 데이터 작성부
302: 학습부
303: 모델
401: 평가용 화상 데이터 기억부
402: 평가 결과
2501: 전자원
2502: 인출 전극
2503: 전자 빔
2504: 콘덴서 렌즈
2505: 주사 편향기
2506: 대물 렌즈
2507: 챔버
2508: 시료대
2509: 시료
2510: 전자
2511: 이차 전자
2512: 변환 전극
2513: 검출기
2514: 제어 장치

Claims (29)

  1. 전자 디바이스의 검사 대상 패턴의 화상과, 상기 검사 대상 패턴을 제조하기 위해 사용하는 데이터에 기초하여, 기계 학습에 의해 구성된 식별기를 사용하여 상기 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며,
    전자 디바이스의 복수의 패턴 화상과 상기 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터를 저장하는 기억부와,
    상기 기억부에 저장된 상기 패턴 데이터와 상기 패턴 화상에 기초하여, 상기 복수의 패턴 화상으로부터 기계 학습에 사용할 학습용 패턴 화상을 선택하는 화상 선택부를 구비하고,
    상기 화상 선택부는, 적어도, 상기 패턴 데이터를 사용하여 패턴의 형상을 분석, 반도체 디바이스 상의 패턴의 위치를 분석, 및 상기 패턴 화상을 사용하여 화상의 변동을 분석하는 처리 중 어느 하나를 실행하고,
    상기 화상 선택부는, 상기 패턴의 형상을 분석에 의해 검출된 동일한 형상을 갖는 복수의 패턴과 상기 패턴 화상의 촬영 조건 데이터를 사용하여, 동일한 패턴의 형상이 존재하는 상기 패턴 데이터 상의 위치를 검출하고, 그 검출한 수와 반도체 칩 상의 좌표 위치와 웨이퍼 상의 좌표 위치와 그 검출한 위치의 사이의 거리 정보 중 적어도 하나를 사용하여 통계 처리를 행하는 것을 특징으로 하는 패턴 검사 시스템.
  2. 전자 디바이스의 검사 대상 패턴의 화상과, 상기 검사 대상 패턴을 제조하기 위해 사용하는 데이터에 기초하여, 기계 학습에 의해 구성된 식별기를 사용하여 상기 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며,
    전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터와 상기 검사 대상 패턴의 화상의 촬영 조건 데이터를 저장하는 기억부와,
    상기 기억부에 저장된 상기 패턴 데이터와 상기 촬영 조건 데이터에 기초하여, 기계 학습에 사용할 상기 전자 디바이스 상의 학습용 패턴 화상의 촬영 위치를 선택하는 촬영 위치 선택부를 구비하고,
    상기 촬영 위치 선택부는, 상기 패턴 데이터를 사용하여 패턴의 형상을 분석, 및/또는 반도체 디바이스 상의 패턴의 위치를 분석하고,
    상기 촬영 위치 선택부는, 상기 패턴의 형상을 분석에 의해 검출된 동일한 형상을 갖는 복수의 패턴과 상기 패턴 화상의 촬영 조건 데이터를 사용하여, 동일한 패턴의 형상이 존재하는 상기 패턴 데이터 상의 위치를 검출하고, 그 검출한 수와 반도체 칩 상의 좌표 위치와 웨이퍼 상의 좌표 위치와 그 검출한 위치의 사이의 거리 정보 중 적어도 하나를 사용하여 통계 처리를 행하는 것을 특징으로 하는 패턴 검사 시스템.
  3. 전자 디바이스의 검사 대상 패턴의 화상과, 상기 검사 대상 패턴을 제조하기 위해 사용하는 데이터에 기초하여, 기계 학습에 의해 구성된 식별기를 사용하여 상기 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템이며,
    전자 디바이스의 패턴 화상과 상기 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터와 상기 검사 대상 패턴의 화상의 촬영 조건 데이터를 저장하는 기억부와,
    상기 기억부에 저장된 상기 패턴 데이터와 상기 패턴 화상과 상기 촬영 조건 데이터에 기초하여, 기계 학습에 사용할 학습용 패턴 화상을 선택하는 화상 선택부를 구비하고,
    상기 화상 선택부는, 적어도, 상기 패턴 데이터를 사용하여 패턴의 형상을 분석, 반도체 디바이스 상의 패턴의 위치를 분석, 및 상기 패턴 화상을 사용하여 화상의 변동을 분석하는 처리 중 어느 하나를 실행하고,
    상기 화상 선택부는, 상기 패턴의 형상을 분석에 의해 검출된 동일한 형상을 갖는 복수의 패턴과 상기 패턴 화상의 촬영 조건 데이터를 사용하여, 동일한 패턴의 형상이 존재하는 상기 패턴 데이터 상의 위치를 검출하고, 그 검출한 수와 반도체 칩 상의 좌표 위치와 웨이퍼 상의 좌표 위치와 그 검출한 위치의 사이의 거리 정보 중 적어도 하나를 사용하여 통계 처리를 행하는 것을 특징으로 하는 패턴 검사 시스템.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 학습용 패턴 화상과 그것에 대응하는 참값 데이터에 기초하여 기계 학습을 행하여, 상기 식별기를 생성하는 식별기 생성부를 갖는 것을 특징으로 하는 패턴 검사 시스템.
  5. 제4항에 있어서,
    상기 검사 대상 패턴의 화상으로부터 상기 식별기에 의해, 적어도 패턴의 윤곽 형상, 패턴 영역 및 비패턴 영역 중 하나를 추출하는 영역 추출부를 갖는 것을 특징으로 하는 패턴 검사 시스템.
  6. 제4항에 있어서,
    상기 식별기는, 검사 대상 패턴의 화상에 기초하여 결함을 추출하는 것을 특징으로 하는 패턴 검사 시스템.
  7. 제4항에 있어서,
    상기 식별기에 의한 식별 데이터와 상기 전자 디바이스의 패턴을 제조하기 위해 사용하는 패턴 데이터를 비교하여 검사하는 것을 특징으로 하는 패턴 검사 시스템.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 제1항 또는 제3항에 있어서,
    상기 화상 선택부는, 상기 패턴 화상에 대응하는 패턴 데이터로부터 얻어진 패턴의 에지 정보에 기초하여, 종 에지 및 횡 에지의 화소수의 통계 처리를 행하고, 동일한 형상을 도출하는 것을 특징으로 하는 패턴 검사 시스템.
  12. 제2항에 있어서,
    상기 촬영 위치 선택부는, 상기 패턴 화상에 대응하는 패턴 데이터로부터 얻어진 패턴의 에지 정보에 기초하여, 종 에지 및 횡 에지의 화소수의 통계 처리를 행하고, 동일한 형상을 도출하는 것을 특징으로 하는 패턴 검사 시스템.
  13. 제1항 또는 제3항에 있어서,
    상기 화상 선택부는, 상기 화상 변동을 분석하는 처리로서, 상기 패턴 화상을 사용하여, 적어도 화이트 밴드 폭의 변동의 값 및 조도의 변동의 값, 그리고 패턴 영역과 비패턴 영역의 휘도값의 변동의 값 중 하나를 사용하여 통계 처리를 행하는 것을 특징으로 하는 패턴 검사 시스템.
  14. 제4항에 있어서,
    상기 식별기 생성부는, 상기 학습용 패턴 화상을 표시하기 위한 표시부와 상기 표시부에 표시된 학습용 패턴 화상에 대한 유저에 의한 참값 부여를 가능하게 하는 지시부를 갖고, 참값 부여된 교시 데이터를 사용하여 학습하는 것을 특징으로 하는 패턴 검사 시스템.
  15. 제5항에 있어서,
    상기 식별기 생성부는, 유저에 의해 상기 학습용 패턴 화상으로부터 반도체 디바이스의 단층 및 다층의 각 층에서 패턴의 윤곽선, 패턴 영역, 비패턴 영역으로 나누어, 각각 화소별로 참값 부여된 교시 데이터를 사용하여 학습하는 것을 특징으로 하는 패턴 검사 시스템.
  16. 제2항에 있어서,
    상기 촬영 위치 선택부에 의해 선택된 촬영 위치에 기초하여, 촬영부의 레시피를 생성하는 레시피 작성부를 구비하는 것을 특징으로 하는 패턴 검사 시스템.
  17. 제6항에 있어서,
    상기 식별기 생성부는, 상기 학습용 패턴 화상으로부터 유저에 의해 화상별로 결함의 종류의 정보가 태그 부여된 교시 데이터를 작성하고, 상기 교시 데이터를 사용하여 학습하는 것을 특징으로 하는 패턴 검사 시스템.
  18. 제4항에 있어서,
    상기 학습용 패턴 화상과 그것에 대응하는 참값 데이터에 기초하여 기계 학습에 의해 상기 식별기 생성부에서 생성된 모델을 사용하여, 상기 검사 대상 패턴의 화상을 평가하는 모델 평가부를 구비하는 것을 특징으로 하는 패턴 검사 시스템.
  19. 제4항에 있어서,
    상기 식별기는, 화상의 영역 분할 및/또는 화상의 분류를 행하는 것을 특징으로 하는 패턴 검사 시스템.
  20. 제2항에 있어서,
    상기 촬영 위치 선택부는, 상기 패턴 데이터를 상기 촬영 조건 데이터의 촬상 시야에 대응하는 소영역으로 분할하고, 분할된 각 영역에 대하여 패턴의 형상을 분석하고, 분석된 패턴의 형상과 동일한 형상으로 되는 패턴에 기초하여, 전자 디바이스 상의 패턴의 위치를 분석하여 촬영 위치를 특정하는 것을 특징으로 하는 패턴 검사 시스템.
  21. 제4항에 있어서,
    상기 식별기는, 컨벌루션 신경망에 의한 시맨틱 세그멘테이션인 것을 특징으로 하는 패턴 검사 시스템.
  22. 제4항에 있어서,
    상기 식별기 생성부는, 패턴의 내측과 패턴의 외측 및 윤곽선 혹은 상기 패턴 데이터의 층수에 기초하여 속성의 종류 수를 결정하는 것을 특징으로 하는 패턴 검사 시스템.
  23. 제4항에 있어서,
    상기 식별기 생성부는, 상기 패턴 데이터 또는 상기 학습용 패턴 화상의 공정 정보에 기초하여, 상기 학습용 패턴 화상의 식별 대상으로 되는 화상 속성의 종류 및 화상 속성의 수를 도출하고, 도출된 상기 화상 속성의 종류에 대응하는 식별 정보를 결정하는 것을 특징으로 하는 패턴 검사 시스템.
  24. 제23항에 있어서,
    상기 식별기 생성부는, 상기 패턴 데이터 및 상기 학습용 패턴 화상에 기초하여 추정 참값 화상을 생성하고, 생성된 추정 참값 화상을 표시 화면 상에 표시하는 것을 특징으로 하는 패턴 검사 시스템.
  25. 제24항에 있어서,
    상기 식별기 생성부는, 표시 화면 상에 표시된 상기 추정 참값 화상에 대한 유저에 의해 참값 부여된 정보에 기초하여 참값 화상을 작성하는 것을 특징으로 하는 패턴 검사 시스템.
  26. 제4항에 있어서,
    상기 식별기 생성부는, 상기 식별기의 기계 학습에 사용하는, 상기 패턴 데이터 및/또는 상기 학습용 패턴 화상의 참값 데이터에 기초하여, 식별 대상으로 되는 복수 종류의 화상 속성의 영역을 해석하고, 각 종류의 화상 속성에 대응하는 영역의 크기에 따라, 학습 시의 가중치를 설정하는 것을 특징으로 하는 패턴 검사 시스템.
  27. 제18항에 있어서,
    상기 식별기 생성부는,
    적어도 상기 검사 대상 패턴의 화상에 대응하는 상기 패턴 데이터와, 공정 정보와, 촬영 조건 중 하나에 기초하여, 복수의 모델 중에서 하나의 모델을 선택하는 것을 특징으로 하는 패턴 검사 시스템.
  28. 제18항에 있어서,
    상기 식별기 생성부는,
    적어도 상기 학습용 패턴 화상에 대응하는 상기 패턴 데이터와, 공정 정보와, 촬영 조건 중 하나에 기초하여, 학습용 패턴 화상을 복수의 데이터 세트로 나누고, 상기 데이터 세트에 기초하여 모델을 생성하는 것을 특징으로 하는 패턴 검사 시스템.
  29. 제28항에 있어서,
    상기 식별기 생성부는,
    적어도 상기 학습용 패턴 화상에 대응하는 상기 패턴 데이터와, 공정 정보와, 촬영 조건과, 유저로부터의 추가 정보 중 하나에 기초하여, 모델명과 그것에 대응하는 모델의 종류를 나타내는 모델 관리표를 작성하는 것을 특징으로 하는 패턴 검사 시스템.
KR1020190105674A 2018-08-31 2019-08-28 패턴 검사 시스템 KR102218364B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2018-162607 2018-08-31
JP2018162607A JP7144244B2 (ja) 2018-08-31 2018-08-31 パターン検査システム

Publications (2)

Publication Number Publication Date
KR20200026110A KR20200026110A (ko) 2020-03-10
KR102218364B1 true KR102218364B1 (ko) 2021-02-22

Family

ID=69641727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190105674A KR102218364B1 (ko) 2018-08-31 2019-08-28 패턴 검사 시스템

Country Status (4)

Country Link
US (2) US11132788B2 (ko)
JP (2) JP7144244B2 (ko)
KR (1) KR102218364B1 (ko)
TW (2) TWI731396B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900043B2 (en) 2021-07-23 2024-02-13 Samsung Electronics Co., Ltd. Electronic device for manufacturing semiconductor device and operating method of electronic device

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144244B2 (ja) * 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム
US10796068B2 (en) * 2018-09-11 2020-10-06 Samsung Electronics Co., Ltd. Standard cell design system, standard cell design optimization method thereof, and semiconductor design system
KR102592918B1 (ko) * 2018-09-13 2023-10-23 삼성전자주식회사 웨이퍼 품질 검사 방법 및 장치와 그 방법을 포함한 반도체 소자 제조방법
US11748874B2 (en) * 2018-10-15 2023-09-05 3M Innovative Properties Company Automated inspection for sheet parts of arbitrary shape from manufactured film
KR20220132604A (ko) * 2020-03-30 2022-09-30 주식회사 히타치하이테크 진단 시스템
WO2021209867A1 (ja) * 2020-04-17 2021-10-21 株式会社半導体エネルギー研究所 分類装置、画像分類方法、およびパターン検査装置
EP3901902A1 (en) * 2020-04-20 2021-10-27 FEI Company Method implemented by a data processing apparatus, and charged particle beam device for inspecting a specimen using such a method
CN111626190B (zh) * 2020-05-26 2023-07-07 浙江大学 基于聚类分区进行刻度识别的水位监测方法
CN115698690A (zh) 2020-06-16 2023-02-03 株式会社日立高新技术 图像处理方法、形状检查方法、图像处理系统以及形状检查系统
JP7294275B2 (ja) * 2020-08-25 2023-06-20 トヨタ自動車株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
KR20230046308A (ko) 2020-09-17 2023-04-05 주식회사 히타치하이테크 에러 요인의 추정 장치 및 추정 방법
KR20220051868A (ko) * 2020-10-19 2022-04-27 삼성전자주식회사 반도체 장치의 제조를 위한 방법 및 컴퓨팅 장치
US11373343B2 (en) * 2020-11-06 2022-06-28 Salesforce, Inc. Systems and methods of generating color palettes with a generative adversarial network
JP7470016B2 (ja) 2020-11-10 2024-04-17 株式会社日立製作所 機械学習を用いた物体検出用識別モデル生成装置およびプログラム
JP7356962B2 (ja) 2020-12-15 2023-10-05 株式会社神戸製鋼所 機械学習装置および該方法ならびに膜厚測定装置および該方法
CN112613380B (zh) * 2020-12-17 2024-03-15 网联清算有限公司 一种机房巡检方法、装置及电子设备、存储介质
KR20220095472A (ko) * 2020-12-30 2022-07-07 삼성전자주식회사 패턴 분석 시스템 및 상기 시스템을 이용한 반도체 장치 제조 방법
KR20220116421A (ko) * 2021-02-10 2022-08-23 주식회사 히타치하이테크 윤곽선 해석 장치, 처리 조건 결정 시스템, 형상 추정 시스템, 반도체 장치 제조 시스템, 탐색 장치 및 그들에 이용하는 데이터 구조
KR102378659B1 (ko) * 2021-02-23 2022-03-25 주식회사 포스로직 패턴 이미지 검출 방법 및 패턴 이미지 검출 장치
JP7036477B1 (ja) 2021-10-18 2022-03-15 株式会社Anamorphosis Networks 欠陥検出方法、欠陥検出システム、及び、欠陥検出プログラム
CN116664988B (zh) * 2023-07-24 2023-11-21 广立微(上海)技术有限公司 图片自动标注方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003212A (ja) * 2005-06-21 2007-01-11 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP2010157154A (ja) * 2008-12-29 2010-07-15 Hitachi High-Technologies Corp 画像分類基準更新方法、プログラムおよび画像分類装置
JP2015041164A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7570796B2 (en) * 2005-11-18 2009-08-04 Kla-Tencor Technologies Corp. Methods and systems for utilizing design data in combination with inspection data
US20070106416A1 (en) * 2006-06-05 2007-05-10 Griffiths Joseph J Method and system for adaptively controlling a laser-based material processing process and method and system for qualifying same
US9430824B2 (en) * 2013-05-14 2016-08-30 Kla-Tencor Corporation Machine learning method and apparatus for inspecting reticles
JP2016173615A (ja) 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ 計測装置
JP2016058465A (ja) * 2014-09-08 2016-04-21 株式会社日立ハイテクノロジーズ 欠陥定量化方法、欠陥定量化装置、および欠陥評価値表示装置
US9836839B2 (en) * 2015-05-28 2017-12-05 Tokitae Llc Image analysis systems and related methods
KR101978995B1 (ko) * 2015-06-04 2019-05-16 가부시키가이샤 히다치 하이테크놀로지즈 결함 화상 분류 장치 및 결함 화상 분류 방법
WO2017027748A1 (en) 2015-08-12 2017-02-16 Kla-Tencor Corporation Determining a position of a defect in an electron beam image
US10282509B2 (en) * 2016-10-28 2019-05-07 Toshiba Memory Corporation Non-transitory computer readable storage medium, mask evaluation method and inspection apparatus
US10395362B2 (en) * 2017-04-07 2019-08-27 Kla-Tencor Corp. Contour based defect detection
JP6810505B2 (ja) * 2017-09-19 2021-01-06 富士フイルム株式会社 教師データ作成方法及び装置並びに欠陥検査方法及び装置
JP7002949B2 (ja) * 2018-01-22 2022-01-20 株式会社日立ハイテク 画像評価方法及び画像評価装置
US10697900B2 (en) * 2018-06-19 2020-06-30 Kla-Tencor Corporation Correlating SEM and optical images for wafer noise nuisance identification
JP7144244B2 (ja) * 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003212A (ja) * 2005-06-21 2007-01-11 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP2010157154A (ja) * 2008-12-29 2010-07-15 Hitachi High-Technologies Corp 画像分類基準更新方法、プログラムおよび画像分類装置
JP2015041164A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900043B2 (en) 2021-07-23 2024-02-13 Samsung Electronics Co., Ltd. Electronic device for manufacturing semiconductor device and operating method of electronic device

Also Published As

Publication number Publication date
US20200074611A1 (en) 2020-03-05
US20210383524A1 (en) 2021-12-09
TW202011017A (zh) 2020-03-16
JP2020035282A (ja) 2020-03-05
TWI801912B (zh) 2023-05-11
KR20200026110A (ko) 2020-03-10
US11587225B2 (en) 2023-02-21
TW202136760A (zh) 2021-10-01
JP7399235B2 (ja) 2023-12-15
US11132788B2 (en) 2021-09-28
JP7144244B2 (ja) 2022-09-29
JP2022172401A (ja) 2022-11-15
TWI731396B (zh) 2021-06-21

Similar Documents

Publication Publication Date Title
KR102218364B1 (ko) 패턴 검사 시스템
US10937146B2 (en) Image evaluation method and image evaluation device
US8045789B2 (en) Method and apparatus for inspecting defect of pattern formed on semiconductor device
JP5065943B2 (ja) 製造プロセスモニタリングシステム
JP6078234B2 (ja) 荷電粒子線装置
TWI722599B (zh) 圖像評價裝置及方法
JP2009043937A (ja) パターン測定装置
WO2011080873A1 (ja) パターン計測条件設定装置
JP7427744B2 (ja) 画像処理プログラム、画像処理装置、画像処理方法および欠陥検出システム
WO2022230338A1 (ja) 欠陥を検出するシステム、及びコンピュータ可読媒体
WO2023112302A1 (ja) 教師データ作成支援装置、教師データ作成支援方法
TW202418220A (zh) 圖像處理程式、圖像處理裝置、圖像處理方法及缺陷檢測系統

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant