KR20230004819A - 화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템 - Google Patents

화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템 Download PDF

Info

Publication number
KR20230004819A
KR20230004819A KR1020227041722A KR20227041722A KR20230004819A KR 20230004819 A KR20230004819 A KR 20230004819A KR 1020227041722 A KR1020227041722 A KR 1020227041722A KR 20227041722 A KR20227041722 A KR 20227041722A KR 20230004819 A KR20230004819 A KR 20230004819A
Authority
KR
South Korea
Prior art keywords
image
captured image
data
unit
learning
Prior art date
Application number
KR1020227041722A
Other languages
English (en)
Inventor
마사노리 오우치
마사요시 이시카와
야스타카 도요다
히로유키 신도
Original Assignee
주식회사 히타치하이테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 히타치하이테크 filed Critical 주식회사 히타치하이테크
Publication of KR20230004819A publication Critical patent/KR20230004819A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/418Imaging electron microscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/611Specific applications or type of materials patterned objects; electronic devices
    • G01N2223/6116Specific applications or type of materials patterned objects; electronic devices semiconductor wafer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/646Specific applications or type of materials flaws, defects
    • G01N2223/6462Specific applications or type of materials flaws, defects microdefects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Analytical Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

입력 접수부와, 추정부와, 출력부를 구비한 시스템을 사용하여, 시료의 기준 데이터로부터 얻어지는 추정 촬영 화상과 시료의 실제의 촬영 화상을 대조할 때에 이용하는, 추정 촬영 화상의 데이터를 취득하는 화상 처리 방법으로서, 입력 접수부가 기준 데이터와, 시료의 공정 정보와, 학습 완료된 모델 데이터의 입력을 받는 입력 공정과, 추정부가 기준 데이터, 공정 정보 및 모델 데이터를 이용하여 촬영 화상의 데이터가 취할 수 있는 값의 확률 분포를 나타내는 촬영 화상 통계량을 산출하는 추정 공정과, 출력부가 촬영 화상 통계량을 출력하는 출력 공정을 포함하며, 추정 촬영 화상은 촬영 화상 통계량으로부터 생성 가능하다. 이에 의해, 설계 데이터로부터 추정되는 시뮬레이션 화상과 실제로 촬영된 화상을 대조할 때, 당해 추정에 필요로 하는 시간을 단축하고, 대조를 리얼타임으로 행할 수 있다.

Description

화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템
본 발명은 화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템에 관한 것이다.
현재, 화상 데이터를 이용한 평가(결함 검사 등)나 치수 계측을 위해서, 평가 대상 혹은 치수 계측 대상인 물품에 대하여, 그 설계 데이터와 촬영한 화상을 비교하는 것이 행해지고 있다. 대상이 되는 물품의 일례로서는, 반도체 회로가 있다.
반도체 회로(이하 간단히「회로」라고도 함)의 검사나 계측에서는, 회로의 설계 데이터와 촬영 화상 데이터(이하 간단히「촬영 화상」이라고도 함)를 비교하여, 그 위치를 맞추는 처리가 행해진다. 이 처리는, 패턴 매칭이라고 불린다.
설계 데이터 및 촬영 화상의 위치를 맞추는 것에 의해서, 계측 포인트의 지정이나, 설계 데이터 상의 회로 형상으로부터의 이탈도 등의 평가가 가능해진다. 회로에는, 제조 공정에서 설정하는 여러 조건에 기인한 형상 변형이 있다. 또한, 회로의 촬영 화상에는, 촬영 공정에서 설정하는 여러 조건에 기인한 상질(像質)의 차이(콘트라스트 변화나 화상 노이즈의 발생 등)가 발생한다. 게다가, 동일 조건 하에서도, 그 편차에 의해, 회로의 형상과 촬영 화상의 상질이 변화된다.
예를 들면, 패턴 매칭에서는, 설계 데이터를 그대로 템플릿 화상으로 했을 경우, 설계 데이터 상의 회로 형상과 촬영 화상 상의 회로 형상의 차이에 의해, 위치 맞춤이 곤란해진다. 그 때문에, 템플릿 화상에는, 설계 데이터를 직접 사용하는 것보다, 촬영 화상 상의 회로 형상에 가깝게 한 것을 사용하는 편이 바람직하다.
특허문헌 1에는, 설계 정보로부터 시뮬레이션 화상을 생성하기 위한 컴퓨터 실장 방법으로서, 생성 모델의 2개 이상의 인코더층에 설계 정보를 입력하는 것에 의해 대상물의 설계 정보의 특징을 결정하는 공정과, 결정된 특징을 생성 모델의 2개 이상의 디코더층에 입력하는 것에 의해 하나 이상의 시뮬레이션 화상을 생성하는 공정을 포함하는 것이 개시되어 있다. 여기에서, 시뮬레이션 화상은, 화상 시스템에 의해 생성된 대상물의 화상에 나타나는 설계 정보를 나타내는 것이다. 특허문헌 1에는, 생성 모델이, 컨벌루션 뉴럴 네트워크(CNN)에 의해 대체 가능하다는 것도 개시되어 있다.
특허문헌 2에는, 전자 디바이스의 검사 대상 패턴의 화상과, 검사 대상 패턴을 제조하기 위해서 사용하는 데이터에 의거하여, 기계 학습에 의해 구성된 식별기를 사용하여 검사 대상 패턴의 화상을 검사하는 패턴 검사 시스템으로서, 전자 디바이스의 복수의 패턴 화상과 전자 디바이스의 패턴을 제조하기 위해서 사용하는 패턴 데이터를 저장하고, 저장된 패턴 데이터와 패턴 화상에 의거하여, 복수의 패턴 화상으로부터 기계 학습에 이용하는 학습용 패턴 화상을 선택하는 것에 의해, 학습 데이터의 참값 작성 작업의 수고를 줄이고, 학습 데이터의 소량화를 도모하고, 학습 시간의 단기간화를 가능하게 하는 것이 개시되어 있다.
미국 특허 제9965901호 명세서 일본국 특개2020-35282호 공보
특허문헌 1에 개시되어 있는 방법에 따르면, 검사 대상의 회로 패턴에 적용했을 경우, 시뮬레이션 화상으로서의 회로 패턴을 얻을 수 있지만, 입력이 설계 데이터만이기 때문에, 제조 공정이나 촬영 공정 등의 조건(이하「공정 정보」라고도 함)의 차이를 명시적으로 지정할 수는 없다. 이 조건의 차이를 주기 위해서는, 당해 조건 하에서 제조 또는 촬영을 한 회로의 촬영 화상을 포함하는 데이터 세트를 준비하고, 조건별로 시뮬레이션을 위한 수리(數理) 모델을 학습할 필요가 있다.
공정 정보가 회로 및 그 촬영 화상에 미치는 영향을 알기 위해서는, 종래, 시뮬레이터를 조건별로 복수회 실행할 필요가 있다. 종래의 시뮬레이터는, 몬테카를로법 등을 사용하기 때문에, 시뮬레이션에 시간이 걸린다. 또한, 시판되어 있는 반도체 회로의 프로세스 시뮬레이션은, 리소그래피나 에칭, 촬영 공정 등, 공정별로 나뉘어져 있다. 이들 공정을 조합하여, 공정 간의 파라미터의 관계성을 망라적(網羅的)으로 파악하기 위해서는, 시뮬레이터를 다단적으로 사용할 필요가 있다.
그러나, 제조 또는 촬영의 프로세스에 대한 시뮬레이션은, 몬테카를로 시뮬레이션 등의 계산에 장시간을 필요로 하는 방법이 채용되어 있기 때문에, 1회의 시행으로 방대한 시간이 걸린다. 이러한 계산은, 복수의 조건이나 파라미터에 대응하기 위해서는, 복수회의 시행을 할 필요가 있어, 복수의 시뮬레이터를 사용했다고 해도, 다대한 계산 시간 및 계산 비용을 필요로 하며, 현실적이지가 않다.
특허문헌 2에 개시되어 있는 패턴 검사 시스템은, 기계 학습 시에 학습 데이터의 소량화를 도모하고, 학습 시간의 단기간화를 가능하게 하는 것이며, 얻어진 학습 데이터를 실제의 검사 시에 이용할 경우에는, 데이터의 처리 방법에 대하여 별도 개선할 필요가 있다고 생각된다.
본 발명의 목적은 설계 데이터로부터 추정되는 시뮬레이션 화상과 실제로 촬영된 화상을 대조할 때, 당해 추정에 필요로 하는 시간을 단축하여, 대조를 리얼타임(real time)으로 행하는 것에 있다.
본 발명의 화상 처리 방법은, 입력 접수부와, 추정부와, 출력부를 구비한 시스템을 사용하여, 시료의 기준 데이터로부터 얻어지는 추정 촬영 화상과 시료의 실제의 촬영 화상을 대조할 때에 이용하는, 추정 촬영 화상의 데이터를 취득하는 방법으로서, 입력 접수부가 기준 데이터와, 시료의 공정 정보와, 학습 완료된 모델 데이터의 입력을 받는 입력 공정과, 추정부가 기준 데이터, 공정 정보 및 모델 데이터를 이용하여 촬영 화상의 데이터가 취할 수 있는 값의 확률 분포를 나타내는 촬영 화상 통계량을 산출하는 추정 공정과, 출력부가 촬영 화상 통계량을 출력하는 출력 공정을 포함하며, 추정 촬영 화상은 촬영 화상 통계량으로부터 생성 가능하다.
본 발명에 따르면, 설계 데이터로부터 추정되는 시뮬레이션 화상과 실제로 촬영된 화상을 대조할 때, 당해 추정에 필요로 하는 시간을 단축하여, 대조를 리얼타임으로 행할 수 있다.
도 1a는 설계 데이터 및 공정 정보로부터 얻어지는 촬영 화상의 예를 나타내는 도면.
도 1b는 설계 데이터 및 공정 정보로부터 얻어지는 촬영 화상의 다른 예를 나타내는 도면.
도 2는 실시예의 화상 처리 시스템을 나타내는 구성도.
도 3a는 실시예에 따른 화상 처리 시스템에 있어서 처리되는 데이터의 흐름을 나타내는 구성도.
도 3b는 실시예에 따른 화상 처리 시스템에 있어서 처리되는 데이터의 흐름을 나타내는 구성도.
도 4는 실시예에 따른 학습 처리의 예를 나타내는 흐름도.
도 5는 형상 검사 시스템을 나타내는 구성도.
도 6a는 설계 데이터 화상을 특징량으로 변환하는 예를 나타내는 모식도.
도 6b는 특징량과 공정 정보의 결합 형식의 일례를 나타내는 모식도.
도 7a는 실시예에 있어서의 입력 형식의 일례를 나타내는 모식도.
도 7b는 실시예에 있어서의 결합 형식의 일례를 나타내는 모식도.
도 8a는 설계 데이터 화상의 일례를 나타내는 도면.
도 8b는 도 8a의 설계 데이터 화상(801)에 대응하는 촬영 화상의 예를 나타내는 도면.
도 8c는 도 8a의 설계 데이터 화상(801)에 대응하는 촬영 화상의 예를 나타내는 도면.
도 8d는 도 8a의 설계 데이터 화상(801)에 대응하는 촬영 화상의 예를 나타내는 도면.
도 9는 촬영 화상 통계량의 표현 형식의 일례를 나타내는 그래프.
도 10a는 설계 데이터 화상의 예를 나타내는 도면.
도 10b는 촬영 화상의 예를 나타내는 도면.
도 11은 촬영 화상 통계량을 추정하여 회로의 평가를 실시하기 위한 GUI를 나타내는 구성도.
도 12는 학습 처리를 실시하기 위한 GUI를 나타내는 구성도.
도 13은 반도체 계측 시스템의 일례를 나타내는 개략 구성도.
도 14는 주사 전자 현미경을 나타내는 개략 구성도.
본 발명은 화상 데이터를 처리하는 화상 처리 기술에 관한 것이다. 그 중에서도 특히, 화상 데이터를 이용한 검사에 적용 가능한 화상 처리 기술에 관한 것이다. 검사 대상의 일례에는, 반도체 회로가 포함된다.
이하, 본 발명의 실시형태인 화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템에 대하여 설명한다.
화상 처리 방법 및 화상 처리 시스템은, 설계 데이터와 공정 정보로부터, 이들에 대응하는 촬영 화상의 베리에이션(variation)으로서 촬영 화상의 각 화소가 취할 수 있는 값의 확률 분포를 나타내는 촬영 화상 통계량을 산출하는 것이다.
화상 처리 시스템은, 설계 데이터와 공정 정보로부터, 촬영 화상의 베리에이션을 나타내는 화소 단위의 확률 분포를 산출 가능한 CNN 모델을 구비하고 있다. 여기에서, CNN은, 컨벌루션 뉴럴 네트워크(Convolutional Neural Network)의 약칭이다.
화상 처리 시스템은, 산출한 화소 단위의 확률 분포를 이용하여, 공정 정보가 회로 혹은 그 촬영 화상에 미치는 영향을 평가한다. 또한, 형상 검사 시스템은, 산출한 화소 단위의 확률 분포를 이용하여, 패턴 매칭에 사용 가능한 템플릿 화상을 작성하고, 패턴 매칭을 고정밀도로 실시한다. 또한, 본 실시형태에는, 기계 학습 등에 있어서 CNN을 이용하는 수리 모델에 포함되는 파라미터(모델 데이터)를 결정하는 것도 포함된다.
또한, 검사 대상으로서는, 반도체 회로 외에, 자동차 부품(피스톤 등), 트레이, 병 등의 용기, 액정 패널 등의 각종 물품에의 적용이 가능하다. 또한, 형상에는, 시료(물품)의 크기, 길이 등이 포함된다.
이하에 설명하는 화상 처리 방법은, 회로의 기준 데이터인 설계 데이터와, 공정 정보와, 학습 완료된 모델 데이터를 이용하여, 설계 데이터와 공정 정보의 조건 하에서 제조된 회로의 촬영 화상의 베리에이션을 직접 추정하기 위한 화상 처리 방법, 및 이것을 사용하는 화상 검사 시스템에 관한 것이다.
또한, 그 구체적인 일례로서, 설계 데이터를 화상화한 설계 데이터 화상과, 공정 정보와, 회로의 촬영 화상의 대응 관계를, 기계 학습을 이용하여 학습하고, 학습에 의해 얻어진 모델 데이터를 이용하여 임의의 설계 데이터 화상과 임의의 공정 정보로부터, 이들에 대응하는 회로의 촬영 화상의 베리에이션을 직접 추정하는 방법의 예를 나타낸다. 또한, 이하에서는, 회로의 촬영 화상의 베리에이션을 화상의 각 화소가 취할 수 있는 화소값의 확률 분포를 규정하는 통계량(평균이나 분산 등)으로서 취급한다. 이에 의해, 화소값 및 그 편차로서, 회로의 변형이나 그 촬영 화상의 상질 변화를 포착할 수 있다.
이하에, 임의의 회로의 설계 데이터와 공정 정보와 학습 완료된 모델 데이터를 입력으로서 접수하고, 설계 데이터와 공정 정보의 조합에 대응하는 회로의 촬영 화상의 베리에이션을 화소값의 통계량으로서 직접 추정하고, 추정한 통계량을 출력하기 위한 기능을 구비한 장치 또는 측정 검사 시스템에 대하여, 도면을 이용해서 설명한다. 보다 구체적으로는, 측정 장치의 일종인 측장용 주사 전자 현미경(Critical Dimension-Scanning Electron Microscope: CD-SEM)을 포함하는 장치 및 그 시스템에 대하여 설명한다.
이하의 설명에 있어서는, 회로의 촬영 화상을 형성하는 장치로서 하전 입자선 장치를 예시한다. 본 명세서에 있어서는, 하전 입자선 장치의 일종인 주사형 전자 현미경(SEM)을 이용한 예를 설명하지만, 이에 한정되는 것은 아니며, 예를 들면 시료 상에 이온 빔을 주사해서 화상을 형성하는 집속 이온 빔(Focused Ion Beam: FIB) 장치를 하전 입자선 장치로서 채용하도록 해도 된다. 단, 미세화가 진행되는 패턴을 고정밀도로 측정하기 위해서는, 매우 높은 배율이 요구되기 때문에, 일반적으로 분해능의 면에서 FIB 장치를 능가하는 SEM을 사용하는 것이 바람직하다.
실시예
도 13은 반도체 계측 시스템의 일례를 나타내는 개략 구성도이며, 복수의 측정 장치 또는 검사 장치가 네트워크에 접속된 측정·검사 시스템을 나타낸 것이다. 여기에서, 측정·검사 시스템은 화상 처리 시스템 또는 형상 검사 시스템에 포함되는 것이다.
본 도면에 나타내는 시스템에는, 반도체 웨이퍼나 포토마스크 등의 패턴 치수를 측정하는 측장용 주사 전자 현미경(1301)(CD-SEM)과, 시료에 전자 빔을 조사 함으로써 화상을 취득해 당해 화상과 미리 등록되어 있는 참조 화상의 비교에 의거하여 결함을 추출하는 결함 검사 장치(1302)와, 조건 설정 장치(1303)와, 시뮬레이터(1304)와, 기억 매체(1305)(기억부)가 포함되어 있다. 그리고, 이들이 네트워크를 통해 접속되어 있다.
조건 설정 장치(1303)는, 반도체 디바이스의 설계 데이터 상에서, 측정 위치나 측정 조건 등을 설정하는 기능을 갖는다. 시뮬레이터(1304)는, 반도체 디바이스의 설계 데이터, 반도체 제조 장치의 제조 조건 등에 의거하여, 패턴의 완성도를 시뮤레이션하는 기능을 갖는다. 또한, 기억 매체(1305)는, 반도체 디바이스의 레이아웃 데이터나 제조 조건이 등록된 설계 데이터 등을 기억한다. 또한, 기억 매체(1305)에는, 학습 완료된 모델 데이터를 기억시켜 두어도 된다.
설계 데이터는, 예를 들면, GDS 포맷이나 OASIS(등록 상표) 포맷 등으로 표현되어 있으며, 소정의 형식으로 기억되어 있다. 또한, 설계 데이터는, 설계 데이터를 표시하는 소프트웨어가 그 포맷 형식을 표시할 수 있으며, 도형 데이터로서 취급할 수 있으면, 그 종류는 상관없다.
또한, 기억 매체(1305)는, 측정 장치 또는 검사 장치의 제어 장치, 조건 설정 장치(1303) 또는 시뮬레이터(1304)에 내장하도록 해도 된다. 또한, 측장용 주사 전자 현미경(1301) 및 결함 검사 장치(1302)에는, 각각의 제어 장치가 구비되어, 각 장치에 필요한 제어가 행해지지만, 이들 제어 장치에 상기 시뮬레이터의 기능이나 측정 조건 등의 설정 기능을 도입해도 된다.
SEM에서는, 전자원으로부터 방출되는 전자 빔이 복수 단의 렌즈에서 집속됨과 동시에, 집속된 전자 빔이 주사 편향기에 의해 시료 상에 일차원적 혹은 이차원적으로 주사된다.
전자 빔의 주사에 의해 시료로부터 방출되는 2차 전자(Secondary Electron: SE) 혹은 후방 산란 전자(Backscattered Electron: BSE)는, 검출기에 의해 검출되고, 주사 편향기의 주사에 동기해서, 프레임 메모리 등의 기억 매체에 기억된다. 이 프레임 메모리에 기억되어 있는 화상 신호는, 제어 장치 내에 도입된 연산 장치에 의해 적산된다. 또한, 주사 편향기에 의한 주사는, 임의의 크기, 위치 및 방향에 대해서 가능하다.
이상과 같은 제어 등은, 각 SEM의 제어 장치에서 행해지며, 전자 빔의 주사의 결과 얻어진 화상이나 신호는, 통신 회선 네트워크를 통해 조건 설정 장치(1303)에 보내진다.
또한, 본 예에서는, SEM을 제어하는 제어 장치와, 조건 설정 장치(1303)를 별체의 것으로서 설명하고 있지만, 이에 한정되는 것은 아니다. 예를 들면, 조건 설정 장치(1303)에서 장치의 제어와 측정 처리를 일괄하여 행하도록 해도 되고, 각 제어 장치에서, SEM의 제어와 측정 처리를 함께 행하도록 해도 된다.
또한, 조건 설정 장치(1303) 혹은 제어 장치에는, 측정 처리를 실행하기 위한 프로그램이 기억되어 있으며, 당해 프로그램에 따라서 측정 혹은 연산이 행해진다.
또한, 조건 설정 장치(1303)는, SEM의 동작을 제어하는 프로그램(레시피)을, 반도체의 설계 데이터에 의거하여 작성하는 기능을 구비하고 있으며, 레시피 설정부로서 기능한다. 구체적으로는, 설계 데이터, 패턴의 윤곽선 데이터, 혹은 시뮬레이션이 실시된 설계 데이터 상에서, 소망의 측정점, 오토 포커스, 오토 스티그마, 어드레싱 점 등의 SEM에 있어서 필요한 처리를 행하기 위한 위치 등을 설정한다. 그리고, 당해 설정에 의거하여, SEM의 시료 스테이지나 편향기 등을 자동 제어하기 위한 프로그램을 작성한다. 또한, 후술하는 템플릿의 작성을 위해서, 설계 데이터로부터 템플릿이 되는 영역의 정보를 추출하고, 당해 추출 정보에 의거하여 템플릿을 작성하는 프로세서, 혹은 범용의 프로세서로 템플릿을 작성시키는 프로그램이 내장, 혹은 기억되어 있다. 또한, 본 프로그램은, 네트워크를 통해 전송해도 된다.
도 14는 주사 전자 현미경을 나타내는 개략 구성도이다.
본 도면에 나타내는 주사 전자 현미경은 전자원(1401), 인출 전극(1402), 집속 렌즈의 일 형태인 콘덴서 렌즈(1404), 주사 편향기(1405), 대물 렌즈(1406), 시료대(1408), 변환 전극(1412), 검출기(1413), 제어 장치(1414) 등을 구비하고 있다.
전자원(1401)으로부터 인출 전극(1402)에 의해 인출되어, 도시하지 않은 가속 전극에 의해 가속된 전자 빔(1403)은, 콘덴서 렌즈(1404)에 의해 좁혀진다. 그리고, 주사 편향기(1405)에 의해, 시료(1409) 상에 일차원적 혹은 이차원적으로 주사된다. 전자 빔(1403)은, 시료대(1408)에 마련된 전극에 인가된 부전압에 의해 감속되고, 대물 렌즈(1406)의 렌즈 작용에 의해 집속되어서 시료(1409) 상에 조사된다.
전자 빔(1403)이 시료(1409)에 조사되면, 당해 조사 개소로부터 2차 전자 및 후방 산란 전자와 같은 전자(1410)가 방출된다. 방출된 전자(1410)는, 시료에 인가되는 부전압에 의거하는 가속 작용에 의해, 전자원 방향으로 가속되어, 변환 전극(1412)에 충돌하고, 2차 전자(1411)를 발생시킨다. 변환 전극(1412)으로부터 방출된 2차 전자(1411)는, 검출기(1413)에 의해 포착(捕捉)되고, 포착된 2차 전자량에 의해, 검출기(1413)의 출력(I)이 변화된다. 이 출력(I)에 따라서, 도시하지 않은 표시 장치의 휘도가 변화된다. 예를 들면 이차원상을 형성하는 경우에는, 주사 편향기(1405)에의 편향 신호와, 검출기(1413)의 출력(I)의 동기를 취함으로써, 주사 영역의 화상을 형성한다. 또한, 본 도면에 예시하는 주사 전자 현미경에는, 전자 빔의 주사 영역을 이동하는 편향기(도시하지 않음)가 구비되어 있다.
또한, 본 도면의 예에서는, 시료로부터 방출된 전자를 변환 전극에서 일단(一端) 변환해서 검출하는 예에 대해서 설명하고 있지만, 물론 이러한 구성에 한정되지 않으며, 예를 들면 가속된 전자의 궤도 상에, 전자 증배관이나 검출기의 검출면을 배치하는 것 같은 구성으로 하는 것도 가능하다.
제어 장치(1414)는, 주사 전자 현미경의 각 구성을 제어함과 동시에, 검출된 전자에 의거하여 화상을 형성하는 기능이나, 라인 프로파일이라고 불리는 검출 전자의 강도 분포에 의거하여 시료 상에 형성된 패턴의 패턴 폭을 측정하는 기능을 구비하고 있다.
다음으로, 기계 학습을 이용하여 회로의 촬영 화상의 베리에이션을 화소값의 통계량으로서 추정하는 처리, 그 통계량을 추정 가능한 모델의 파라미터(모델 데이터)를 학습하는 처리, 또는, 그 통계량을 이용한 공정 정보의 평가 처리 또는 패턴 매칭 처리의 일례에 대하여 설명한다.
통계량의 추정 처리 혹은 모델 데이터의 학습 처리는, 제어 장치(1414) 안에 내장된 연산 장치, 혹은 화상 처리 기능을 가진 연산 장치에서 실행하는 것도 가능하다. 또한, 네트워크를 경유하여, 외부의 연산 장치(예를 들면 조건 설정 장치(1303))에서 처리를 실행하는 것도 가능하다. 또한, 제어 장치(1414) 안에 내장된 연산 장치 혹은 화상 처리 기능을 가진 연산 장치와 외부의 연산 장치와의 처리 분담은, 적절히 설정 가능하며, 상술한 예에 한정되지 않는다.
도 1a는 설계 데이터 및 공정 정보로부터 얻어지는 촬영 화상의 예를 나타내는 도면이다.
본 도면에 있어서는, 설계 데이터 화상(101) 및 소정의 공정 정보(102)로부터 회로의 촬영 화상(104)이 얻어진다.
설계 데이터 화상(101)은 회로의 배선이나 그 배치를 나타내는 기준 데이터의 하나의 형식이다.
도 1b는 설계 데이터 및 공정 정보로부터 얻어지는 촬영 화상의 다른 예를 나타내는 도면이다.
본 도면에 있어서는, 설계 데이터 화상(101) 및 소정의 공정 정보(103)로부터 회로의 촬영 화상(105)이 얻어진다.
이들 도면은 동일한 설계 데이터 화상(101)을 사용했더라도, 공정 정보가 다른 경우에는, 촬영 화상이 다른 것을 나타내고 있다.
본 실시예에서는, CAD 데이터 등으로 기술되는 설계 데이터를 화상화한 설계 데이터 화상을 사용한다. 일례로서, 회로의 배선부와 그 이외의 영역으로 구분 도포된 2치 화상을 들 수 있다. 반도체 회로의 경우, 배선이 2층 이상인 다층 회로도 존재한다. 예를 들면, 배선이 1층이면 배선과 그 이외의 영역의 2치 화상, 배선이 2층이면 하층과 상층의 배선부와 그 이외의 영역의 3치 화상으로서 사용할 수 있다. 또한, 설계 데이터 화상은 기준 데이터의 일례이며, 이것을 한정하는 것은 아니다.
공정 정보(102, 103)는 회로의 제조에서 촬영까지의 각 공정에서 사용되는 1종류 이상의 파라미터이다. 본 실시예에서는, 공정 정보를 실수값으로서 취급한다. 공정의 구체예로서는, 에칭 공정, 리소그래피 공정, SEM에 의한 촬영 공정 등이 있다. 파라미터의 구체예로서는, 리소그래피 공정이면 노광량(Dose)이나 포커스(Focus) 등을 들 수 있다.
회로의 촬영 화상(104, 105)은, 설계 데이터 화상(101)에서 제시된 설계 데이터에 의거하여, 각각의 공정 정보(102, 103)를 이용하여 제조된 회로의 촬영 화상이다. 본 실시예에서 취급하는 촬영 화상은, SEM에 의해 촬영된 그레이 스케일 화상인 것으로 하여 취급한다. 따라서, 촬영 화상 자체는, 임의의 높이 및 폭을 가지며, 화상의 채널이 1인 것으로 한다.
회로는, 제조 공정의 파라미터에 의해, 전기적으로 문제 없게 허용되는 정도의 변형이 생기며, 설계 데이터대로의 회로 형상으로 되지는 않는다. 또한, 회로의 촬영 화상은, SEM을 이용한 촬영 공정의 파라미터에 따라, 회로의 찍히는 쪽이 다르다. 그 때문에, 촬영 화상(104)과 촬영 화상(105)은, 동일한 설계 데이터 화상(101)에 대응하고 있지만, 공정 정보가 다르기 때문에, 동일한 회로의 변형량으로 되지는 않으며, 또한 화상의 상질도 다르다. 여기에서, 화상의 상질의 구체예로서, 노이즈나 콘트라스트 변화가 있다.
또한, 설계 데이터와 공정 정보가 동일해도, 얻어지는 회로의 촬영 화상은 엄밀하게 동일하게 되지는 않는다. 왜냐하면, 제조 공정 혹은 촬영 공정의 파라미터를 설정해도, 거기에는 프로세스 변동이 존재하여, 얻어지는 결과에 편차가 생기기 때문이다.
본 실시예에서는, 기준 데이터를 설계 데이터 화상, 공정 정보를 그 파라미터 값을 나타내는 실수값, 회로의 촬영 화상을 SEM에 의해 촬영한 화상인 것으로 하고 있지만, 이들을 제한하는 것이 아니다.
다음으로, 촬영 화상의 베리에이션을 화소값의 통계량으로서 추정하는 처리에 대하여 설명한다.
도 2는 본 실시예의 화상 처리 시스템을 나타내는 구성도이다.
본 도면에 나타내는 바와 같이, 화상 처리 시스템은, 입력 접수부(201)와, 추정부(202)와, 출력부(203)를 구비하고 있다. 또한, 화상 처리 시스템은, 적절하게, 기억부를 구비하고 있다.
입력 접수부(201)는 기준 데이터(204)와 공정 정보(205)와 학습 완료된 모델 데이터(206)의 입력을 접수한다. 그리고, 추정부(202)는 입력 접수부(201)에서 접수한 입력을 회로의 촬영 화상의 베리에이션을 포착한 통계량으로 변환한다. 출력부(203)는 이 통계량을 촬영 화상 통계량(207)으로서 출력한다.
기준 데이터(204)는 회로의 배선의 형상이나 그 배치를 기술하며, 본 실시예에서는 설계 데이터 혹은 이것을 화상화한 설계 데이터로서 취급한다.
추정부(202)는 입력 접수부(201)가 접수한 입력을 이것에 대응하는 회로의 촬영 화상의 베리에이션을 나타내는 통계량으로 변환한다. 이 변환을 행하기 위해서, 추정부(202)는, 모델 데이터(206)에 의해 파라미터가 설정되며, 설계 데이터 화상과 공정 정보로부터 촬영 화상 통계량을 추정하는 수리 모델을 구비한다.
구체적으로는, 컨벌루션 뉴럴 네트워크(CNN)를 사용한다. CNN에 있어서는, 인코더가 2층 이상의 컨벌루션층(Convolutional Layer)과 풀링층(Pooling Layer)으로 구성되며, 디코더가 2층 이상의 역컨벌루션층(Deconvolution Layer)으로 구성된다. 이 경우, 모델 데이터는, CNN이 가진 각 층의 필터의 가중치(변환 파라미터)가 된다. 또한, 촬영 화상 통계량을 추정하는 수리 모델은, CNN 모델 이외도 사용 가능하며, 이에 한정되는 것이 아니다.
입력 접수부(201)는 소정의 포맷에 따르는 기준 데이터(204)와 공정 정보(205)와 모델 데이터(206)를 읽어들인다.
출력부(203)는 추정부(202)에 있어서의 연산 결과를 소정의 포맷으로 출력한다.
또한, 본 도면에 나타내는 입력 접수부(201), 추정부(202) 및 출력부(203)는, 본 실시예에 나타내는 시스템의 구성 요소의 일부이며, 네트워크로 연결된 복수의 컴퓨터에 분산되어서 배치되어 있어도 된다. 또한, 입력되는 기준 데이터(204), 공정 정보(205), 학습 완료된 모델 데이터(206)를 포함하는 데이터 등은, 유저가 외부에서 입력해도 되지만, 소정의 기억 장치에 기억되어 있는 것이어도 된다.
설계 데이터 화상과 촬영 화상의 대응 관계에 대하여 설명한다.
구체적으로는, 도 8a∼도 8d를 사용하여, 설계 데이터 화상과 검사 대상 화상에 있어서의 배선의 형상 괴리의 예에 대하여 설명한다.
도 8a는 설계 데이터 화상의 일례를 나타내는 도면이다.
본 도면에 있어서, 설계 데이터 화상(801)은, 백색 화소(셀)로 구성된 배선(811)을 갖는다. 설계 데이터 화상(801)은, 설계 데이터에 의거한 것이기 때문에, 이상적으로 직교하는 배선(811)이 나타나 있다.
도 8b∼도 8d는 도 8a의 설계 데이터 화상(801)에 대응하는 촬영 화상의 예를 나타내는 도면이다.
도 8b에 있어서는 설계 데이터 화상(801)에 대응하는 촬영 화상(802)이 나타나 있다.
도 8c에 있어서는 설계 데이터 화상(801)에 대응하는 촬영 화상(803)이 나타나 있다.
도 8d에 있어서는 설계 데이터 화상(801)에 대응하는 촬영 화상(804)이 나타나 있다.
도 8b의 촬영 화상(802), 도 8c의 촬영 화상(803) 및 도 8d의 촬영 화상(804)은, 제조 조건 및 촬영 조건 중 적어도 어느 한쪽의 영향을 받는다. 이 때문에, 배선(811)의 형상은, 촬영 화상(802, 803, 804)의 각각에 있어서 서로 다르다. 바꿔 말하면, 배선(811)의 형상의 차이는, 제조 회차에 의해서도, 촬영 회차에 의해서도 발생한다. 따라서, 설계 데이터 화상 상의 어느 화소가 임의의 휘도값을 취했을 때에, 촬영 화상 상의 동일 화소가 취할 수 있는 휘도값은, 복수 가지로 존재한다.
예를 들면, 촬영 화상(802, 803, 804)이 그레이 스케일 화상이면, 각 화소가 취할 수 있는 휘도값은, 0에서 255까지의 정수이다. 이 경우, 휘도값 분포는, 0∼255의 휘도값에 대한 빈도를 나타낸다. 통계량의 예로서는, 휘도값 분포가 정규 분포이면 평균과 표준 편차, 포아송 분포이면 도착율 등이 고려된다.
정리하면, 어떤 제조 조건 또는 촬영 조건 하에 있어서의 설계 데이터에 대하여, 상기의 휘도값 등의 화소값의 확률 밀도 분포를 정의할 수 있다.
도 10a는 설계 데이터 화상의 예를 나타내는 도면이다.
본 도면에 있어서는, 설계 데이터 화상(1000a)에 착목(着目) 화소(1001) 및 그 주위 영역(1002)이 나타나 있다.
도 10b는 촬영 화상의 예를 나타내는 도면이다.
본 도면에 있어서는 촬영 화상(1000b)에 화소(1003)가 나타나 있다.
도 10a의 착목 화소(1001)와 도 10b의 화소(1003)는, 회로(시료)의 화상에 대하여 대비(對比)하기 위해서 위치 맞춤했을 때에, 동일한 좌표에 위치된다. 화소(1003)가 취할 수 있는 화소값의 통계량은, 착목 화소(1001) 및 주위 영역(1002)의 화소값에 의해 추정된다. 이것은, CNN의 컨벌루션층에서 계산할 때에, 주위의 화소를 포함시킨 연산이 되기 때문이다. 또한, 주위 영역(1002)의 사이즈는, CNN의 필터 사이즈나 스트라이드 사이즈 등에 의해 결정된다.
도 3a 및 도 3b는 본 실시예의 화상 처리 시스템에 있어서 처리되는 데이터의 흐름을 나타내는 구성도이다.
이들 도면에 있어서는, 입력 접수부(201)가 설계 데이터 화상(101)과 공정 정보(102 또는 103)와 모델 데이터(301)의 입력을 접수하고, 추정부(202)가 이 입력을 대응하는 회로의 촬영 화상의 베리에이션을 규정하는 통계량으로 변환하고, 출력부(203)가 산출된 촬영 화상 통계량(302 또는 305)을 출력한다.
도 3a와 도 3b를 비교하면, 설계 데이터 화상(101)과 모델 데이터(301)가 공통이어도, 도 3a의 공정 정보(102)를 도 3b의 공정 정보(103)로 변경하면, 출력은, 도 3a의 촬영 화상 통계량(302)과는 다른 도 3b의 촬영 화상 통계량(305)으로 된다. 출력 형식으로서의 평균 화상(306) 및 표준 편차(307)는, 평균 화상(303) 및 표준 편차 화상(304)과 다르다. 이에 의해, 공정 정보의 차이에 따른 평균적인 회로상(回路像)의 변화나 상질의 차이, 편차가 큰 부분의 위치 및 그 정도 등에 관한 정보를 얻을 수 있다.
도 9는 촬영 화상 통계량의 표현 형식의 일례를 나타내는 그래프이다.
본 도면에 있어서는, 촬영 화상 통계량을 각 화소에 있어서의 화소값의 확률 분포인 확률 밀도 함수(901)로서 나타내고 있다. 예를 들면, 도 3a의 촬영 화상 통계량(302)을 확률 밀도 함수(901)로 나타냈을 경우, 확률 밀도 함수(901)의 평균 및 표준 편차의 값을 얻을 수 있다. 마찬가지로 해서 각 화소에 대한 평균 및 표준 편차의 값을 구하면, 평균 화상(303) 및 표준 편차 화상(304)을 얻을 수 있다.
확률 밀도 함수(901)는, 어떤 회로의 촬영 화상 상에 있어서, 각 화소가 취할 수 있는 화소값에 대한 출현 빈도의 확률 밀도 함수로 표현된다. 구체적으로는, 촬영 화상이 그레이 스케일이면, 256가지의 화소값의 출현 빈도로서 분포를 정의할 수 있다. 또한, 통계량으로서는 화소 이외를 단위로 해도 된다.
예를 들면, 확률 밀도 함수(901)가 가우스 분포인 것으로 가정하면, 확률 밀도 함수(901)를 그 평균 및 표준 편차(혹은 분산)에 의해서 일의적으로 규정할 수 있다.
평균 화상(303) 및 표준 편차 화상(304)은, 촬영 화상 통계량(302)의 출력 형식의 예이다. 촬영 화상 통계량을 화소마다의 가우스 분포로 하면, 그 평균 및 표준 편차의 값을 화상으로 변환한 평균 화상 및 표준 편차 화상으로서 추정하여 출력할 수 있다.
평균 화상(303)은, 각 화소의 가우스 분포의 평균을 그레이 스케일 화상으로 변환한 것이다. 촬영 화상 통계량(302)을 가우스 분포로 가정하면, 그 분포의 평균값은 최빈값(最頻値)에 일치하기 때문에, 얻어지는 평균 화상(303)은, 설계 데이터 화상(101)을 이용하고, 또한, 공정 정보(102)의 조건 하에 있어서의 가장 평균적인 회로 형상을 갖는 촬영 화상이 된다.
표준 편차 화상(304)은 각 화소의 가우스 분포의 표준 편차를 그레이 스케일 화상으로 변환한 것이다. 각 화소 간의 표준 편차의 상대 관계를 유지한 채 화상화하는 것에 의해, 회로의 변형이나 화상의 상질 변화가 큰 화상 영역을 가시화할 수 있다. 예를 들면, 반도체 회로에서는, 배선(라인)의 에지(edge)에 있어서 변형이 다발(多發)하기 때문에, 편차(표준 편차)가 크게 된다. 한편, 배선의 에지 이외의 영역이나 배선 이외의 공간부(스페이스)에서는, 변형이 드물기 때문에, 편차는 작게 된다. 본 실시예에 있어서의 표준 편차는, 어떤 설계 데이터 및 공정 정보의 조건 하에서 제조 및 촬영되었을 경우의 프로세스 변동을 흡수하는 역할을 달성한다.
상술한 바와 같이, 제조된 회로의 형상과 그 촬영 화상의 상질은, 공정 정보에 의존한다.
도 3a 및 도 3b에 나타내는 바와 같은 처리를 하는 것에 의해, 설계 데이터 및 학습 완료된 모델 데이터가 있으면, 입력의 공정 정보를 변경했을 경우의 회로 및 그 촬영 화상에의 영향을 실제로 제조하여 촬영하지 않고 알 수 있다.
도 4는 촬영 화상 통계량의 추정에 사용하는 모델 데이터를 작성하기 위한 학습 처리의 예를 나타내는 흐름도이다.
학습 처리는 기계 학습부에서 행한다.
본 도면에 나타내는 학습 처리에 있어서는, 유저가 모델 데이터를 입력하고(S401), 유저가 설계 데이터 화상 및 공정 정보를 입력한다(S402). 그리고, 기계 학습부는, 이들의 입력으로부터 촬영 화상 통계량을 추정해 출력한다(S403). 여기서, 상기의 유저에 의한 입력은, 유저에 의한 것이 아니어도 되며, 예를 들면 소정의 기억부가 가진 데이터를 자동적으로 선별해서, 기계 학습부가 읽어들이는 것에 의해 행해도 된다.
그리고, 학습의 종료 조건을 충족시키고 있는지를 판정한다(학습 필요 여부 판정 공정(S404)).
종료 조건을 충족시키고 있지 않으면, 교사 데이터인 촬영 화상을 입력한다(S405). 그리고, 촬영 화상(교사 데이터)과 추정된 화상 정보(촬영 화상 통계량)를 비교하고(S406), 비교 결과에 따라서 모델 데이터를 갱신한다(S407). 비교 방법의 예로서, 추정된 화상 정보(촬영 화상 통계량)를「추정 촬영 화상」으로 변환하여 비교하는 방법이 있다. 바꿔 말하면, 추정 촬영 화상은 촬영 화상 통계량으로부터 생성 가능하다.
한편, S404에 있어서 종료 조건을 충족시키고 있으면, 모델 데이터를 저장하고(S408), 학습 처리를 종료한다.
또한, 미리 기억 매체(1305)(도 13)에 학습 완료된 모델 데이터를 기억시키고 있는 경우, S401의 입력은 생략할 수 있다.
또한, S401 및 S402를 정리해서「입력 공정」이라고도 한다. 또한, S403은「추정 공정」이라고도 한다. 또한, S403은 도 2의 출력부(203)에 대응하는 처리를 하는 관점에서,「출력 공정」이라고 할 수도 있다.
이하 처리 내용에 대하여 상세히 설명한다.
S401에서 입력되고, S407에서 갱신되고, S408에서 저장되는 모델 데이터는, S403에서 사용하는 컨벌루션층 혹은 역컨벌루션층의 필터의 가중치이다. 바꿔 말하면, S403에서 사용하는 CNN의 인코더나 디코더의 각 층의 구성 정보나, 그 변환 파라미터(가중치)이다. 이 변환 파라미터는, S406의 비교 처리에 있어서, S403에서 추정된 촬영 화상 통계량과, S405에서 입력된 촬영 화상을 이용하여 산출되는 손실 함수의 값을 최소화하도록 결정된다. S401에 있어서의 모델 데이터는, 학습 처리를 거쳐, 설계 데이터 화상과 공정 정보로부터, 대응하는 촬영 화상을 추정 가능하게 된다. 여기에서, 손실 함수의 구체예로서는, 평균 제곱 오차, 교차 엔트로피 오차 등이 있다.
S402에서 입력하는 기준 데이터는, 본 실시예에서는 설계 데이터 화상이다.
S404의 학습 필요 여부 판정의 예로서는, 학습의 반복 횟수가 규정 횟수 이상인지, 학습에 사용하는 손실 함수가 수속(收束)되었는지 등이 있다.
S408에서 저장되는 모델 데이터는, CNN의 각 층의 가중치를 소정의 형식으로 파일 출력하는 것에 의해서 저장된다.
다음으로, 학습 처리에서 사용하는 설계 데이터 화상과 회로의 촬영 화상의 관계에 대하여 설명한다.
S406에서는, 추정된 촬영 화상 통계량(추정 촬영 화상)과, 촬영 화상을 비교한다. 이 때, 올바르게 비교하기 위해서는, 설계 데이터와 촬영 화상의 위치가 일치해 있을 필요가 있다. 그 때문에, 학습용의 데이터 세트(학습 데이터 세트)는, 위치 맞춤이 이루어진 설계 데이터 화상과 촬영 화상의 페어(pair)가 필요하다. 일반적으로, 학습용의 데이터 세트 내의 화상 매수는 많은 편이 바람직하다. 또한, 학습에 사용하는 회로의 형상과 평가에 사용하는 회로의 형상은 유사한 편이 바람직하다.
또한, 설계 데이터를 기점으로 하여 회로의 변형을 학습하기 위해, S401에서 접수하는 설계 데이터와 S405에서 접수하는 촬영 화상은, 위치 맞춤이 되어 있을 필요가 있다. 학습용의 설계 데이터 화상과 이것을 제조한 회로의 촬영 화상에 대하여, 회로 패턴이 일치하도록 화상 상의 위치를 맞춘다. 위치 맞춤의 방법의 예로서는, 설계 데이터 화상 및 촬영 화상의 배선의 윤곽선을 구하고, 윤곽선으로 둘러싸여진 도형의 중심을 일치시키도록 위치 결정을 행하는 방법이 있다.
학습 처리에서 사용하는 공정 정보, 혹은 학습 완료된 모델 데이터를 이용한 촬영 화상 통계량의 추정 처리에서 사용하는 공정 정보는, 고려하고 싶은 파라미터만을 사용해도 되고, 제조 공정이나 촬영 공정과 관련된 모든 파라미터를 사용해도 된다. 단, 공정 정보가 늘어나면, CNN에 있어서의 연산량이 증가하기 때문에, 필요 최저한의 파라미터만을 사용하는 편이, 처리 속도의 관점에서 바람직하다.
S406의 비교 처리의 실시예로서, 통계량에 의거하여 샘플링한 화상과 촬영 화상의 차분 계산이 있다.
정리하면, 기계 학습부는, 모델 데이터에 대한 학습의 필요성을 판정하고, 학습 필요 여부 판정 공정에서 학습의 필요성을 필요로 판정했을 경우에는, 학습용의 기준 데이터와 공정 정보와 촬영 화상을 포함하는 학습 데이터 세트의 입력을 받고, 촬영 화상 통계량과 학습 데이터 세트의 촬영 화상의 데이터의 비교를 하고, 비교의 결과에 의거하여 모델 데이터를 갱신한다. 한편, 학습 필요 여부 판정 공정에서 학습의 필요성을 불필요로 판정했을 경우에는, 기억부가, 추정부가 촬영 화상 통계량을 산출할 때에 이용하는 파라미터를 모델 데이터로서 저장한다.
다음으로, 도 6a 및 도 6b 그리고 도 7a 및 도 7b를 사용해서, S402에서 입력되는 설계 데이터 화상 및 공정 정보의 입력 형식의 예에 대하여 설명한다.
도 6a는 설계 데이터 화상을 특징량으로 변환하는 예에 대해서 모식적으로 나타낸 것이다.
본 도면에 있어서는 설계 데이터 화상(601)과, 이것을 뉴럴 네트워크 모델이 가진 2개 이상의 컨벌루션층에 의해 계산된 특징량(602)의 일례를 나타내는 도면이다.
설계 데이터 화상(601)은 CAD 등의 설계 데이터를 화상화한 2치 화상이다. 여기에서, 격자에 의해 구획된 셀은, 화상을 구성하는 각각의 화소를 나타내고 있다.
특징량(602)은 설계 데이터 화상(601)을, 촬영 화상 통계량 추정부(추정부)가 가진 CNN의 컨벌루션층(인코더층)을 이용하여 계산되는 것이며, 행렬로 표현되어 있다. 특징량(602)은 설계 데이터 화상 상의 각 화소가 배선부와 그 이외 중의 어느 쪽에 속해 있는지라고 하는 설계 정보나, 배선의 에지 부근이나 코너(corner) 부근 등의 배선의 형상이나 배치에 관한 설계 정보 등을 갖는다. 특징량(602)은 높이, 폭 및 채널을 가진 삼차원 행렬로서 표현할 수 있다. 이 때, 설계 데이터 화상(601)으로부터 산출되는 특징량(602)의 높이, 폭 및 채널은, CNN이 가진 컨벌루션층의 수나, 그 필터 사이즈 혹은 스트라이드 사이즈 혹은 패딩 사이즈 등에 의존해서 결정된다.
도 6b는 특징량과 공정 정보의 결합 형식의 일례를 나타낸 것이다.
본 도면에 나타내는 바와 같이, 도 6a의 특징량(602)은 공정 정보(603, 604, 605)와 결합한 삼차원 행렬로서 표현된다.
공정 정보(603, 604, 605)는, 제조 조건이나 촬영 조건을 나타내는 실수값을, 특징량(602)의 높이 및 폭이 같고 채널 사이즈가 1인 행렬로서 주어지는 것이며, 삼차원 행렬로서 표시한 것이다. 구체적으로는, 모든 요소의 값이 1이며, 높이 및 폭이 특징량(602)과 같고, 채널 사이즈가 1인 삼차원 행렬을 준비하고, 이것에 제조 조건이나 촬영 조건을 나타내는 실수값을 승산한 삼차원 행렬을 들 수 있다.
촬영 화상 통계량 추정부가 가진 CNN의 입력으로 할 경우에는, 설계 데이터 화상(601)을 CNN의 컨벌루션층(인코더층)에 의해 특징량(602)으로 변환하고, 특징량(602)과 공정 정보(603, 604, 605)를 채널의 순서대로 결합시켜, 결합한 것을 CNN이 가진 역컨벌루션층(디코더층)에 입력한다. 여기서는, 공정 정보가 2개인 경우에 대해서 설명하고 있지만, 채용하는 공정 정보는 하나여도 되고, 2개 이상이어도 되며, 이것을 제한하는 것이 아니다.
도 7a는 본 실시예에 있어서의 입력 형식의 일례를 나타내는 도면이다.
본 도면에 있어서는, 설계 데이터 화상(701), 공정 정보(702) 및 공정 정보(703)의 예가 모식적으로 나타나 있다.
설계 데이터 화상(701)은, CAD 등의 설계 데이터를 화상화한 것이다. 예로서, 회로에 있어서의 배선부와 공간부로 구분 도포한 2치 화상을 들 수 있다. 반도체 회로의 경우, 배선이 2층 이상인 다층으로 되어 있는 것이 있다. 예를 들면, 배선이 1층이면 배선부와 공간부의 2치 화상, 배선이 2층이면 하층의 배선부와 상층의 배선부, 공간부의 3치 화상으로서 사용할 수 있다. 또한, 설계 데이터 화상은 기준 화상의 일례이며, 이것을 한정하는 것은 아니다.
공정 정보(702) 및 공정 정보(703)는, 제조 조건이나 촬영 조건을 나타내는 실수값을 설계 데이터 화상과 동(同)사이즈의 화상으로서 제공한다. 구체적으로는, 모든 요소의 값이 1이며, 화상 사이즈가 설계 데이터와 같은 행렬에, 제조 조건이나 촬영 조건을 나타내는 실수값을 승산한 행렬을 들 수 있다.
도 7b는 본 실시예에 있어서의 결합 형식의 일례를 나타내는 도면이다.
본 도면에 있어서는, 설계 데이터 화상(701), 공정 정보(702) 및 공정 정보(703)의 예가 모식적으로 나타나 있다.
촬영 화상 통계량 추정부가 가진 CNN의 입력으로 하는 방법의 일례는, 설계 데이터 화상(701)과 공정 정보(702)와 공정 정보(703)를 화상의 채널의 순서대로 결합하는 것이다. 여기에서는 공정 정보가 2개인 경우에 대해서 설명하고 있지만, 사용하는 공정 정보는 하나여도 되고, 2개 이상이어도 되며, 이것을 제한하는 것이 아니다.
또한, 도 6a∼도 7b에 나타내는 공정 정보의 결합 방법은, 이것을 제한하는 것이 아니다.
또한, 공정 정보가 회로 혹은 그 촬영 화상에 미치는 영향을 평가하는 것을 들 수 있다.
예를 들면, 공정 정보가 가진 파라미터 중 하나만을 변경해서, 촬영 화상 통계량을 산출한다. 이 때, 실제로 제조하여 촬영했을 때에 나타나는 변형의 방식을 평균 화상으로부터, 회로의 각 부위에서 어느 정도의 변형 범위가 상정되는 지를 표준 편차 화상으로부터 관측할 수 있다. 이 때문에, 사전에 학습하여 작성한 모델 데이터가 있으면, 실제로 제조 및 촬영을 하지 않고, 회로의 변형 혹은 촬영 화상의 상질에 미치는 영향을 평가할 수 있다. 공정 정보의 변화에 의해, 평균 화상의 변화가 적으며, 또한 표준 편차 화상에서 표준 편차의 값이 작은 경우에는, 그 파라미터가 회로의 형상 변형이나 그 편차의 정도에 미치는 영향은 작다고 할 수 있다.
본 실시예에서는, 공정 정보를 2개로 하고, 그 중 하나만을 변경했을 경우에 대해서 설명하고 있지만, 이것을 제한하는 것이 아니며, 공정 정보가 갖는 파라미터 수는 하나여도 되고, 3개 이상이어도 된다. 또한, 공정 정보 내의 파라미터를 하나만 변경해서 실행해도 되고, 복수 변경해서 실행해도 된다.
다음으로, 도 2의 추정부(202)의 다른 실시예로서, 패턴 매칭의 템플릿 화상을 작성하는 경우에 대하여 설명한다.
도 5는 형상 검사 시스템에 있어서 처리되는 데이터의 흐름을 나타내는 구성도이며, 촬영 화상 통계량을 이용하여 패턴 매칭을 실시하는 처리의 예를 나타낸 것이다.
본 도면에 나타내는 형상 검사 시스템은, 촬영 화상 통계량(207)이 입력되는 입력 접수부(501)와, 촬영 화상(504)이 입력되는 입력 접수부(505)와, 템플릿 화상 작성부(502)와, 패턴 매칭 처리부(503)와, 출력부(506)를 구비하고 있다. 또한, 본 도면에 나타내는 데이터의 흐름은 형상 검사 방법의 예이다.
촬영 화상(504)은 패턴 매칭의 대상으로 하는 촬영 화상(실제의 촬영 화상)이다.
촬영 화상 통계량(207)은 촬영 화상(504)의 회로를 제조하여 촬영했을 때의 공정 정보와, 촬영 화상(504)의 회로의 설계 데이터 화상과, 학습 처리로 작성한 모델 데이터를, 도 2에 나타내는 입력 접수부(201)가 접수하고, 추정부(202)가 산출하여, 출력부(203)가 출력한 것이다.
본 도면에 나타내는 패턴 매칭 처리는 다음과 같이 행해진다.
입력 접수부(501)가 촬영 화상 통계량(207)을 접수하고, 템플릿 화상 작성부(502)가 촬영 화상 통계량(207)을 템플릿 화상으로 변환하여, 패턴 매칭 처리부(503)에 전달한다. 한편, 입력 접수부(505)가 촬영 화상(504)을 접수하고, 패턴 매칭 처리부(503)에 전달한다.
패턴 매칭 처리부(503)에 있어서는, 촬영 화상(504)과 템플릿 화상을 이용하여 패턴 매칭 처리를 실시한다. 그리고, 출력부(506)가 매칭 결과(507)를 출력한다.
패턴 매칭 처리부(503)는 템플릿 화상과 촬영 화상(504)을 대조하고, 그 위치를 맞추는 처리를 행한다.
구체적인 방법의 예는, 템플릿 화상과 촬영 화상(504)의 상대 위치를 바꾸면서 정규화 상호 상관을 유사도 스코어로서 계산하고, 가장 유사도 스코어가 높았던 상대 위치를 출력하는 것이다. 매칭 결과(507)의 형식은, 예를 들면, 화상의 이동량을 나타내는 이차원의 좌표값이어도 되고, 가장 유사도가 높은 위치에 있어서, 템플릿 화상과 촬영 화상(504)을 오버레이시킨 화상이어도 된다.
입력되는 촬영 화상 통계량(207)은, 매칭 대상인 촬영 화상(504)에 대응하는 설계 데이터 화상 및 공정 정보를 이용하여, 도 2의 추정부(202)에서 추정된 것이다. 이 때, 추정부(202)에 부여하는 모델 데이터는, 패턴 매칭 처리의 사전에 학습 처리에 의해 작성된 것이 바람직하다.
템플릿 화상 작성부(502)에서 작성되는 템플릿 화상의 예로서는, 촬영 화상 통계량(207)이 가진 평균값을 화상화한 평균 화상이나, 촬영 화상 통계량(207)으로부터 각 화소의 값을 샘플링해서 얻어지는 샘플링 화상을 들 수 있다.
패턴 매칭 처리 전에 행하는 학습 처리에서 사용하는 회로의 촬영 화상은, 과거에 제조된 웨이퍼로부터 취득한 촬영 화상을 사용해도 되고, 매칭 대상의 웨이퍼로부터 취득한 촬영 화상을 사용해도 된다.
도 11은 촬영 화상 통계량을 추정하여 회로의 평가를 실시하기 위한 GUI를 나타내는 구성도이다. 여기서, GUI는, 그래픽 사용자 인터페이스(graphical user interface)의 약칭이다.
본 도면에 나타내는 GUI(1100)에는, 설계 데이터 화상 설정부(1101)와, 모델 데이터 설정부(1102)와, 공정 정보 설정부(1103)와, 평가 결과 표시부(1104)와, 표시 화상 조작부(1107)가 표시되어 있다.
설계 데이터 화상 설정부(1101)는 촬영 화상 통계량의 추정에 필요한 설계 데이터 화상에 관한 설정을 행하는 영역이다.
모델 데이터 설정부(1102)는 촬영 화상 통계량의 추정에 필요한 학습 완료된 모델 데이터에 관한 설정을 행하는 영역이다.
공정 정보 설정부(1103)는 촬영 화상 통계량의 추정에 필요한 공정 정보에 관한 설정을 행하는 영역이다. 예를 들면, 공정 정보의 설정 방법으로서, 리소그래피나 에칭 등의 각 공정에 필요한 파라미터를 개별로 입력하는 방법을 들 수 있다.
설계 데이터 화상 설정부(1101), 모델 데이터 설정부(1102) 및 공정 정보 설정부(1103)에서는, 소정의 포맷으로 저장된 기억 영역을 지정함으로써, 각각의 데이터를 읽어들인다.
평가 결과 표시부(1104)는 설계 데이터 화상 설정부(1101), 모델 데이터 설정부(1102) 및 공정 정보 설정부(1103)에서 설정한 데이터로부터 추정된 촬영 화상 통계량에 관한 정보를 표시하는 영역이다. 표시하는 정보의 예로서, 촬영 화상 통계량으로부터 작성된 평균 화상(1105)이나 표준 편차 화상(1106)을 들 수 있다.
표시 화상 조작부(1107)는 평가 결과 표시부(1104)에 표시된 정보에 관한 조작을 행하는 영역이다. 조작으로서는, 표시되어 있는 화상을 다른 화상으로 전환하는 것이나, 화상의 확대 또는 축소를 하는 것을 들 수 있다.
도 12는 학습 처리를 실시하기 위한 GUI를 나타내는 구성도이다.
본 도면에 나타내는 GUI(1200)에는 학습 데이터 세트 설정부(1201)와, 모델 데이터 설정부(1202)와, 학습 조건 설정부(1203)와, 학습 결과 표시부(1204)가 표시되어 있다.
학습 데이터 세트 설정부(1201)는 학습 처리에서 사용하는 설계 데이터 화상과 공정 정보와 촬영 화상을 포함하는 학습 데이터 세트에 관한 설정을 행하는 영역이다. 여기에서는, 소정의 포맷으로 저장된 기억 영역을 지정함으로써 데이터를 읽어들인다.
모델 데이터 설정부(1202)는 학습 처리에서 입력되고, 갱신되고, 저장되는 모델 데이터에 관한 설정을 행하는 영역이다. 여기에서는, 소정의 포맷으로 저장된 기억 영역을 지정함으로써 모델 데이터를 읽어들인다. 학습 조건 설정부(1203)는 학습 처리의 학습 조건에 관한 설정을 행하는 영역이다. 예를 들면, 학습 필요 여부 판정(S404)으로서 학습 횟수를 지정해도 되고, 학습을 종료시키는 기준으로 하는 손실 함수의 값을 지정해도 된다.
학습 결과 표시부(1204)는 학습 처리의 도중 경과 또는 종료 후의 학습 결과를 표시하는 영역이다. 손실 함수의 시간 변화의 그래프(1205)를 표시해도 되고, 학습 도중 또는 종료 시의 모델을 이용하여 추정한 촬영 화상 통계량을 가시화한 화상(1206)을 표시해도 된다.
GUI(1100)와 GUI(1200)는 개별이어도 되고, 학습 처리와 평가에 관한 GUI로서 통합해도 된다. 또한, GUI(1100) 또는 GUI(1200)에서 나타내는 설정, 표시 또는 조작을 위한 영역은, 일례이고, 그 모두가 GUI에 필수는 아니며, 일부만으로 실현해도 된다. 또한, 이들의 처리를 실행하는 장치도, 프로그램과 마찬가지로, 각 처리를 하나의 장치에 의해 실행해도 되고, 서로 다른 장치에 의해 실행해도 된다.
도 2, 도 3a 및 도 3b의 촬영 화상 통계량을 추정하는 처리, 도 4의 학습 처리, 및 도 5의 패턴 매칭 처리에 대해서는, 각각 다른 프로그램에 의해 실행해도 되고, 각각을 개별의 프로그램에 의해 실행해도 된다. 또한, 이들의 처리를 실행하는 장치도, 프로그램과 마찬가지로, 각 처리를 하나의 장치에 의해 실행해도 되고, 서로 다른 장치에 의해 실행해도 된다.
또한, 본 발명은, 상기한 실시예에 한정되는 것이 아니며, 다양한 변형예가 포함된다. 예를 들면, 상기한 실시예는, 본 발명을 알기 쉽게 설명하기 위해 상세하게 설명한 것이며, 반드시 설명한 모든 구성을 구비하는 것에 한정되는 것은 아니다.
본 실시예에 따르면, 시료의 설계 데이터 등의 기준 화상, 공정 정보 및 촬영 화상의 대응 관계에 의거하여, 설계 데이터 화상으로부터 공정 정보에 따른 시료의 형상의 변형 범위를 통계량으로서 추정할 수 있다. 추정한 통계량을 이용하여, 시료의 촬영 화상에 대한 패턴 매칭이 가능해진다.
또한, 본 실시예는, 평가 대상으로서 반도체 회로 이외에도 적용 가능하다. 또한, 화상 이외의 입력 데이터(레이더에 의한 형상 계측)를 이용하는 것이 가능하다.
이하, 본 발명의 효과에 대해서 정리하여 설명한다.
본 발명에 따르면, 시료의 설계 데이터 등의 기준 데이터와, 시료의 제조 공정 또는 촬영 공정에서 설정되는 파라미터인 공정 정보와, 시료의 촬영 화상의 대응 관계에 의거하여, 임의의 시료의 기준 데이터 및 그 공정 정보로부터, 시료의 변형 또는 물성이나, 시료의 촬영 화상의 상질의 변동을 추정할 수 있다.
예를 들면, 계측이나 검사 등의 평가를 하기 전에 취득한 회로의 설계 데이터와, 회로의 제조 공정 또는 촬영 공정에서 사용한 공정 정보의 일부 또는 전부와, 촬영 화상의 대응 관계를 학습해서 구성한 수리 모델을 이용하여, 임의의 설계 데이터 화상 및 임의의 공정 정보로부터, 그 조건 하에 있어서의 회로의 변형 범위를 직접 추정할 수 있다. 이 때문에, 추정 결과로부터 패턴 매칭의 템플릿 화상을 작성해 사용하면, 공정 정보의 차이에 의한 변형 범위의 차이를 고려한 고정밀도의 패턴 매칭을 실현할 수 있다.
또한, 설계 데이터와 공정 정보와 촬영 화상을 이용하여 대응 관계를 학습하기 때문에, 공정 정보에 복수의 제조 공정 또는 촬영 공정(리소그래피 공정, 에칭 공정, 촬영 공정 등)의 파라미터를 복합적으로 가미하는 것에 의해서, 이들 복수 공정 간의 파라미터의 의존 관계를, 촬영 화상에 찍히는 회로의 형상 변화 또는 촬영 화상의 상질 변화로서 추정할 수 있다. 종래의 프로세스 시뮬레이션의 조합에서는 처리 시간이 길어지기 때문에, 본 발명은, 속도적으로 우위가 된다.
또한, 본 발명에 따르면, 공정 정보에 따라 발생하는 회로의 변형 또는 그 촬영 화상의 상질의 변화를 예측하기 위한 컴퓨터 프로그램 및 이것을 사용한 반도체 검사 장치를 제공할 수 있다.
101: 설계 데이터 화상, 102, 103: 공정 정보, 104, 105, 504: 촬영 화상, 202: 추정부, 204: 기준 데이터, 205: 공정 정보, 206, 301: 모델 데이터, 207: 촬영 화상 통계량, 303: 평균 화상, 304: 표준 편차 화상, 502: 템플릿 화상 작성부, 503: 패턴 매칭 처리부, 901: 확률 밀도 함수, 1100, 1200: GUI

Claims (16)

  1. 입력 접수부와, 추정부와, 출력부를 구비한 시스템을 사용하여, 시료의 기준 데이터로부터 얻어지는 추정 촬영 화상과 상기 시료의 실제의 촬영 화상을 대조할 때에 이용하는, 상기 추정 촬영 화상의 데이터를 취득하는 방법으로서,
    상기 입력 접수부가 상기 기준 데이터와, 상기 시료의 공정 정보와, 학습 완료된 모델 데이터의 입력을 받는 입력 공정과,
    상기 추정부가 상기 기준 데이터, 상기 공정 정보 및 상기 모델 데이터를 이용하여, 상기 촬영 화상의 데이터가 취할 수 있는 값의 확률 분포를 나타내는 촬영 화상 통계량을 산출하는 추정 공정과,
    상기 출력부가 상기 촬영 화상 통계량을 출력하는 출력 공정을 포함하며,
    상기 추정 촬영 화상은 상기 촬영 화상 통계량으로부터 생성 가능한, 화상 처리 방법.
  2. 제 1 항에 있어서,
    상기 시스템은 기계 학습부와, 기억부를 더 구비하고,
    상기 기계 학습부가 상기 모델 데이터에 대한 학습의 필요성을 판정하는 학습 필요 여부 판정 공정을 더 포함하며,
    상기 학습 필요 여부 판정 공정에서 상기 학습의 필요성을 필요로 판정했을 경우에는,
    학습용의 상기 기준 데이터와 상기 공정 정보와 상기 촬영 화상을 포함하는 학습 데이터 세트의 입력을 받고,
    상기 촬영 화상 통계량과 상기 학습 데이터 세트의 상기 촬영 화상의 데이터의 비교를 하고,
    상기 비교의 결과에 의거하여 상기 모델 데이터를 갱신하고,
    상기 학습 필요 여부 판정 공정에서 상기 학습의 필요성을 불필요로 판정했을 경우에는,
    상기 기억부가, 상기 추정부가 상기 촬영 화상 통계량을 산출할 때에 이용하는 파라미터를 상기 모델 데이터로서 저장하는, 화상 처리 방법.
  3. 제 1 항에 있어서,
    상기 공정 정보는 상기 시료의 제조 조건 또는 상기 촬영 화상의 촬영 조건을 포함하는, 화상 처리 방법.
  4. 제 1 항에 있어서,
    상기 촬영 화상 통계량을 이용하여 상기 공정 정보가 상기 시료에 미치는 영향을 평가하는 공정을 더 포함하는, 화상 처리 방법.
  5. 제 1 항에 있어서,
    상기 촬영 화상 통계량은 평균 화상 및 표준 편차 화상을 포함하는, 화상 처리 방법.
  6. 제 1 항에 있어서,
    상기 시료는 반도체 회로인, 화상 처리 방법.
  7. 제 1 항에 기재된 화상 처리 방법에 의해 얻어진 상기 촬영 화상 통계량을 이용하여 상기 시료의 형상을 검사하는 방법으로서,
    상기 시스템은 템플릿 화상 작성부와, 패턴 매칭 처리부를 더 구비하며,
    상기 입력 접수부가 상기 촬영 화상의 데이터의 입력을 받고,
    상기 템플릿 화상 작성부가 상기 촬영 화상 통계량으로부터 템플릿 화상을 작성하고,
    상기 패턴 매칭 처리부가 상기 템플릿 화상과 상기 촬영 화상의 패턴 매칭을 행하고,
    상기 출력부가 상기 패턴 매칭의 결과를 출력하는, 형상 검사 방법.
  8. 제 2 항에 기재된 화상 처리 방법에 의해 얻어진 상기 촬영 화상 통계량을 이용하여 상기 시료의 형상을 검사하는 방법으로서,
    상기 시스템은 템플릿 화상 작성부와, 패턴 매칭 처리부를 더 구비하며,
    상기 입력 접수부가 상기 촬영 화상의 데이터의 입력을 받고,
    상기 템플릿 화상 작성부가 상기 촬영 화상 통계량으로부터 템플릿 화상을 작성하고,
    상기 패턴 매칭 처리부가 상기 템플릿 화상과 상기 촬영 화상의 패턴 매칭을 행하고,
    상기 출력부가 상기 패턴 매칭의 결과를 출력하는, 형상 검사 방법.
  9. 시료의 기준 데이터로부터 얻어지는 추정 촬영 화상과 상기 시료의 실제의 촬영 화상을 대조할 때에, 상기 추정 촬영 화상의 데이터를 취득하는 시스템으로서,
    상기 기준 데이터와, 상기 시료의 공정 정보와, 학습 완료된 모델 데이터의 입력을 받는 입력 접수부와,
    상기 기준 데이터, 상기 공정 정보 및 상기 모델 데이터를 이용하여, 상기 촬영 화상의 데이터가 취할 수 있는 값의 확률 분포를 나타내는 촬영 화상 통계량을 산출하는 추정부와,
    상기 촬영 화상 통계량을 출력하는 출력부를 구비하며,
    상기 추정 촬영 화상은 상기 촬영 화상 통계량으로부터 생성 가능한, 화상 처리 시스템.
  10. 제 9 항에 있어서,
    기계 학습부와, 기억부를 더 구비하며,
    상기 기계 학습부는 상기 모델 데이터에 대한 학습의 필요성을 판정하고,
    상기 기계 학습부가 상기 학습의 필요성을 필요로 판정했을 경우에는,
    학습용의 상기 기준 데이터와 상기 공정 정보와 상기 촬영 화상을 포함하는 학습 데이터 세트의 입력을 받고,
    상기 촬영 화상 통계량과 상기 학습 데이터 세트의 상기 촬영 화상의 데이터의 비교를 하고,
    상기 비교의 결과에 의거하여 상기 모델 데이터를 갱신하고,
    상기 기계 학습부가 상기 학습의 필요성을 불필요로 판정했을 경우에는,
    상기 기억부가, 상기 추정부가 상기 촬영 화상 통계량을 산출할 때에 이용하는 파라미터를 상기 모델 데이터로서 저장하는, 화상 처리 시스템.
  11. 제 9 항에 있어서,
    상기 공정 정보는 상기 시료의 제조 조건 또는 상기 촬영 화상의 촬영 조건을 포함하는, 화상 처리 시스템.
  12. 제 9 항에 있어서,
    상기 촬영 화상 통계량을 이용하여 상기 공정 정보가 상기 시료에 미치는 영향을 평가하는, 화상 처리 시스템.
  13. 제 9 항에 있어서,
    상기 촬영 화상 통계량은 평균 화상 및 표준 편차 화상을 포함하는, 화상 처리 시스템.
  14. 제 9 항에 있어서,
    상기 시료는 반도체 회로인, 화상 처리 시스템.
  15. 제 9 항에 기재된 화상 처리 시스템을 포함하고,
    템플릿 화상 작성부와, 패턴 매칭 처리부를 더 구비하며,
    상기 촬영 화상 통계량을 이용하여 상기 시료의 형상을 검사하는 시스템으로서,
    상기 입력 접수부는 상기 촬영 화상의 데이터의 입력을 받고,
    상기 템플릿 화상 작성부는 상기 촬영 화상 통계량으로부터 템플릿 화상을 작성하고,
    상기 패턴 매칭 처리부는 상기 템플릿 화상과 상기 촬영 화상의 패턴 매칭을 행하고,
    상기 출력부는 상기 패턴 매칭의 결과를 출력하는, 형상 검사 시스템.
  16. 제 10 항에 기재된 화상 처리 시스템을 포함하고,
    템플릿 화상 작성부와, 패턴 매칭 처리부를 더 구비하며,
    상기 촬영 화상 통계량을 이용하여 상기 시료의 형상을 검사하는 시스템으로서,
    상기 입력 접수부는 상기 촬영 화상의 데이터의 입력을 받고,
    상기 템플릿 화상 작성부는 상기 촬영 화상 통계량으로부터 템플릿 화상을 작성하고,
    상기 패턴 매칭 처리부는 상기 템플릿 화상과 상기 촬영 화상의 패턴 매칭을 행하고,
    상기 출력부는 상기 패턴 매칭의 결과를 출력하는, 형상 검사 시스템.
KR1020227041722A 2020-06-16 2020-06-16 화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템 KR20230004819A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023554 WO2021255819A1 (ja) 2020-06-16 2020-06-16 画像処理方法、形状検査方法、画像処理システム及び形状検査システム

Publications (1)

Publication Number Publication Date
KR20230004819A true KR20230004819A (ko) 2023-01-06

Family

ID=79268639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227041722A KR20230004819A (ko) 2020-06-16 2020-06-16 화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템

Country Status (6)

Country Link
US (1) US20230222764A1 (ko)
JP (1) JP7390486B2 (ko)
KR (1) KR20230004819A (ko)
CN (1) CN115698690A (ko)
TW (1) TWI777612B (ko)
WO (1) WO2021255819A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240091149A (ko) * 2021-12-28 2024-06-21 주식회사 히타치하이테크 화상 검사 장치, 화상 처리 방법
CN115242982B (zh) * 2022-07-28 2023-09-22 业成科技(成都)有限公司 镜头调焦方法及其系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
JP2020035282A (ja) 2018-08-31 2020-03-05 株式会社日立ハイテクノロジーズ パターン検査システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881868B (zh) * 2015-05-14 2017-07-07 中国科学院遥感与数字地球研究所 植物群落空间结构提取方法
US9915625B2 (en) * 2016-01-04 2018-03-13 Kla-Tencor Corp. Optical die to database inspection
JP6668199B2 (ja) * 2016-08-19 2020-03-18 株式会社ニューフレアテクノロジー マスク検査方法
US10395362B2 (en) * 2017-04-07 2019-08-27 Kla-Tencor Corp. Contour based defect detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9965901B2 (en) 2015-11-19 2018-05-08 KLA—Tencor Corp. Generating simulated images from design information
JP2020035282A (ja) 2018-08-31 2020-03-05 株式会社日立ハイテクノロジーズ パターン検査システム

Also Published As

Publication number Publication date
CN115698690A (zh) 2023-02-03
JPWO2021255819A1 (ko) 2021-12-23
WO2021255819A1 (ja) 2021-12-23
TW202201347A (zh) 2022-01-01
TWI777612B (zh) 2022-09-11
US20230222764A1 (en) 2023-07-13
JP7390486B2 (ja) 2023-12-01

Similar Documents

Publication Publication Date Title
US10937146B2 (en) Image evaluation method and image evaluation device
US8767038B2 (en) Method and device for synthesizing panorama image using scanning charged-particle microscope
JP5604067B2 (ja) マッチング用テンプレートの作成方法、及びテンプレート作成装置
JP5525421B2 (ja) 画像撮像装置および画像撮像方法
US8994815B2 (en) Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
JP4982544B2 (ja) 合成画像形成方法及び画像形成装置
JP2020004443A (ja) 多層構造体の層間のオーバレイを測定する技法
JP7427744B2 (ja) 画像処理プログラム、画像処理装置、画像処理方法および欠陥検出システム
US20120290990A1 (en) Pattern Measuring Condition Setting Device
US9679371B2 (en) Pattern shape evaluation device and method
TWI777612B (zh) 影像處理方法、形狀檢查方法、影像處理系統及形狀檢查系統
JP5286337B2 (ja) 半導体製造装置の管理装置、及びコンピュータプログラム
US10558127B2 (en) Exposure condition evaluation device
CN117518747B (zh) 一种光刻量测强度的生成方法、装置、设备及存储介质
JP5396496B2 (ja) 合成画像形成方法及び画像形成装置
TW202418220A (zh) 圖像處理程式、圖像處理裝置、圖像處理方法及缺陷檢測系統
JP2017032733A (ja) 半導体デバイスの評価条件設定方法、及び評価条件設定装置