JP7390486B2 - 画像処理方法、形状検査方法、画像処理システム及び形状検査システム - Google Patents

画像処理方法、形状検査方法、画像処理システム及び形状検査システム Download PDF

Info

Publication number
JP7390486B2
JP7390486B2 JP2022531135A JP2022531135A JP7390486B2 JP 7390486 B2 JP7390486 B2 JP 7390486B2 JP 2022531135 A JP2022531135 A JP 2022531135A JP 2022531135 A JP2022531135 A JP 2022531135A JP 7390486 B2 JP7390486 B2 JP 7390486B2
Authority
JP
Japan
Prior art keywords
image
data
photographed image
learning
statistics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022531135A
Other languages
English (en)
Other versions
JPWO2021255819A1 (ja
JPWO2021255819A5 (ja
Inventor
将記 大内
昌義 石川
康隆 豊田
博之 新藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Publication of JPWO2021255819A1 publication Critical patent/JPWO2021255819A1/ja
Publication of JPWO2021255819A5 publication Critical patent/JPWO2021255819A5/ja
Application granted granted Critical
Publication of JP7390486B2 publication Critical patent/JP7390486B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/22Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material
    • G01N23/225Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion
    • G01N23/2251Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by measuring secondary emission from the material using electron or ion using incident electron beams, e.g. scanning electron microscopy [SEM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/418Imaging electron microscope
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/611Specific applications or type of materials patterned objects; electronic devices
    • G01N2223/6116Specific applications or type of materials patterned objects; electronic devices semiconductor wafer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/646Specific applications or type of materials flaws, defects
    • G01N2223/6462Specific applications or type of materials flaws, defects microdefects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Quality & Reliability (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Description

本発明は、画像処理方法、形状検査方法、画像処理システム及び形状検査システムに関する。
現在、画像データを用いた評価(欠陥検査など)や寸法計測のために、評価対象あるいは寸法計測対象である物品について、その設計データと撮影した画像とを比較することが行われている。対象となる物品の一例としては、半導体回路がある。
半導体回路(以下単に「回路」ともいう。)の検査や計測では、回路の設計データと撮影画像データ(以下単に「撮影画像」ともいう。)とを比較して、その位置を合わせる処理が行われる。この処理は、パターンマッチングと呼ばれる。
設計データ及び撮影画像の位置を合わせることで、計測ポイントの指定や、設計データ上の回路形状からの逸脱度などの評価が可能になる。回路には、製造工程で設定する諸条件に起因した形状変形がある。また、回路の撮影画像には、撮影工程で設定する諸条件に起因した像質の違い(コントラスト変化や画像ノイズの発生など)が起こる。加えて、同一条件下においても、そのばらつきによって、回路の形状と撮影画像の像質が変化する。
例えば、パターンマッチングでは、設計データをそのままテンプレート画像とした場合、設計データ上の回路形状と撮影画像上の回路形状との差異によって、位置合わせが困難となる。そのため、テンプレート画像には、設計データを直接使用するよりも、撮影画像上の回路形状に近づけたものを使用する方が好ましい。
特許文献1には、設計情報からシミュレーション画像を生成するためのコンピュータ実装方法であって、生成モデルの二つ以上のエンコーダ層に設計情報を入力することにより対象物の設計情報の特徴を決定する工程と、決定された特徴を生成モデルの二つ以上のデコーダ層に入力することにより一つ以上のシミュレーション画像を生成する工程と、を含むものが開示されている。ここで、シミュレーション画像は、画像システムによって生成された対象物の画像に現れた設計情報を示すものである。特許文献1には、生成モデルが、畳み込みニューラルネットワーク(CNN)によって代替可能であることも開示されている。
特許文献2には、電子デバイスの検査対象パターンの画像と、検査対象パターンを製造するために使用するデータに基づき、機械学習により構成された識別器を用いて検査対象パターンの画像を検査するパターン検査システムであって、電子デバイスの複数のパターン画像と電子デバイスのパターンを製造するために使用するパターンデータを格納し、格納されたパターンデータとパターン画像に基づき、複数のパターン画像から機械学習に用いる学習用パターン画像を選択することにより、学習データの真値作成作業の手間を省き、学習データの少量化を図り、学習時間の短期間化を可能とするものが開示されている。
米国特許第9965901号明細書 特開2020-35282号公報
特許文献1に開示されている方法によれば、検査対象の回路パターンに適用した場合、シミュレーション画像としての回路パターンが得られるが、入力が設計データのみであるため、製造工程や撮影工程等の条件(以下「工程情報」ともいう。)の違いを明示的に指定はできない。この条件の違いを出すためには、当該条件下で製造又は撮影をした回路の撮影画像を含むデータセットを用意し、条件別にシミュレーションのための数理モデルを学習する必要がある。
工程情報が回路及びその撮影画像に与える影響を知るためには、従来、シミュレータを条件別に複数回実行する必要がある。従来のシミュレータは、モンテカルロ法などを用いるため、シミュレーションに時間がかかる。また、市販されている半導体回路のプロセスシミュレーションは、リソグラフィやエッチング、撮影工程など、工程ごとに分かれている。これらの工程を組み合わせ、工程間のパラメータの関係性を網羅的に把握するためには、シミュレータを多段的に使用する必要がある。
しかし、製造又は撮影のプロセスについてのシミュレーションは、モンテカルロシミュレーションなどの計算に長時間を要する方法が採用されているため、1回の試行で膨大な時間がかかる。このような計算は、複数の条件やパラメータに対応するためには、複数回の試行をする必要があり、複数のシミュレータを用いたとしても、多大な計算時間及び計算コストを要し、現実的ではない。
特許文献2に開示されているパターン検査システムは、機械学習の際に学習データの少量化を図り、学習時間の短期間化を可能とするものであり、得られた学習データを実際の検査の際に利用する場合には、データの処理方法について別途改善する必要があると考えられる。
本発明の目的は、設計データから推定されるシミュレーション画像と実際に撮影された画像とを照合する際、当該推定に要する時間を短縮して、照合をリアルタイムに行うことにある。
本発明の画像処理方法は、入力受付部と、推定部と、出力部と、を備えたシステムを用いて、試料の基準データから得られる推定撮影画像と試料の実際の撮影画像とを照合する際に用いる、推定撮影画像のデータを取得する方法であって、入力受付部が、基準データと、試料の工程情報と、学習済みのモデルデータと、の入力を受ける入力工程と、推定部が、基準データ、工程情報及びモデルデータを用いて、撮影画像のデータが取り得る値の確率分布を表す撮影画像統計量を算出する推定工程と、出力部が、撮影画像統計量を出力する出力工程と、を含み、推定撮影画像は、撮影画像統計量から生成可能である。
本発明によれば、設計データから推定されるシミュレーション画像と実際に撮影された画像とを照合する際、当該推定に要する時間を短縮して、照合をリアルタイムに行うことができる。
設計データ及び工程情報から得られる撮影画像の例を示す図である。 設計データ及び工程情報から得られる撮影画像の他の例を示す図である。 実施例の画像処理システムを示す構成図である。 実施例に係る画像処理システムにおいて処理されるデータの流れを示す構成図である。 実施例に係る画像処理システムにおいて処理されるデータの流れを示す構成図である。 実施例に係る学習処理の例を示すフロー図である。 形状検査システムを示す構成図である。 設計データ画像を特徴量に変換する例を示す模式図である。 特徴量と工程情報との結合形式の一例を示す模式図である。 実施例における入力形式の一例を示す模式図である。 実施例における結合形式の一例を示す模式図である。 設計データ画像の一例を示す図である。 図8Aの設計データ画像801に対応する撮影画像の例を示す図である。 図8Aの設計データ画像801に対応する撮影画像の例を示す図である。 図8Aの設計データ画像801に対応する撮影画像の例を示す図である。 撮影画像統計量の表現形式の一例を示すグラフである。 設計データ画像の例を示す図である。 撮影画像の例を示す図である。 撮影画像統計量を推定して回路の評価を実施するためのGUIを示す構成図である。 学習処理を実施するためのGUIを示す構成図である。 半導体計測システムの一例を示す概略構成図である。 走査電子顕微鏡を示す概略構成図である。
本発明は、画像データを処理する画像処理技術に関する。その中でも特に、画像データを用いた検査に適用可能な画像処理技術に関する。検査対象の一例には、半導体回路が含まれる。
以下、本発明の実施形態である画像処理方法、形状検査方法、画像処理システム及び形状検査システムについて説明する。
画像処理方法及び画像処理システムは、設計データと工程情報とから、これらに対応する撮影画像のバリエーションとして撮影画像の各画素が取り得る値の確率分布を表す撮影画像統計量を算出するものである。
画像処理システムは、設計データと工程情報とから、撮影画像のバリエーションを表す画素単位の確率分布を算出可能なCNNモデルを備えている。ここで、CNNは、Convolutional Neural Networkの略称である。
画像処理システムは、算出した画素単位の確率分布を用いて、工程情報が回路あるいはその撮影画像に及ぼす影響を評価する。また、形状検査システムは、算出した画素単位の確率分布を用いて、パターンマッチングに使用可能なテンプレート画像を作成し、パターンマッチングを高精度に実施する。さらに、本実施形態には、機械学習などにおいてCNNを用いる数理モデルに含まれるパラメータ(モデルデータ)を決定することも含まれる。
なお、検査対象としては、半導体回路の他、自動車部品(ピストンなど)、トレイ、ビンなどの容器、液晶パネルなどの各種物品への適用が可能である。なお、形状には、試料(物品)の大きさ、長さなどが含まれる。
以下に説明する画像処理方法は、回路の基準データである設計データと、工程情報と、学習済みのモデルデータとを用いて、設計データと工程情報との条件下で製造された回路の撮影画像のバリエーションを直接推定するための画像処理方法、及びこれを使用する画像検査システムに関するものである。
また、その具体的な一例として、設計データを画像化した設計データ画像と、工程情報と、回路の撮影画像との対応関係を、機械学習を用いて学習し、学習により得られたモデルデータを用いて任意の設計データ画像と任意の工程情報とから、これらに対応する回路の撮影画像のバリエーションを直接推定する方法の例を示す。なお、以下では、回路の撮影画像のバリエーションを画像の各画素が取り得る画素値の確率分布を規定する統計量(平均や分散など)として扱う。これにより、画素値及びそのばらつきとして、回路の変形やその撮影画像の像質変化を捉えることができる。
以下に、任意の回路の設計データと工程情報と学習済みのモデルデータとを入力として受け付け、設計データと工程情報との組み合わせに対応する回路の撮影画像のバリエーションを画素値の統計量として直接推定し、推定した統計量を出力するための機能を備えた装置または測定検査システムについて、図面を用いて説明する。より具体的には、測定装置の一種である測長用走査電子顕微鏡(Critical Dimension-Scanning Electron Microscope:CD-SEM)を含む装置及びそのシステムについて説明する。
以下の説明においては、回路の撮影画像を形成する装置として荷電粒子線装置を例示する。本明細書においては、荷電粒子線装置の一種である走査型電子顕微鏡(SEM)を用いた例を説明するが、これに限られることはなく、例えば試料上にイオンビームを走査して画像を形成する集束イオンビーム(Focused Ion Beam:FIB)装置を荷電粒子線装置として採用するようにしてもよい。但し、微細化が進むパターンを高精度に測定するためには、極めて高い倍率が要求されるため、一般的に分解能の面でFIB装置に勝るSEMを用いることが望ましい。
図13は、半導体計測システムの一例を示す概略構成図であり、複数の測定装置又は検査装置がネットワークに接続された測定・検査システムを示したものである。ここで、測定・検査システムは、画像処理システム又は形状検査システムに含まれるものである。
本図に示すシステムには、半導体ウエハやフォトマスク等のパターン寸法を測定する測長用走査電子顕微鏡1301(CD-SEM)と、試料に電子ビームを照射することによって画像を取得し当該画像と予め登録されている参照画像との比較に基づいて欠陥を抽出する欠陥検査装置1302と、条件設定装置1303と、シミュレータ1304と、記憶媒体1305(記憶部)と、が含まれている。そして、これらがネットワークを介して接続されている。
条件設定装置1303は、半導体デバイスの設計データ上で、測定位置や測定条件等を設定する機能を有する。シミュレータ1304は、半導体デバイスの設計データ、半導体製造装置の製造条件等に基づいて、パターンの出来栄えをシミュレーションする機能を有する。さらに、記憶媒体1305は、半導体デバイスのレイアウトデータや製造条件が登録された設計データ等を記憶する。なお、記憶媒体1305には、学習済みのモデルデータを記憶させておいてもよい。
設計データは、例えば、GDSフォーマットやOASIS(登録商標)フォーマットなどで表現されており、所定の形式にて記憶されている。なお、設計データは、設計データを表示するソフトウェアがそのフォーマット形式を表示でき、図形データとして取り扱うことができれば、その種類は問わない。
また、記憶媒体1305は、測定装置若しくは検査装置の制御装置、条件設定装置1303又はシミュレータ1304に内蔵するようにしてもよい。なお、測長用走査電子顕微鏡1301及び欠陥検査装置1302には、それぞれの制御装置が備えられ、各装置に必要な制御が行われるが、これらの制御装置に上記シミュレータの機能や測定条件等の設定機能を組み込んでもよい。
SEMでは、電子源より放出される電子ビームが複数段のレンズにて集束されると共に、集束された電子ビームが走査偏向器によって試料上を一次元的或いは二次元的に走査される。
電子ビームの走査によって試料より放出される二次電子(Secondary Electron:SE)或いは後方散乱電子(Backscattered Electron:BSE)は、検出器により検出され、走査偏向器の走査に同期して、フレームメモリ等の記憶媒体に記憶される。このフレームメモリに記憶されている画像信号は、制御装置内に組み込まれた演算装置によって積算される。また、走査偏向器による走査は、任意の大きさ、位置及び方向について可能である。
以上のような制御等は、各SEMの制御装置にて行われ、電子ビームの走査の結果得られた画像や信号は、通信回線ネットワークを介して条件設定装置1303に送られる。
なお、本例では、SEMを制御する制御装置と、条件設定装置1303とを別体のものとして説明しているが、これに限られることはない。例えば、条件設定装置1303にて装置の制御と測定処理とを一括して行うようにしてもよいし、各制御装置にて、SEMの制御と測定処理とを併せて行うようにしてもよい。
また、条件設定装置1303或いは制御装置には、測定処理を実行するためのプログラムが記憶されており、当該プログラムに従って測定或いは演算が行われる。
また、条件設定装置1303は、SEMの動作を制御するプログラム(レシピ)を、半導体の設計データに基づいて作成する機能が備えられており、レシピ設定部として機能する。具体的には、設計データ、パターンの輪郭線データ、或いはシミュレーションが施された設計データ上で、所望の測定点、オートフォーカス、オートスティグマ、アドレッシング点等のSEMにとって必要な処理を行うための位置等を設定する。そして、当該設定に基づいて、SEMの試料ステージや偏向器等を自動制御するためのプログラムを作成する。また、後述するテンプレートの作成のために、設計データからテンプレートとなる領域の情報を抽出し、当該抽出情報に基づいてテンプレートを作成するプロセッサ、或いは汎用のプロセッサでテンプレートを作成させるプログラムが内蔵、或いは記憶されている。また、本プログラムは、ネットワークを介して配信してもよい。
図14は、走査電子顕微鏡を示す概略構成図である。
本図に示す走査電子顕微鏡は、電子源1401、引出電極1402、集束レンズの一形態であるコンデンサレンズ1404、走査偏向器1405、対物レンズ1406、試料台1408、変換電極1412、検出器1413、制御装置1414等を備えている。
電子源1401から引出電極1402によって引き出され、図示しない加速電極によって加速された電子ビーム1403は、コンデンサレンズ1404によって絞られる。そして、走査偏向器1405により、試料1409上を一次元的或いは二次元的に走査される。電子ビーム1403は、試料台1408に設けられた電極に印加された負電圧により減速され、対物レンズ1406のレンズ作用によって集束されて試料1409上に照射される。
電子ビーム1403が試料1409に照射されると、当該照射個所から二次電子及び後方散乱電子のような電子1410が放出される。放出された電子1410は、試料に印加される負電圧に基づく加速作用によって、電子源方向に加速され、変換電極1412に衝突し、二次電子1411を生じさせる。変換電極1412から放出された二次電子1411は、検出器1413によって捕捉され、捕捉された二次電子量によって、検出器1413の出力Iが変化する。この出力Iに応じて、図示しない表示装置の輝度が変化する。例えば二次元像を形成する場合には、走査偏向器1405への偏向信号と、検出器1413の出力Iとの同期をとることで、走査領域の画像を形成する。また、本図に例示する走査電子顕微鏡には、電子ビームの走査領域を移動する偏向器(図示せず)が備えられている。
なお、本図の例では、試料から放出された電子を変換電極にて一端変換して検出する例について説明しているが、無論このような構成に限られず、例えば加速された電子の軌道上に、電子増倍管や検出器の検出面を配置するような構成とすることも可能である。
制御装置1414は、走査電子顕微鏡の各構成を制御すると共に、検出された電子に基づいて画像を形成する機能や、ラインプロファイルと呼ばれる検出電子の強度分布に基づいて試料上に形成されたパターンのパターン幅を測定する機能を備えている。
つぎに、機械学習を用いて回路の撮影画像のバリエーションを画素値の統計量として推定する処理、その統計量を推定可能なモデルのパラメータ(モデルデータ)を学習する処理、又は、その統計量を用いた工程情報の評価処理若しくはパターンマッチング処理の一例について説明する。
統計量の推定処理あるいはモデルデータの学習処理は、制御装置1414内に内蔵された演算装置、あるいは画像処理機能を有する演算装置にて実行することも可能である。また、ネットワークを経由して、外部の演算装置(例えば条件設定装置1303)にて処理を実行することも可能である。なお、制御装置1414内に内蔵された演算装置あるいは画像処理機能を有する演算装置と外部の演算装置との処理分担は、適宜設定可能であり、上述した例に限定されない。
図1Aは、設計データ及び工程情報から得られる撮影画像の例を示す図である。
本図においては、設計データ画像101及び所定の工程情報102から回路の撮影画像104が得られる。
設計データ画像101は、回路の配線やその配置を表す基準データの一つの形式である。
図1Bは、設計データ及び工程情報から得られる撮影画像の他の例を示す図である。
本図においては、設計データ画像101及び所定の工程情報103から回路の撮影画像105が得られる。
これらの図は、同一の設計データ画像101を用いたとしても、工程情報が異なる場合には、撮影画像が異なることを表している。
本実施例では、CADデータなどで記述される設計データを画像化した設計データ画像を使用する。一例として、回路の配線部とそれ以外の領域とで塗り分けられた二値画像が挙げられる。半導体回路の場合、配線が二層以上の多層回路も存在する。例えば、配線が1層であれば配線とそれ以外の領域との二値画像、外線が二層であれば下層と上層の配線部とそれ以外の領域との三値画像として使用できる。なお、設計データ画像は、基準データの一例であり、これを限定するものではない。
工程情報102、103は、回路の製造から撮影までの各工程で使用される1種類以上のパラメータである。本実施例では、工程情報を実数値として扱う。工程の具体例としては、エッチング工程、リソグラフィ工程、SEMによる撮影工程などがある。パラメータの具体例としては、リソグラフィ工程であれば露光量(Dose)やフォーカス(Focus)などが挙げられる。
回路の撮影画像104、105は、設計データ画像101で示された設計データに基づき、それぞれ工程情報102、103を用いて製造された回路の撮影画像である。本実施例で扱う撮影画像は、SEMによって撮影されたグレースケール画像として扱う。よって、撮影画像自体は、任意の高さ及び幅を有し、画像のチャンネルが1とする。
回路は、製造工程のパラメータにより、電気的に問題なく許容される程度の変形が生じ、設計データ通りの回路形状にはならない。また、回路の撮影画像は、SEMを用いた撮影工程のパラメータにより、回路の写り方が異なる。そのため、撮影画像104と撮影画像105とは、同じ設計データ画像101に対応しているものの、工程情報が異なるため、同じ回路の変形量にはならず、また画像の像質も異なる。ここで、画像の像質の具体例として、ノイズやコントラスト変化がある。
なお、設計データと工程情報とが同一であっても、得られる回路の撮影画像は厳密に同じになることはない。なぜなら、製造工程あるいは撮影工程のパラメータを設定しても、そこにはプロセス変動が存在し、得られる結果にばらつきが生じるためである。
本実施例では、基準データを設計データ画像、工程情報をそのパラメータ値を示す実数値、回路の撮影画像をSEMで撮影した画像としているが、これらを制限するものではない。
つぎに、撮影画像のバリエーションを画素値の統計量として推定する処理について説明する。
図2は、本実施例の画像処理システムを示す構成図である。
本図に示すように、画像処理システムは、入力受付部201と、推定部202と、出力部203と、を備えている。また、画像処理システムは、適宜、記憶部を備えている。
入力受付部201は、基準データ204と工程情報205と学習済みのモデルデータ206との入力を受け付ける。そして、推定部202は、入力受付部201で受け付けた入力を回路の撮影画像のバリエーションを捉えた統計量に変換する。出力部203は、この統計量を撮影画像統計量207として出力する。
基準データ204は、回路の配線の形状やその配置を記述し、本実施例では設計データあるいはこれを画像化した設計データとして扱う。
推定部202は、入力受付部201が受け付けた入力をこれに対応する回路の撮影画像のバリエーションを表す統計量に変換する。この変換を行うために、推定部202は、モデルデータ206によりパラメータが設定され、設計データ画像と工程情報とから撮影画像統計量を推定する数理モデルを備える。
具体的には、畳み込みニューラルネットワーク(CNN)を用いる。CNNにおいては、エンコーダが二層以上の畳み込み層(Convolutional Layer)とプーリング層(Pooling Layer)とから構成され、デコーダが二層以上の逆畳み込み層(Deconvolution Layer)から構成される。この場合、モデルデータは、CNNが有する各層のフィルタの重み(変換パラメータ)となる。なお、撮影画像統計量を推定する数理モデルは、CNNモデル以外も使用可能であり、これに限定されるものではない。
入力受付部201は、所定のフォーマットに従う基準データ204と工程情報205とモデルデータ206とを読み込む。
出力部203は、推定部202における演算結果を所定のフォーマットで出力する。
なお、本図に示す入力受付部201、推定部202及び出力部203は、本実施例に示すシステムの構成要素の一部であり、ネットワークで結ばれた複数のコンピュータに分散して配置されていてもよい。また、入力される基準データ204、工程情報205、学習済みのモデルデータ206を含むデータ等は、ユーザが外部から入力してもよいが、所定の記憶装置に記憶されているものであってもよい。
設計データ画像と撮影画像との対応関係について述べる。
具体的には、図8A~図8Dを用いて、設計データ画像と検査対象画像とにおける配線の形状乖離の例について説明する。
図8Aは、設計データ画像の一例を示す図である。
本図において、設計データ画像801は、白抜きの画素(ます目)で構成された配線811を有する。設計データ画像801は、設計データに基づくものであるため、理想的に直交する配線811が示されている。
図8B~図8Dは、図8Aの設計データ画像801に対応する撮影画像の例を示す図である。
図8Bにおいては、設計データ画像801に対応する撮影画像802が示されている。
図8Cにおいては、設計データ画像801に対応する撮影画像803が示されている。
図8Dにおいては、設計データ画像801に対応する撮影画像804が示されている。
図8Bの撮影画像802、図8Cの撮影画像803及び図8Dの撮影画像804は、製造条件及び撮影条件の少なくともいずれか一方の影響を受ける。このため、配線811の形状は、撮影画像802、803、804のそれぞれにおいて異なっている。言い換えると、配線811の形状の差は、製造回次によっても、撮影回次によっても生じる。よって、設計データ画像上のある画素が任意の輝度値を取ったときに、撮影画像上の同一画素が取りうる輝度値は、複数通り存在する。
例えば、撮影画像802、803、804がグレースケール画像であれば、各画素が取りうる輝度値は、0から255までの整数である。この場合、輝度値分布は、0~255の輝度値に対する頻度を表す。統計量の例としては、輝度値分布が正規分布であれば平均と標準偏差、ポアソン分布であれば到着率などが考えられる。
まとめると、ある製造条件又は撮影条件の下における設計データに対して、上記の輝度値等の画素値の確率密度分布を定義することができる。
図10Aは、設計データ画像の例を示す図である。
本図においては、設計データ画像1000aに着目画素1001及びその周囲領域1002が示されている。
図10Bは、撮影画像の例を示す図である。
本図においては、撮影画像1000bに画素1003が示されている。
図10Aの着目画素1001と図10Bの画素1003とは、回路(試料)の画像について対比するために位置合わせしたときに、同じ座標に位置する。画素1003が取りうる画素値の統計量は、着目画素1001及び周囲領域1002の画素値により推定される。これは、CNNの畳み込み層で計算するときに、周囲の画素を含めた演算がなされるからである。なお、周囲領域1002のサイズは、CNNのフィルタサイズやストライドサイズなどにより決定される。
図3A及び3Bは、本実施例の画像処理システムにおいて処理されるデータの流れを示す構成図である。
これらの図においては、入力受付部201が設計データ画像101と工程情報102又は103とモデルデータ301との入力を受け付け、推定部202がこの入力を対応する回路の撮影画像のバリエーションを規定する統計量に変換し、出力部203が算出された撮影画像統計量302又は305を出力する。
図3Aと図3Bとを比較すると、設計データ画像101とモデルデータ301とが共通であっても、図3Aの工程情報102を図3Bの工程情報103に変更すれば、出力は、図3Aの撮影画像統計量302とは異なる図3Bの撮影画像統計量305となる。出力形式としての平均画像306及び標準偏差307は、平均画像303及び標準偏差画像304とは異なる。これにより、工程情報の違いによる平均的な回路像の変化や像質の違い、ばらつきが大きい部分の位置及びその程度等についての情報が得られる。
図9は、撮影画像統計量の表現形式の一例を示すグラフである。
本図においては、撮影画像統計量を各画素における画素値の確率分布である確率密度関数901として表している。例えば、図3Aの撮影画像統計量302を確率密度関数901で表した場合、確率密度関数901の平均及び標準偏差の値が得られる。同様にして各画素についての平均及び標準偏差の値を求めれば、平均画像303及び標準偏差画像304が得られる。
確率密度関数901は、ある回路の撮影画像上において、各画素が取り得る画素値に対する出現頻度の確率密度関数で表される。具体的には、撮影画像がグレースケールであれば、256通りの画素値の出現頻度として分布を定義できる。なお、統計量としては画素以外を単位としてもよい。
例えば、確率密度関数901がガウス分布であると仮定すれば、確率密度関数901をその平均及び標準偏差(あるいは分散)で一意に規定できる。
平均画像303及び標準偏差画像304は、撮影画像統計量302の出力形式の例である。撮影画像統計量を画素ごとのガウス分布とすれば、その平均及び標準偏差の値を画像に変換した平均画像及び標準偏差画像として推定し出力できる。
平均画像303は、各画素のガウス分布の平均をグレースケール画像に変換したものである。撮影画像統計量302をガウス分布と仮定すれば、その分布の平均値は最頻値に一致するため、得られる平均画像303は、設計データ画像101を用い、かつ、工程情報102の条件下における最も平均的な回路形状を有する撮影画像となる。
標準偏差画像304は、各画素のガウス分布の標準偏差をグレースケール画像に変換したものである。各画素間の標準偏差の相対関係を保ったまま画像化することにより、回路の変形や画像の像質変化が大きい画像領域を可視化することができる。例えば、半導体回路では、配線(ライン)のエッジにおいて変形が多発するため、ばらつき(標準偏差)が大きくなる。一方で、配線のエッジ以外の領域や配線以外の空間部(スペース)では、変形は稀であるため、ばらつきは小さくなる。本実施例における標準偏差は、ある設計データ及び工程情報の条件下で製造及び撮影された場合のプロセス変動を吸収する役割を果たす。
上述のとおり、製造された回路の形状とその撮影画像の像質は、工程情報に依存する。
図3A及び3Bに示すような処理をすることにより、設計データ及び学習済みのモデルデータがあれば、入力の工程情報を変えた場合の回路及びその撮影画像への影響を実際に製造し撮影することなく知ることができる。
図4は、撮影画像統計量の推定に使用するモデルデータを作成するための学習処理の例を示すフロー図である。
学習処理は、機械学習部にて行う。
本図に示す学習処理においては、ユーザがモデルデータを入力し(S401)、ユーザが設計データ画像及び工程情報を入力する(S402)。そして、機械学習部は、これらの入力から撮影画像統計量を推定し出力する(S403)。ここで、上記のユーザによる入力は、ユーザによるものでなくてもよく、例えば所定の記憶部が有するデータを自動的に選別して、機械学習部が読み込むことにより行ってもよい。
そして、学習の終了条件を満たしているかを判定する(学習要否判定工程S404)。
終了条件を満たしていなければ、教師データである撮影画像を入力する(S405)。そして、撮影画像(教師データ)と推定された画像情報(撮影画像統計量)とを比較し(S406)、比較結果に応じてモデルデータを更新する(S407)。比較方法の例として、推定された画像情報(撮影画像統計量)を「推定撮影画像」に変換して比較する方法がある。言い換えると、推定撮影画像は、撮影画像統計量から生成可能である。
一方、S404において終了条件を満たしていれば、モデルデータを保存し(S408)、学習処理を終了する。
なお、あらかじめ記憶媒体1305(図13)に学習済みのモデルデータを記憶させてある場合、S401の入力は省略することができる。
なお、S401及びS402をまとめて「入力工程」ともいう。また、S403は、「推定工程」ともいう。さらに、S403は、図2の出力部203に対応する処理をする観点から、「出力工程」ともいえる。
以下に処理内容について、詳述する。
S401で入力され、S407で更新され、S408で保存されるモデルデータは、S403で使用する畳み込み層あるいは逆畳み込み層のフィルタの重みである。言い換えると、S403で使用するCNNのエンコーダやデコーダの各層の構成情報や、その変換パラメータ(重み)である。この変換パラメータは、S406の比較処理において、S403で推定された撮影画像統計量と、S405で入力された撮影画像とを用いて算出される損失関数の値を最小化するように決定される。S401におけるモデルデータは、学習処理を経て、設計データ画像と工程情報から、対応する撮影画像を推定可能となる。ここで、損失関数の具体例としては、平均二乗誤差、交差エントロピー誤差等がある。
S402で入力する基準データは、本実施例では設計データ画像である。
S404の学習要否判定の例としては、学習の繰り返し回数が規定回数以上か、学習に使用する損失関数が収束したか、などがある。
S408で保存されるモデルデータは、CNNの各層の重みを所定の形式でファイル出力することで保存される。
つぎに、学習処理で使用する設計データ画像と回路の撮影画像との関係について説明する。
S406では、推定された撮影画像統計量(推定撮影画像)と、撮影画像とを比較する。このとき、正しく比較するためには、設計データと撮影画像の位置が一致している必要がある。そのため、学習用のデータセット(学習データセット)は、位置合わせがなされた設計データ画像と撮影画像とのペアが必要となる。一般に、学習用のデータセット内の画像枚数は多い方が好ましい。加えて、学習に使用する回路の形状と評価に使用する回路の形状とは類似している方が好ましい。
また、設計データを起点として回路の変形を学習するため、S401で受け付ける設計データとS405で受け付ける撮影画像とは、位置合わせがされている必要がある。学習用の設計データ画像とこれを製造した回路の撮影画像に対して、回路パターンが一致するように画像上の位置を合わせる。位置合わせの方法の例としては、設計データ画像及び撮影画像の配線の輪郭線を求め、輪郭線で囲われた図形の重心を一致させるように位置決めを行う方法がある。
学習処理で使用する工程情報、あるいは学習済みのモデルデータを用いた撮影画像統計量の推定処理で使用する工程情報は、考慮したいパラメータのみを使用してもよいし、製造工程や撮影工程に係るすべてのパラメータを使用してもよい。ただし、工程情報が増えれば、CNNにおける演算量が増加するため、必要最低限のパラメータのみを用いる方が、処理速度の観点で好ましい。
S406の比較処理の実施例として、統計量に基づいてサンプリングした画像と撮影画像との差分計算がある。
まとめると、機械学習部は、モデルデータに対する学習の必要性を判定し、学習要否判定工程にて学習の必要性を要と判定した場合には、学習用の基準データと工程情報と撮影画像とを含む学習データセットの入力を受け、撮影画像統計量と学習データセットの撮影画像のデータとの比較をし、比較の結果に基づいてモデルデータを更新する。一方、学習要否判定工程にて学習の必要性を不要と判定した場合には、記憶部が、推定部が撮影画像統計量を算出する際に用いるパラメータをモデルデータとして保存する。
つぎに、図6A及び図6B並びに図7A及び図7Bを用いて、S402で入力される設計データ画像及び工程情報の入力形式の例について説明する。
図6Aは、設計データ画像を特徴量に変換する例について模式的に示したものである。
本図においては、設計データ画像601と、これをニューラルネットワークモデルが有する二つ以上の畳み込み層により計算された特徴量602の一例を表す図である。
設計データ画像601は、CADなどの設計データを画像化した二値画像である。ここで、格子により区画されたます目は、画像を構成するそれぞれの画素を表している。
特徴量602は、設計データ画像601を、撮影画像統計量推定部(推定部)が有するCNNの畳み込み層(エンコーダ層)を用いて計算されるものであり、行列で表されている。特徴量602は、設計データ画像上の各画素が配線部とそれ以外のどちらに属しているかという設計情報や、配線のエッジ付近やコーナー付近などの配線の形状や配置に関する設計情報などを有する。特徴量602は、高さ、幅及びチャンネルを有する三次元行列として表すことができる。このとき、設計データ画像601から算出される特徴量602の高さ、幅及びチャンネルは、CNNが有する畳み込み層の数や、そのフィルタサイズあるいはストライドサイズあるいはパディングサイズなどに依存して決定される。
図6Bは、特徴量と工程情報との結合形式の一例を示したものである。
本図に示すように、図6Aの特徴量602は、工程情報603、604、605と結合した三次元行列として表される。
工程情報603、604、605は、製造条件や撮影条件を示す実数値を、特徴量602の高さ及び幅が等しくチャンネルサイズが1の行列として与えられるものであり、三次元行列として表示したものである。具体的には、全ての要素の値が1で、高さ及び幅が特徴量602と等しく、チャンネルサイズが1の三次元行列を用意し、これに製造条件や撮影条件を示す実数値を乗算した三次元行列が挙げられる。
撮影画像統計量推定部が有するCNNの入力とする場合には、設計データ画像601をCNNの畳み込み層(エンコーダ層)により特徴量602へと変換し、特徴量602と工程情報603、604、605をチャンネルの順に結合させ、結合したものをCNNが有する逆畳み込み層(デコーダ層)に入力する。ここでは、工程情報が二つの場合について述べているが、仕様する工程情報は一つでもよいし、二つ以上でもよく、これを制限するものではない。
図7Aは、本実施例における入力形式の一例を示す図である。
本図においては、設計データ画像701、工程情報702及び工程情報703の例が模式的に示されている。
設計データ画像701は、CADなどの設計データを画像化したものである。例として、回路における配線部と空間部とで塗り分けた二値画像が挙げられる。半導体回路の場合、配線が二層以上の多層になっているものがある。例えば、配線が一層であれば配線部と空間部の二値画像、配線が二層であれば下層の配線部と上層の配線部、空間部の三値画像として使用できる。なお、設計データ画像は基準画像の一例であり、これを限定するものではない。
工程情報702及び工程情報703は、製造条件や撮影条件を示す実数値を設計データ画像と同サイズの画像として与える。具体的には、全ての要素の値が1で、画像サイズが設計データと同じ行列に、製造条件や撮影条件を示す実数値を乗算した行列が挙げられる。
図7Bは、本実施例における結合形式の一例を示す図である。
本図においては、設計データ画像701、工程情報702及び工程情報703の例が模式的に示されている。
撮影画像統計量推定部が有するCNNの入力とする方法の一例は、設計データ画像701と工程情報702と工程情報703とを画像のチャンネルの順に結合することである。ここでは工程情報が二つの場合について述べているが、使用する工程情報は一つでもよいし、二つ以上でもよく、これを制限するものではない。
なお、図6A~図7Bに示す工程情報の結合方法は、これを制限するものではない。
また、工程情報が回路あるいはその撮影画像に与える影響を評価することが挙げられる。
例えば、工程情報が有するパラメータのうち一つだけを変えて、撮影画像統計量を算出する。このとき、実際に製造し撮影した際に現れる変形の仕方を平均画像から、回路の各部位でどの程度の変形範囲が想定されるかを標準偏差画像から観測することができる。このため、事前に学習して作成したモデルデータがあれば、実際に製造及び撮影をすることなく、回路の変形もしくは撮影画像の像質に与える影響を評価することができる。工程情報の変化によって、平均画像の変化が少なく、また標準偏差画像で標準偏差の値が小さい場合には、そのパラメータが回路の形状変形やそのばらつきの程度に与える影響は小さいといえる。
本実施例では、工程情報を二つとし、そのうち一つをのみを変更した場合について述べているが、これを制限するものではなく、工程情報が有するパラメータ数は一つでもよいし、三つ以上でもよい。また、工程情報内のパラメータを一つだけ変更して実行してもよいし、複数変更して実行してもよい。
つぎに、図2の推定部202の他の実施例として、パターンマッチングのテンプレート画像を作成する場合について説明する。
図5は、形状検査システムにおいて処理されるデータの流れを示す構成図であり、撮影画像統計量を用いてパターンマッチングを実施する処理の例を示したものである。
本図に示す形状検査システムは、撮影画像統計量207が入力される入力受付部501と、撮影画像504が入力される入力受付部505と、テンプレート画像作成部502と、パターンマッチング処理部503と、出力部506と、を備えている。なお、本図に示すデータの流れは、形状検査方法の例である。
撮影画像504は、パターンマッチングの対象とする撮影画像(実際の撮影画像)である。
撮影画像統計量207は、撮影画像504の回路を製造し撮影したときの工程情報と、撮影画像504の回路の設計データ画像と、学習処理で作成したモデルデータとを、図2に示す入力受付部201が受け付け、推定部202が算出し、出力部203が出力したものである。
本図に示すパターンマッチング処理は、次のように行われる。
入力受付部501が撮影画像統計量207を受け付け、テンプレート画像作成部502が撮影画像統計量207をテンプレート画像に変換し、パターンマッチング処理部503に受け渡す。一方、入力受付部505が撮影画像504を受け付け、パターンマッチング処理部503に受け渡す。
パターンマッチング処理部503においては、撮影画像504とテンプレート画像とを用いてパターンマッチング処理を実施する。そして、出力部506がマッチング結果507を出力する。
パターンマッチング処理部503は、テンプレート画像と撮影画像504とを照合し、その位置を合わせる処理を行う。
具体的な方法の例は、テンプレート画像と撮影画像504の相対位置をずらしながら正規化相互相関を類似度スコアとして計算し、最も類似度スコアが高かった相対位置を出力することである。マッチング結果507の形式は、例えば、画像の移動量を表す二次元の座標値であってもよいし、最も類似度が高い位置において、テンプレート画像と撮影画像504をオーバーレイさせた画像であってもよい。
入力される撮影画像統計量207は、マッチング対象である撮影画像504に対応する設計データ画像及び工程情報を用いて、図2の推定部202で推定されたものである。このとき、推定部202に与えるモデルデータは、パターンマッチング処理の事前に学習処理により作成されたものであることが望ましい。
テンプレート画像作成部502で作成されるテンプレート画像の例としては、撮影画像統計量207が有する平均値を画像化した平均画像や、撮影画像統計量207から各画素の値をサンプリングして得られるサンプリング画像が挙げられる。
パターンマッチング処理前に行う学習処理で使用する回路の撮影画像は、過去に製造されたウエハから取得した撮影画像を使用してもよいし、マッチング対象のウエハから取得した撮影画像を使用してもよい。
図11は、撮影画像統計量を推定して回路の評価を実施するためのGUIを示す構成図である。ここで、GUIは、グラフィカルユーザインタフェースの略称である。
本図に示すGUI(1100)には、設計データ画像設定部1101と、モデルデータ設定部1102と、工程情報設定部1103と、評価結果表示部1104と、表示画像操作部1107と、が表示されている。
設計データ画像設定部1101は、撮影画像統計量の推定に必要な設計データ画像に関する設定を行う領域である。
モデルデータ設定部1102は、撮影画像統計量の推定に必要な学習済みのモデルデータに関する設定を行う領域である。
工程情報設定部1103は、撮影画像統計量の推定に必要な工程情報に関する設定を行う領域である。例えば、工程情報の設定方法として、リソグラフィやエッチングなどの各工程に必要なパラメータを個別に入力する方法が挙げられる。
設計データ画像設定部1101、モデルデータ設定部1102及び工程情報設定部1103では、所定のフォーマットで格納された記憶領域を指定することで、それぞれのデータを読み込む。
評価結果表示部1104は、設計データ画像設定部1101、モデルデータ設定部1102及び工程情報設定部1103で設定したデータから推定された撮影画像統計量に関する情報を表示する領域である。表示する情報の例として、撮影画像統計量から作成された平均画像1105や標準偏差画像1106が挙げられる。
表示画像操作部1107は、評価結果表示部1104で表示された情報に関する操作を行う領域である。操作としては、表示されている画像を他の画像に切り替えることや、画像の拡大または縮小をすることが挙げられる。
図12は、学習処理を実施するためのGUIを示す構成図である。
本図に示すGUI(1200)には、学習データセット設定部1201と、モデルデータ設定部1202と、学習条件設定部1203と、学習結果表示部1204と、が表示されている。
学習データセット設定部1201は、学習処理で使用する設計データ画像と工程情報と撮影画像とを含む学習データセットに関する設定を行う領域である。ここでは、所定のフォーマットで格納された記憶領域を指定することでデータを読み込む。
モデルデータ設定部1202は、学習処理で入力され、更新され、保存されるモデルデータに関する設定を行う領域である。ここでは、所定のフォーマットで格納された記憶領域を指定することでモデルデータを読み込む
学習条件設定部1203は、学習処理の学習条件に関する設定を行う領域である。例えば、学習要否判定S404として学習回数を指定してもよいし、学習を終了させる基準とする損失関数の値を指定してもよい。
学習結果表示部1204は、学習処理の途中経過または終了後の学習結果を表示する領域である。損失関数の時間変化のグラフ1205を表示してもよいし、学習途中または終了時のモデルを用いて推定した撮影画像統計量を可視化した画像1206を表示してもよい。
GUI(1100)とGUI(1200)とは、個別であってもよいし、学習処理と評価に関するGUIとして統合してもよい。また、GUI(1100)又はGUI(1200)で示す設定、表示又は操作のための領域は、一例であり、そのすべてがGUIに必須ではなく、一部のみで実現してもよい。さらに、これらの処理を実行する装置も、プログラムと同様に、各処理を一つの装置で実行してもよいし、異なる装置で実行してもよい。
図2、図3A及び図3Bの撮影画像統計量を推定する処理、図4の学習処理、並びに図5のパターンマッチング処理については、それぞれ異なるプログラムで実行してもよいし、それぞれを個別のプログラムで実行してもよい。さらに、これらの処理を実行する装置も、プログラムと同様に、各処理を一つの装置で実行してもよいし、異なる装置で実行してもよい。
なお、本発明は、上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
本実施例によれば、試料の設計データ等の基準画像、工程情報及び撮影画像の対応関係に基づいて、設計データ画像から工程情報に応じた試料の形状の変形範囲を統計量として推定することができる。推定した統計量を用いて、試料の撮影画像に対するパターンマッチングが可能となる。
なお、本実施例は、評価対象として半導体回路以外にも適用可能である。また、画像以外の入力データ(レーダによる形状計測)を用いることが可能である。
以下、本発明の効果についてまとめて説明する。
本発明によれば、試料の設計データ等の基準データと、試料の製造工程または撮影工程で設定されるパラメータである工程情報と、試料の撮影画像との対応関係に基づいて、任意の試料の基準データ及びその工程情報から、試料の変形ないし物性や、試料の撮影画像の像質の変動を推定することができる。
例えば、計測や検査等の評価をする前に取得した回路の設計データと、回路の製造工程または撮影工程で使用した工程情報の一部またはすべてと、撮影画像との対応関係を学習して構成した数理モデルを用いて、任意の設計データ画像及び任意の工程情報から、その条件下における回路の変形範囲を直接推定できる。このため、推定結果からパターンマッチングのテンプレート画像を作成し使用すれば、工程情報の違いによる変形範囲の違いを考慮した高精度なパターンマッチングを実現できる。
また、設計データと工程情報と撮影画像とを用いて対応関係を学習するため、工程情報に複数の製造工程又は撮影工程(リソグラフィ工程、エッチング工程、撮影工程など)のパラメータを複合的に加味することで、これらの複数工程間のパラメータの依存関係を、撮影画像に写る回路の形状変化又は撮影画像の像質変化として推定することができる。従来のプロセスシミュレーションの組み合わせでは処理時間が長くなるため、本発明は、速度的に優位となる。
さらに、本発明によれば、工程情報に応じて生じる回路の変形又はその撮影画像の像質の変化を予測するためのコンピュータプログラム及びこれを用いた半導体検査装置を提供することができる。
101:設計データ画像、102、103:工程情報、104、105、504:撮影画像、202:推定部、204:基準データ、205:工程情報、206、301:モデルデータ、207:撮影画像統計量、303:平均画像、304:標準偏差画像、502:テンプレート画像作成部、503:パターンマッチング処理部、901:確率密度関数、1100、1200:GUI。

Claims (14)

  1. 入力受付部と、推定部と、出力部と、を備えたシステムを用いて、試料の基準データから得られる推定撮影画像と前記試料の実際の撮影画像とを照合する際に用いる、前記推定撮影画像のデータを取得する方法であって、
    前記入力受付部が、前記基準データと、前記試料の工程情報と、学習済みのモデルデータと、の入力を受ける入力工程と、
    前記推定部が、前記基準データ、前記工程情報及び前記モデルデータを用いて、前記実際の撮影画像のデータが取り得る値の確率分布を表す撮影画像統計量を算出する推定工程と、
    前記出力部が、前記撮影画像統計量を出力する出力工程と、を含み、
    前記基準データは、設計データであり、
    前記工程情報は、前記試料の製造条件又は前記実際の撮影画像の撮影条件を含み、
    前記推定撮影画像は、前記撮影画像統計量から生成可能であり、
    前記実際の撮影画像のデータが取り得る値は、前記実際の撮影画像の各画素が取り得る値であり、
    前記工程情報は、前記設計データを画像化した設計データ画像を変換して得られた特徴量と結合している、画像処理方法。
  2. 前記システムは、機械学習部と、記憶部と、を更に備え、
    前記機械学習部が、前記モデルデータに対する学習の必要性を判定する学習要否判定工程を更に含み、
    前記学習要否判定工程にて前記学習の必要性を要と判定した場合には、
    学習用の前記基準データと前記工程情報と前記実際の撮影画像とを含む学習データセットの入力を受け、
    前記撮影画像統計量と前記学習データセットの前記実際の撮影画像のデータとの比較をし、
    前記比較の結果に基づいて前記モデルデータを更新し、
    前記学習要否判定工程にて前記学習の必要性を不要と判定した場合には、
    前記記憶部が、前記推定部が前記撮影画像統計量を算出する際に用いるパラメータを前記モデルデータとして保存する、請求項1記載の画像処理方法。
  3. 前記撮影画像統計量を用いて前記工程情報が前記試料に及ぼす影響を評価する工程を更に含む、請求項1記載の画像処理方法。
  4. 前記撮影画像統計量は、平均画像及び標準偏差画像を含む、請求項1記載の画像処理方法。
  5. 前記試料は、半導体回路である、請求項1記載の画像処理方法。
  6. 請求項1記載の画像処理方法により得られた前記撮影画像統計量を用いて前記試料の形状を検査する方法であって、
    前記システムは、テンプレート画像作成部と、パターンマッチング処理部と、を更に備え、
    前記入力受付部が、前記実際の撮影画像のデータの入力を受け、
    前記テンプレート画像作成部が、前記撮影画像統計量からテンプレート画像を作成し、
    前記パターンマッチング処理部が、前記テンプレート画像と前記実際の撮影画像とのパターンマッチングを行い、
    前記出力部が、前記パターンマッチングの結果を出力する、形状検査方法。
  7. 請求項2記載の画像処理方法により得られた前記撮影画像統計量を用いて前記試料の形状を検査する方法であって、
    前記システムは、テンプレート画像作成部と、パターンマッチング処理部と、を更に備え、
    前記入力受付部が、前記実際の撮影画像のデータの入力を受け、
    前記テンプレート画像作成部が、前記撮影画像統計量からテンプレート画像を作成し、
    前記パターンマッチング処理部が、前記テンプレート画像と前記実際の撮影画像とのパターンマッチングを行い、
    前記出力部が、前記パターンマッチングの結果を出力する、形状検査方法。
  8. 試料の基準データから得られる推定撮影画像と前記試料の実際の撮影画像とを照合する際に、前記推定撮影画像のデータを取得するシステムであって、
    前記基準データと、前記試料の工程情報と、学習済みのモデルデータと、の入力を受ける入力受付部と、
    前記基準データ、前記工程情報及び前記モデルデータを用いて、前記実際の撮影画像のデータが取り得る値の確率分布を表す撮影画像統計量を算出する推定部と、
    前記撮影画像統計量を出力する出力部と、を備え、
    前記基準データは、設計データであり、
    前記工程情報は、前記試料の製造条件又は前記実際の撮影画像の撮影条件を含み、
    前記推定撮影画像は、前記撮影画像統計量から生成可能であり、
    前記実際の撮影画像のデータが取り得る値は、前記実際の撮影画像の各画素が取り得る値であり、
    前記工程情報は、前記設計データを画像化した設計データ画像を変換して得られた特徴量と結合している、画像処理システム。
  9. 機械学習部と、記憶部と、を更に備え、
    前記機械学習部は、前記モデルデータに対する学習の必要性を判定し、
    前記機械学習部が前記学習の必要性を要と判定した場合には、
    学習用の前記基準データと前記工程情報と前記実際の撮影画像とを含む学習データセットの入力を受け、
    前記撮影画像統計量と前記学習データセットの前記実際の撮影画像のデータとの比較をし、
    前記比較の結果に基づいて前記モデルデータを更新し、
    前記機械学習部が前記学習の必要性を不要と判定した場合には、
    前記記憶部が、前記推定部が前記撮影画像統計量を算出する際に用いるパラメータを前記モデルデータとして保存する、請求項記載の画像処理システム。
  10. 前記撮影画像統計量を用いて前記工程情報が前記試料に及ぼす影響を評価する、請求項記載の画像処理システム。
  11. 前記撮影画像統計量は、平均画像及び標準偏差画像を含む、請求項記載の画像処理システム。
  12. 前記試料は、半導体回路である、請求項記載の画像処理システム。
  13. 請求項記載の画像処理システムを含み、
    テンプレート画像作成部と、パターンマッチング処理部と、を更に備え、
    前記撮影画像統計量を用いて前記試料の形状を検査するシステムであって、
    前記入力受付部は、前記実際の撮影画像のデータの入力を受け、
    前記テンプレート画像作成部は、前記撮影画像統計量からテンプレート画像を作成し、
    前記パターンマッチング処理部は、前記テンプレート画像と前記実際の撮影画像とのパターンマッチングを行い、
    前記出力部は、前記パターンマッチングの結果を出力する、形状検査システム。
  14. 請求項記載の画像処理システムを含み、
    テンプレート画像作成部と、パターンマッチング処理部と、を更に備え、
    前記撮影画像統計量を用いて前記試料の形状を検査するシステムであって、
    前記入力受付部は、前記実際の撮影画像のデータの入力を受け、
    前記テンプレート画像作成部は、前記撮影画像統計量からテンプレート画像を作成し、
    前記パターンマッチング処理部は、前記テンプレート画像と前記実際の撮影画像とのパターンマッチングを行い、
    前記出力部は、前記パターンマッチングの結果を出力する、形状検査システム。
JP2022531135A 2020-06-16 2020-06-16 画像処理方法、形状検査方法、画像処理システム及び形状検査システム Active JP7390486B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/023554 WO2021255819A1 (ja) 2020-06-16 2020-06-16 画像処理方法、形状検査方法、画像処理システム及び形状検査システム

Publications (3)

Publication Number Publication Date
JPWO2021255819A1 JPWO2021255819A1 (ja) 2021-12-23
JPWO2021255819A5 JPWO2021255819A5 (ja) 2023-02-14
JP7390486B2 true JP7390486B2 (ja) 2023-12-01

Family

ID=79268639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022531135A Active JP7390486B2 (ja) 2020-06-16 2020-06-16 画像処理方法、形状検査方法、画像処理システム及び形状検査システム

Country Status (6)

Country Link
US (1) US20230222764A1 (ja)
JP (1) JP7390486B2 (ja)
KR (1) KR20230004819A (ja)
CN (1) CN115698690A (ja)
TW (1) TWI777612B (ja)
WO (1) WO2021255819A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127081A1 (ja) * 2021-12-28 2023-07-06 株式会社日立ハイテク 画像検査装置、画像処理方法
CN115242982B (zh) * 2022-07-28 2023-09-22 业成科技(成都)有限公司 镜头调焦方法及其系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170148226A1 (en) 2015-11-19 2017-05-25 Kla-Tencor Corporation Generating simulated images from design information
US20170191948A1 (en) 2016-01-04 2017-07-06 Kla-Tencor Corporation Optical Die to Database Inspection
JP2018028636A (ja) 2016-08-19 2018-02-22 株式会社ニューフレアテクノロジー マスク検査方法
US20180293721A1 (en) 2017-04-07 2018-10-11 Kla-Tencor Corporation Contour based defect detection

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104881868B (zh) * 2015-05-14 2017-07-07 中国科学院遥感与数字地球研究所 植物群落空间结构提取方法
JP7144244B2 (ja) 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170148226A1 (en) 2015-11-19 2017-05-25 Kla-Tencor Corporation Generating simulated images from design information
US20170191948A1 (en) 2016-01-04 2017-07-06 Kla-Tencor Corporation Optical Die to Database Inspection
JP2018028636A (ja) 2016-08-19 2018-02-22 株式会社ニューフレアテクノロジー マスク検査方法
US20180293721A1 (en) 2017-04-07 2018-10-11 Kla-Tencor Corporation Contour based defect detection

Also Published As

Publication number Publication date
WO2021255819A1 (ja) 2021-12-23
TWI777612B (zh) 2022-09-11
US20230222764A1 (en) 2023-07-13
TW202201347A (zh) 2022-01-01
JPWO2021255819A1 (ja) 2021-12-23
CN115698690A (zh) 2023-02-03
KR20230004819A (ko) 2023-01-06

Similar Documents

Publication Publication Date Title
US10937146B2 (en) Image evaluation method and image evaluation device
JP7144244B2 (ja) パターン検査システム
US8767038B2 (en) Method and device for synthesizing panorama image using scanning charged-particle microscope
JP5525421B2 (ja) 画像撮像装置および画像撮像方法
JP5604067B2 (ja) マッチング用テンプレートの作成方法、及びテンプレート作成装置
US7888638B2 (en) Method and apparatus for measuring dimension of circuit pattern formed on substrate by using scanning electron microscope
JP7427744B2 (ja) 画像処理プログラム、画像処理装置、画像処理方法および欠陥検出システム
JP5422411B2 (ja) 荷電粒子線装置によって得られた画像データの輪郭線抽出方法、及び輪郭線抽出装置
JP2020004443A (ja) 多層構造体の層間のオーバレイを測定する技法
US20120290990A1 (en) Pattern Measuring Condition Setting Device
TWI777612B (zh) 影像處理方法、形狀檢查方法、影像處理系統及形狀檢查系統
WO2014208202A1 (ja) パターン形状評価装置及び方法
TWI567789B (zh) A pattern measuring condition setting means, and a pattern measuring means
JP5286337B2 (ja) 半導体製造装置の管理装置、及びコンピュータプログラム
JP2018056143A (ja) 露光条件評価装置
JP5604208B2 (ja) 欠陥検出装置及びコンピュータプログラム
JP5396496B2 (ja) 合成画像形成方法及び画像形成装置

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20221018

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7390486

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150