JP2022172401A - パターン検査システム - Google Patents

パターン検査システム Download PDF

Info

Publication number
JP2022172401A
JP2022172401A JP2022146655A JP2022146655A JP2022172401A JP 2022172401 A JP2022172401 A JP 2022172401A JP 2022146655 A JP2022146655 A JP 2022146655A JP 2022146655 A JP2022146655 A JP 2022146655A JP 2022172401 A JP2022172401 A JP 2022172401A
Authority
JP
Japan
Prior art keywords
pattern
image
data
inspection system
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022146655A
Other languages
English (en)
Other versions
JP7399235B2 (ja
Inventor
ショヨウ トウ
Shuyang Dou
伸一 篠田
Shinichi Shinoda
康隆 豊田
Yasutaka Toyoda
博之 新藤
Hiroyuki Shindo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2022146655A priority Critical patent/JP7399235B2/ja
Publication of JP2022172401A publication Critical patent/JP2022172401A/ja
Application granted granted Critical
Publication of JP7399235B2 publication Critical patent/JP7399235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70491Information management, e.g. software; Active and passive control, e.g. details of controlling exposure processes or exposure tool monitoring processes
    • G03F7/70508Data handling in all parts of the microlithographic apparatus, e.g. handling pattern data for addressable masks or data transfer to or from different components within the exposure apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/70Microphotolithographic exposure; Apparatus therefor
    • G03F7/70483Information management; Active and passive control; Testing; Wafer monitoring, e.g. pattern monitoring
    • G03F7/70605Workpiece metrology
    • G03F7/70616Monitoring the printed patterns
    • G03F7/70625Dimensions, e.g. line width, critical dimension [CD], profile, sidewall angle or edge roughness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Biochemistry (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Mathematical Physics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Manufacturing & Machinery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】学習データの真値作成作業の手間を省き、学習データの少量化を図ることで、学習時間の短期間化を可能とするパターン検査システムを提供する。【解決手段】電子デバイスの検査対象パターンの画像102と、検査対象パターンを製造するために使用するデータ101に基づき、機械学習により構成された識別器302を用いて検査対象パターンの画像を検査するパターン検査システムであって、電子デバイスの複数のパターン画像と前記電子デバイスのパターンを製造するために使用するパターンデータ101を格納する記憶部と、記憶部に格納されたパターンデータ101とパターン画像に基づき、前記複数のパターン画像から機械学習に用いる学習用パターン画像を選択する画像選択部103と、を備える。【選択図】 図1

Description

本発明は、荷電粒子線装置等を用いたパターン検査システムに係り、特に、画像情報に基づき機械学習を行うパターン検査システムに関する。
近年、半導体検査等の分野で画像から特徴量を抽出し、事前にデータベース等に登録されている情報と比較照合することで対象物を判別する画像解析技術が用いられている。対象物を判別する機械学習のアルゴリズムとしてニューラルネットワークやサポートベクターマシンが知られている。いずれの方法もどのような特徴量を選ぶかによって識別精度が大きく変動するため、特徴量の選択方法が重要となっていた。
近年では、CNN(Convolutional Neural Network;畳み込みニューラルネットワーク)と呼ばれる深層学習器が開発され、注目されている(非特許文献1)。CNNは機械学習器の一種であり、画像の特徴をシステムが自動抽出して学習し、画像に含まれた物体像の抽出や、物体の判別、画像の分類等を行うものである。 従来のサポートベクターマシン等の機械学習で必要とされた特徴量の選択を学習データから自動抽出することができ、非常に高い画像解析性能を発揮する。
しかしながら、CNNによる画像解析性能を向上させるためには解析対象のバリエーションを網羅的に学習する必要があり、半導体検査のように学習データの取得に手間を要するアプリケーションではその運用が難しいという問題がある。
解析対象のバリエーションを広げてかつ機械学習のデータを削減する対策として、OPC(Optical Proximity Correction)モデル作成がある。
(非特許文献2)。これは半導体の回路設計図が半導体製造装置を経てシリコンウエハ上に、どのように形成されるかをシミュレートする際に利用されるモデルであり、回路設計図と実際にウエハに製造されたSEM写真の関係を機械学習するものである。非特許文献2では、解析対象のバリエーションを広げるために、回路設計データを参照し、回路形状のバリエーションを分析して学習対象を決定する手法が提案されている。
Alex Krizhevsky, Ilya Sutskever, and Geoffrey E Hinton, "ImageNetClassification with Deep Convolutional Neural Networks", Advances InNeural Information Processing Systems, Vol.25, pp.1106 - 1114, 2012. Sun, Yuyang, et al. "Optimizing OPC data sampling based on" orthogonal vector space"." Optical Microlithography XXIV. Vol. 7973. International Society for Optics and Photonics, 2011.
機械学習を半導体の画像検査に活用する場合、半導体の撮影に用いるSEM(Scanning Electron Microscope)の撮影条件のバリエーションや、回路形状のバリエーション、半導体製造プロセスの変動や半導体デバイス上の回路形成位置に起因する回路形状の変形のバリエーションに対応するための多くの画像データの準備が必要になる。また、画像データのそれぞれに対となる正しい検査結果(以下、真値と称する)を作成する必要があり、大量の学習データに対応する真値の作成作業は人手による作業と時間を要する。更に計算機を用いた大量の学習作業は数週間~数カ月と時間を要する場合もある。このような学習作業は生産ラインの運用の妨げになるため、その活用は困難である。このため、目標とする検査性能の達成に必要最低限のデータを選択する手法が望まれている。
そこで、本発明は、学習データの真値作成作業の手間を省き、学習データの少量化を図ることで、学習時間の短期間化を可能とするパターン検査システムを提供する。
上記課題を解決するため、本発明に係るパターン検査システムは、電子デバイスの検査対象パターンの画像と、前記検査対象パターンを製造するために使用するデータに基づき、機械学習により構成された識別器を用いて前記検査対象パターンの画像を検査するパターン検査システムであって、前記電子デバイスの撮影に関する情報と前記電子デバイスのパターンを製造するために使用するパターンデータに基づき、機械学習に用いる学習用パターンを生成するために前記撮影の撮影位置の座標を選択するデータ選択部、を備えることを特徴とする。
本発明によれば、学習データの真値作成作業の手間を省き、学習データの少量化を図ることで、学習時間の短期間化を可能とするパターン検査システムを提供することが可能となる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の一実施例に係る画像生成部を構成する学習データ選択部の概要を示す図である。 本発明の一実施例に係る画像生成部を構成する画像撮影部の概要を示す図である。 モデル生成部とモデル評価部の概要を示す図である。 図1に示す学習データ選択部の処理フローを示すフローチャートである。 図4のステップS20における形状バリエーション分析の詳細フローを示すフローチャートである。 図5のステップS201における縦/横エッジ割合分析の詳細フローを示すフローチャートである。 図5のステップS202におけるパターン間隔分析の詳細フローを示すフローチャートである。 図5のステップS203におけるパターン密度分析の詳細フローを示すフローチャートである。 図4のステップS30における形状バリエーションによる学習データ選択処理の詳細フローを示すフローチャートである。 図4のステップS40における位置バリエーション分析の詳細フローを示すフローチャートである。 図4のステップS50における位置バリエーションによる学習データ選択処理の詳細フローを示すフローチャートである。 図2に示すレシピ作成部のGUIの表示画面例を示す図である。 図3に示す教示データ作成部のGUIの表示画面例であって、学習データの真値付け実行時における状態を示す図である。 本発明の一実施例に係る画像生成部の概要を示す図である。 本発明の他の実施例に係る画像生成部の概要を示す図である。 図15に示す学習データ選択部の処理フローを示すフローチャートである。 図16のステップS60におけるプロセスばらつき分析の詳細フローを示すフローチャートである。 図16のステップS70におけるプロセスばらつき学習データ選択の詳細フローを示すフローチャートである。 半導体計測システムの全体概略構成図である。 走査電子顕微鏡の概略構成図である。 パターンの縦と横のエッジ画素を算出する概略説明図であって、図21(a)は設計データにおける頂点座標を、図21(b)は設計データ画像を、図21(c)はエッジ画像を、図21(d)は縦エッジと横エッジの画素数を示す図である。 画像生成部及び評価装置の全体概略構成図である。
以下に説明する実施例にて例示するパターン検査システムを構成する画像生成部は、機械学習を活用した半導体検査での学習データの少量化及び学習時間の短期間化を図るためのものである。また、その具体的な一例として、設計データとSEM撮影条件を用いて学習用の画像データセットを生成する例を示す。
本明細書では、機械学習を活用した半導体検査での学習データを生成する機能を備えた装置、すなわち、パターン検査システムについて説明する。パターン検査システムとして用いられる荷電粒子線装置は、例えば、試料上にイオンビームを走査して画像を形成する集束イオンビーム(Focused Ion Beam:FIB)装置、試料上に電子ビームを走査して画像を形成する走査電子顕微鏡(SEM)、及び、測定装置の一種である測長用走査電子顕微鏡(Critical Dimension-Scanning Electron Microscope:CD-SEM)等を含む。但し、微細化が進むパターンを高精度に測定するためには、極めて高い倍率が要求されるため、一般的に分解能の面でFIB装置に勝るSEMを用いることが望ましい。
図19は半導体計測システムの全体概略構成図であり、複数の測定或いは検査装置がネットワークに接続された測定、検査システムの概略説明図である。図19に示す半導体計測システムには、主に半導体ウエハやフォトマスク等のパターン寸法を測定するCD-SEM2401(測長SEMとも称される)、試料に電子ビームを照射することによって、画像を取得し当該画像と予め登録されている参照画像との比較に基づいて欠陥を抽出する欠陥検査装置2402がネットワークに接続された構成となっている。また、ネットワークには、半導体デバイスの設計データ上で、測定位置や測定条件等を設定する条件設定装置2403、半導体デバイスの設計データと、半導体製造装置の製造条件等に基づいて、パターンの出来栄えをシミュレーションするシミュレーター2404、及び半導体デバイスのレイアウトデータや製造条件が登録された設計データが記憶される記憶媒体2405が接続されている。
設計データは、例えばGDSフォーマットやOASISフォーマット等で表現されており、所定の形式にて記憶されている。なお、設計データは、設計データを表示するソフトウェアがそのフォーマット形式を表示でき、図形データとして取り扱うことができれば、その種類は問わない。また、記憶媒体2405は、測定装置、検査装置の制御装置、或いは条件設定装置2403、シミュレーター2404に内蔵するようにしても良い。なお、CD-SEM2401、及び欠陥検査装置2402、には、それぞれの制御装置が備えられ、各装置に必要な制御が行われるが、これらの制御装置に、シミュレーター2404の機能や測定条件等の設定機能を搭載するようにしても良い。
SEMでは、電子源より放出される電子ビームが複数段のレンズにて集束されると共に、集束された電子ビームは走査偏向器によって、試料上を一次元的、或いは二次元的に走査される。電子ビームの走査によって試料より放出される二次電子(Secondary Electron:SE)或いは後方散乱電子(Backscattered Electron:BSE)は、検出器により検出され、走査偏向器の走査に同期して、フレームメモリ等の記憶媒体に記憶される。このフレームメモリに記憶されている画像信号は、制御装置内に搭載された演算装置によって積算される。また、走査偏向器による走査は任意の大きさ、位置、及び方向について可能である。
以上のような制御等は、各SEMの制御装置にて行われ、電子ビームの走査の結果、得られた画像や信号は、通信回線ネットワークを介して条件設定装置2403に送られる。
なお、本例では、SEMを制御する制御装置と、条件設定装置2403を別体のものとして、説明しているが、これに限られることはなく、条件設定装置2403にて装置の制御と測定処理を一括して行うようにしても良いし、各制御装置にて、SEMの制御と測定処理を併せて行うようにしても良い。
また、上記条件設定装置2403或いは制御装置には、測定処理を実行するためのプログラムが記憶されており、当該プログラムに従って測定、或いは演算が行われる。
また、条件設定装置2403は、SEMの動作を制御するプログラム(レシピ)を、半導体の設計データに基づいて作成する機能が備えられており、レシピ設定部として機能する。具体的には、設計データ、パターンの輪郭線データ、或いはシミュレーションが施された設計データ上で所望の測定点、オートフォーカス、オートスティグマ、アドレッシング点等のSEMにとって必要な処理を行うための位置等を設定し、当該設定に基づいて、SEMの試料ステージや偏向器等を自動制御するためのプログラムを作成する。
以下では図面を用いて、荷電粒子線装置として、CD-SEM(測長SEMとも称される)を一例として実施例を説明する。
図20は、走査電子顕微鏡の概略構成図である。電子源2501から引出電極2502によって引き出され、図示しない加速電極によって加速された電子ビーム2503は、集束レンズの一形態であるコンデンサレンズ2504によって、絞られた後に、走査偏向器2505により、試料2509上を一次元的、或いは二次元的に走査される。電子ビーム2503は、チャンバ2507内の試料台2508に内蔵された電極に印加された負電圧により減速されると共に、対物レンズ2506のレンズ作用によって集束されて試料2509上に照射される。
電子ビーム2503が試料2509に照射されると、当該照射個所から二次電子、及び後方散乱電子を含む電子2510が放出される。放出された電子2510は、試料に印加される負電圧に基づく加速作用によって、電子源方向に加速され、変換電極2512に衝突し、二次電子2511を生じさせる。変換電極2512から放出された二次電子2511は、検出器2513によって捕捉され、捕捉された二次電子量によって、検出器2513の出力Iが変化する。この出力Iに応じて図示しない表示装置の輝度が変化する。例えば二次元像を形成する場合には、走査偏向器2505への偏向信号と、検出器2513の出力Iとの同期をとることで、走査領域の画像を形成する。なお、図20の例では試料2509から放出された電子2510を変換電極2512にて一端変換して検出する例について説明しているが、無論このような構成に限られることはなく、例えば加速された電子の軌道上に、電子倍像管や検出器の検出面を配置するような構成とすることも可能である。制御装置2514は、走査電子顕微鏡の各構成を制御すると共に、検出された電子に基づいて画像を形成する機能や、ラインプロファイルと呼ばれる検出電子の強度分布に基づいて、試料上に形成されたパターンのパターン幅を測定する機能を備えている。
次に、機械学習の学習用画像データ生成及び評価装置の全体概略構図を図22に示す。
設計データ101とSEM撮影条件102を画像生成部1に入力し、学習用画像データが生成されて、学習用画像データ記憶部203に保存される。モデル生成部30は、学習用画像データを学習し、画像検査を行うためのモデル303を生成する。モデル評価部40は、モデル303を用いて評価用画像データ記憶部401から画像データを取り出して、評価を行い、評価結果402を生成する。図22に点線にて示すように、評価装置は、これら、設計データ101、SEM撮影条件102、画像生成部1、学習用画像データ記憶部203、モデル生成部30、モデル303、モデル評価部40、及び、評価用画像データ記憶部401にて構成されている。
画像生成部1及びモデル生成部30、モデル評価部40の一態様を説明する。画像生成部1及びモデル生成部30、及び、モデル評価部40は、制御装置2514内に内蔵、或いは画像処理機能が内蔵された演算装置にて実行することも可能であるし、ネットワークを経由して、外部の演算装置(例えば、条件設定装置2403)にて画像生成を実行することも可能である。
図1は、本発明の一実施例に係る画像生成部1を構成する学習データ選択部の概要を示す図である。すなわち、機械学習の学習用画像データを生成するために、SEM撮影座標リストを作成する学習データ選択部103の一例を説明する図である。学習データ選択部103は、設計データ101及びSEM撮影条件102を用いて、学習に適した画像を取得するため撮影位置の座標を求め、学習用画像座標リスト104として出力する。
図4は、図1に示す学習データ選択部103の処理フローを示すフローチャートである。機械学習を画像検査に適用する場合、検査対象となる被写体のバリエーションを網羅的に学習する必要がある。この例では半導体デバイスの設計データとSEMの撮影条件を用いて、半導体デバイス上のパターン形状のバリエーションを網羅するように学習データを効率よく選択する例を説明する。半導体の場合、製造プロセスの変動により、半導体デバイス上のパターンの形成位置によって、パターン形状の変形量が異なるため、パターン形状のバリエーションの他に、パターン形成位置を考慮した選択が有効である。以下、概要を説明した後、それぞれの処理の詳細を説明する。
図4に示すように、学習データ選択部103は、ステップS10にて、初めにFOV(Field Of View:撮像視野とも称される)設計データ切り出し処理を実行する。すなわち、SEM撮影条件102に対応する設計データ101上の位置と取得する画像サイズで設計データ101を切り出す。例えば、撮影位置X、YでFOVが2μmの場合はX、Y座標を中心に2μmサイズの大きさで設計データ101を切り出す。予め設計データ101を描画してから設計データ101の画像を切り出しても良く、切り出し領域を求めて切り出し領域に対応する設計データを描画しても良い。
続いて、学習データ選択部103は、ステップS20にて、形状バリエーション分析処理を実行する。すなわち、ステップS10にて切り出した設計データ画像からパターンの形状やパターンの密度に関する特徴を求める。
そして、ステップS30では、学習データ選択部103が形状バリエーション学習データ選択処理を実行する。すなわち、ステップS20にて求めたパターンの形状やパターンの密度から得た指標を用いて学習データに適したパターンを1つ以上選択する。
次にステップS40では、学習データ選択部103が位置バリエーション分析処理を実行する。すなわち、ステップS30にて選択したパターンの同じ形状のパターンを設計データ101から検出する。位置バリエーション分析処理では1つ以上の同形パターンの座標位置を求める。
ステップS50では、学習データ選択部103が位置バリエーション学習データ選択処理を実行する。すなわち、ステップS40にて求めた同形パターンの座標位置を用いて学習データに適したパターンを選択する。
以上の処理を設計データ101から切り出した全ての局所的な設計データに対して行う。SEMの撮影条件の制約でFOVサイズが小さい場合、大量に切り出された設計データの分析が必要となるため、分析数を限定しても良い。例えば、予め設定した数の座標をランダムに選定し、その座標に対応する設計データのみを限定して分析しても良く、設計データを所定の間隔でサンプリングした座標を選定し、その座標に対応する設計データのみを限定して分析しても良い。
図5は、図4のステップS20における形状バリエーション分析の詳細フローを示すフローチャートである。ステップS201では、学習データ選択部103が縦/横エッジ割合分析処理を実行する。すなわち、設計データ画像を用いてパターンの縦エッジと横エッジの割合を算出する。設計データは主に縦方向と横方向の矩形パターンであるため、縦エッジと横エッジの割合からパターン形状の傾向を把握できる。
続くステップS202では、学習データ選択部103がパターン間隔分析処理を実行する。すなわち、設計データ画像からパターンの幅及び間隔を算出する。
そして、ステップS203では、学習データ選択部103がパターン密度分析処理を実行する。すなわち、設計データから作成した設計データ画像を用いてパターンの密度を算出する。パターン密度は、パターンの個数や面積などを用いることで算出できる。
図6は、図5のステップS201における縦/横エッジ割合分析の詳細フローを示すフローチャートである。図6に示すように、ステップS2011では、設計データから縦エッジと横エッジの数を検出する縦/横エッジ成分検出処理を実行する。
ステップS2012では、ステップS2011にて検出した縦/横エッジ成分の画素数をカウントする縦/横エッジ画素数カウント処理を実行する。
ステップS2013では、ステップS2012にてカウントした縦/横エッジ画素から縦/横エッジの割合を算出する縦/横エッジ割合算出処理を実行する。
ここで、図21に、設計データからパターンの縦と横のエッジ画素を算出する概略説明図を示す。図21(a)に示す設計データの情報である閉図形の頂点座標A,B,C,Dに基づき、図21(b)に示す設計データ画像を作成することができる。この例では、閉図形内にパターンが存在するため、閉図形内が黒で塗られ、パターンが存在しない閉図形の外側は白で塗られる。図21(b)に示す設計データ画像に対してエッジ検出を行うことで、図21(c)に示すエッジ画像を得ることができる。これは、図6に示したステップS2011における縦/横エッジ成分検出処理に相当する。この図21(c)に示すエッジ画像から縦線に含まれるエッジの画素数と横線に含まれるエッジの画素数を分けてカウントすることで、図21(d)に示す縦エッジと横エッジの画素数を取得できる。これは、図6に示したステップS2012における縦/横エッジ画素数カウント処理に相当する。この縦/横エッジの画素数を用いて縦/横エッジの割合を算出することができる。
図7は、図5のステップS202におけるパターン間隔分析の詳細フローを示すフローチャートである。初めにステップS2021にて、行/列のサンプリングで設計データ画像に対して、行方向(x方向)と列方向(y方向)にサーチして、パターンの有無を検出し、パターンの幅、間隔を算出して記憶する。サーチは一行、一列毎に行っても良く、数行、数列毎に飛ばしながら行うことで処理時間の短縮を図っても良い。
ステップS2022では、パターン間隔最大/最小値/平均値検出処理を実行する。すなわち、ステップS2021にて行/列のサンプリングで記憶したパターンの幅、間隔に基づき、その最大値と最小値及び平均値を算出する。
図8は、図5のステップS203におけるパターン密度分析の詳細フローを示すフローチャートである。ステップS2031では、設計データから設計データ画像を生成し、設計データ画像にGridを設定する画像Grid設定処理を実行する。
ステップS2032では、パターンが含まれるGridの数をカウントし、ステップS2033では、全Gridのパターン密度を算出する。
図9は、図4のステップS30における形状バリエーションによる学習データ選択処理の詳細フローを示すフローチャートである。形状バリエーション学習データ選択処理は、縦/横エッジの割合とパターン間隔、パターン密度の値を利用して形状バリエーションを考慮した学習データ(サンプル)を選択する。
図9に示すように初めに、ステップS301では、学習データ選択部103が、形状クラスラリング処理を実行し、縦/横エッジの割合とパターン間隔、パターン密度の値を用いてクラスラリングし、1個以上のクラスに分ける。クラスラリングの手法は例えば、k-means法などの既知の技術で実現できる。続いて、ステップS302では、学習データ選択部103が、各クラスタからn個(n≧1)のサンプルを選択する。学習データに適したサンプルは、パターンの形状や密度について、偏りが無く網羅的になるように選択することが望ましい。そのため、サンプル間で縦/横エッジの割合、パターン間隔及びパターン密度の値の差分が大きくなるようにサンプルを選び、同様の傾向のサンプルに偏らないようにすれば良い。充分な数をサンプルとして選択できる場合はランダムに選択しても良い。例えば、枚数が少ない場合は、サンプル間で縦/横エッジの割合及びパターン間隔、パターン密度の値の差分が大きくなるようにサンプルを選び、選択するサンプル数が多量の場合はランダムに選択する等、サンプル枚数によって選択手法を切替えても良い。サンプル枚数はデフォルトで予め決めておいても良く、ユーザが設定しても良い。設計データのパターンバリエーション分析処理の縦/横エッジの割合、パターン間隔と密度の値を用いた統計処理や実験値に基づく変換テーブルを用いて求めても良い。
図10は、図4のステップS40における位置バリエーション分析の詳細フローを示すフローチャートである。位置バリエーション分析処理は、ステップS30にて形状バリエーション学習データ選択処理で選択した全サンプルの形状に基づき、設計データ上を探索して同形パターンを検出し、その位置座標を記憶する。
具体的には、図10に示すように、ステップS30にて選択されたパターンを集合A、ステップS30にて選択されたパターンの数がNとしたとき、i=1とし、ステップS401にて、学習データ選択部103がi≦Nか否かを判定する。判定の結果、iがNを超える場合は処理を終了する。一方、判定の結果、i≦Nである場合はステップS402へ進む。
ステップS402では、学習データ選択部103が、集合Aからi番目のパターンPiを取り出し、ステップS403へ進む。
ステップS403では、学習データ選択部103は設計図(設計データ)からパターンPiに類似するパターンの位置を探索し、集合Biに記憶し、ステップS401へ戻り繰り返し処理を実行する。
なお、同形パターンの検出は、サンプルの画像をテンプレートとしたテンプレートマッチングで実現できる。正規化相関等の既知の技術で得た画像の類似度が特定の閾値より高い場合に、同形パターンとして、その位置座標を記憶する。また、ウエハ上を想定して検出位置を求めることも考えられる。ウエハ上には設計データを基にChipが複数生成される。それらのChipは同じ回路パターンであるため、例えば、Chipの設計データ上に類似パターンが1つも無い場合でも、ウエハ上には複数のChipが生成されることから、必ず同形パターンが複数存在することになり、それらを想定して同形パターンの検出位置を記憶することも考えられる。換言すれば、ウエハ上に形成された複数のChipの回路パターン(全てのChipの回路パターンは同一)において、各Chipの回路パターン中に、FOVの設定により、当該FOV内の回路パターンの特徴形状(特徴量)が、Chip内の他の回路パターンには存在せず、この特徴形状(特徴量)がウエハ上に形成された全てのChipの回路パターンで同一となることを意味する。
図11は、図4のステップS50における位置バリエーションによる学習データ選択処理の詳細フローを示すフローチャートである。ステップS501では、学習データ選択部103が、パターン毎に記憶した同形パターンが存在する複数の位置座標のデータをクラスタリングし、1個以上のクラスに分ける。クラスタリングは上述のステップS301と同様に実現できる。続いて、ステップS502では、分けたクラスからそれぞれm個(m≧1)のサンプルをランダムに選択する。そして、選択したサンプルの画像座標を学習用画像座標リスト104として出力する。
ウエハにパターンを転写する際、設計データ上で同形パターンであっても、プロセス変動でパターン形状は変化する。そこで、位置バリエーション学習データ選択処理(ステップS50)では、発生するパターン形状の変動を学習データとして加えるため、同形パターンで位置座標が異なるデータを選択する。
本手法では、形状バリエーション分析処理(ステップS20)及び形状バリエーション学習データ選択処理(ステップS30)により、パターン形状に偏りを無くすことで汎化性能に寄与する学習に適したサンプルを取得することができる。また、位置バリエーション分析処理(ステップS40)及び位置バリエーション学習データ選択処理(ステップS50)により、実際に発生する形状変動に対してロバストな識別器の生成に寄与する学習データを作成することが可能となる。ここで、例えば、オーギュメンテーションでパターン形状を歪ませるなどの画像処理を施した学習データを加えて学習させて、形状変動にロバストな識別器を生成することが考えられるが、加える形状の歪の大きさが実際に発生する歪と異なっている場合は識別性能が劣化する可能性がある。
これに対して、本手法では実際に発生する形状の変動を学習データとして加えるため、安定して識別性能を向上できる。
次に、画像撮影部20について説明する。図2は、本発明の一実施例に係る画像生成部1を構成する画像撮影部20の概要を示す図である。図2に示すように、画像撮影部20は、学習用画像座標リスト104からレシピ作成部201でSEM撮影するためのレシピを作成し、作成したレシピに基づいて撮影部202でSEM撮影し学習用画像データ記憶部203に格納する。ここでレシピ作成部201を図12に示すようなGUIの表示画面に表示してユーザが確認することができるようにすることが考えられる。設計データによる設計図形とその座標とを対応させて表示させて確認することや、ユーザの指示で表示した座標を学習用画像座標リスト104に追加又は削除ができるようにしても良い。
続いて、モデル生成部30について説明する。図3は、モデル生成部30とモデル評価部40の概要を示す図である。モデル生成部30は学習用画像データ記憶部203に格納した学習用画像について、教示データ作成部301で対応する教示データをユーザが画素毎に又は画像毎に付与する。そして学習部302で学習用画像とそれに対応する教示データとの関係を学習して、モデル303を作成する。学習部302は機械学習で用いられる識別器で実現できる。例えば、深層学習などの多層のニューラルネットワーク(例えば、CNN)による識別器で実現できる。
画素毎の教示データが必要なケースとして、深層学習によるセマンティックセグメンテーションが挙げられる。このタスクでは、画像の各画素に対してラベルを付ける。このラベルは該当画素の種類を意味する。学習部302で画像から画素毎のラベルを推定するモデルを学習する。例えば、回路パターンのSEM画像から回路パターンの輪郭線を抽出するような半導体検査に向けた識別器のモデルを作成する場合、教示データの一例としては、輪郭線の画素は赤、それ以外の画素は青とする領域分割のラベルをRGBの8bit信号として表現した画像の教示データを作成する。パターンの内側、外側、及び輪郭線と分けてそれぞれ色分けした教示データを作成しても良い。対象となる回路パターンが複数層に渡る場合、各層パターンの内側、外側、及び輪郭線をそれぞれ細かく色分けした教示データを作成すれば良い。その際は、GUIに学習用画像座標リスト104に基づいた学習用画像を表示させて、その画像の上に教示データを重ねて目視で確認しながら作成する。
また、輪郭線等の細かな教示データを作成する際はペンタブレットを用いて作成することが望ましい。複数層で各層毎にパターンの内側、外側、及び輪郭線で分けて色付けする際、それぞれの色を決める必要がある。学習に用いるデータセットの真値付けでは、上の層からの番号(何層目なのかを示す)、パターンの内側、パターンの外側、輪郭線等の属性に対応する色を決めて、全データを統一する必要がある。また、異なるデータセットであっても、後にそれらのデータセットを合わせて学習する可能性もあり、データセットに限らず、例えば、輪郭線を抽出する識別器を評価するデータセットは、全てのデータセットで属性と色の対応を合わせておくことが望ましい。その際、学習データのSEM画像に対応する設計データを用いることで、そのSEM画像の真値付けに必要となる属性の数、属性の種類(層の番号、パターンの内側、パターンの外側、パターンの輪郭線)を求めることができる。属性の数については、単層のパターンのSEM画像であれば、パターンの内側、パターンの外側、パターンの輪郭線の3つであり、2層パターンのSEM画像であれば、1層目と2層目のパターンの内側、パターンの外側、パターンの輪郭線で6つとなり、属性の数は層数×3となる。例えば、パターンの内側、外側の境界を輪郭線と考えて、パターンの内側、外側のみを真値付けするのであれば、属性の数は層数×2となる。属性の数に対応する色は、ユーザが任意で決めることも考えられるし、予め、属性の種類に応じて属性の数に対応した色を決めておくことが望ましい。その際、ランダムに決めても良く、それぞれの色が見えやすくなるように色空間上で鮮やかな色を選ぶことや、それぞれの色が色空間上で距離が均等になるように選ぶ、または、最も距離が離れるように色を決めても良い。また、設計データに基づいてパターンの内側(パターン領域)とパターンの外側(非パターン領域)と、その境界をパターンの輪郭線として、それぞれの属性に対応する色をつけた推定真値画像を作成することも考えられる。作成した推定真値画像を表示画面上に表示して、この推定真値画像を参考にユーザが真値付けすることも考えられる。
その際、推定真値画像の全属性の色のパレットを表示しておき、そのパレットの色を指定することで、例えば、ペンタブレットのペンの色が、そのパレットの色になるようにしても良い。
また、表示画面上に表示した推定真値画像を真値付け対象のSEM画像に重ねて表示して、推定真値画像を加工して真値画像を作成することも考えられる。その際は、重ねて表示しているSEM画像を見ながら推定真値画像のパターンと非パターンの境界(輪郭線)の一部分、若しくは1点をユーザがペンタブレットで理想とする輪郭線の位置に移動させるようにすることが考えられる。移動する輪郭線の一部分、若しくは1点に連なる他の輪郭線の点も移動に合わせて移動するようにしておくことが考えられる。その移動量はユーザが指示している輪郭線の一部、若しくは1点からの距離が遠くなるほど、移動量が減少するようにする。そして、パターン領域と非パターン領域の境界も移動した輪郭線に合わせて変えることが考えられる。
また、設計データのみならず、工程情報によって属性の種類、属性の数に対応する色を決めることも考えられる。その場合は、設計データと工程情報を用いて推定真値画像を作成する。その際、トレンチ内にビアが存在するビアイントレンチなどの構造の属性の色は別途に管理することも考えられる。
また、ユーザが作成した真値画像データについて、輪郭線を太くしたり、細くしたりする機能を備えておき、ユーザの指示により、例えば、ユーザが引いた1画素の輪郭線を3画素に太くしたり、10画素の輪郭線を5画素に細くしたりすることが考えられる。
また、真値データ作成ではシミュレーションにより、設計データからSEM画像の輪郭線を推定して、それに基づいて真値付けすることも考えられる。
また、学習対象外の領域としてマスク領域をつけることも考えられる。また、識別対象となる領域が小さい場合は、学習の重みを変えることで識別性能が向上する。そのため、ユーザが作成した真値データのデータセット全体を解析して識別する属性の種類の領域に大きな差が存在する場合は、その差に応じて各属性の学習の重みを変更する。例えば、データセット全体で3種の属性の領域の比率が、100:100:1の場合は、各属性の学習の重みを1:1:100に変えることが考えられる。
ここでは、ユーザが作成した真値データのデータセット全体を解析するが、データセット全体の設計データを解析することで同様に各属性の領域の比率を求めて各属性の学習の重みを変更することが考えられる。また、ユーザが経験的に各属性の学習の重みを設定することも考えられる。
また、欠陥の識別器の生成では、画像内の欠陥領域をユーザが色分けして真値付けを行い、学習することで、画像内に含まれる欠陥の領域を検出する識別器を作成することも考えられる。その際、欠陥の領域又は正常の領域に色づけして真値付けしても良い。以上はRGBの24bit信号としてラベルを作成する例を示したが、ラベルについては識別器が認識できる情報であれば良いため、これに限定されるものではない。
画像毎の教示データが必要なケースとして、深層学習による画像分類が挙げられる。このタスクで、各画像に対して画像の種類を選択して、その種類を意味するラベルを教示データとして付与する。学習部302で画像から該当画像の種類を推定するモデルを学習する。例えば、欠陥画像を分類する識別器のモデルを学習する場合、画像毎に欠陥の種類の情報をタグ付けした教示データを作成する。この場合は、GUIの表示画面に学習データ選択部103で得た学習用画像座標リスト104に基づいた学習用画像を表示させて、目視で欠陥種を確認しながら欠陥種の教示データを作成する。
ここで、生成した識別器のモデルは単層と多層などで分けることが考えられる。その際、設計データを用いて識別器のモデルを選択することが考えられる。また、学習データセットを生成する際も、設計データを用いて単層と多層などで分けて学習データセットを生成しても良い。
また、同様に工程情報を用いて学習データセットを生成し、工程情報を用いて識別器のモデルを選択することが考えられる。
また、SEM画像の撮影倍率や撮影のフレーム積算数によっても識別器のモデルを分けることが考えられる。その際は、SEM撮影条件情報を用いて、学習データセットを生成し、モデルを選択することが考えられる。
作成した識別器のモデルの管理は、モデル名とそれに対応するモデルの種類を示すモデル管理表を作成する。モデルの種類としては、学習データセットに対応する設計データから取得した層数、工程情報から取得した工程、SEM撮影条件情報から取得した撮影倍率、フレーム積算数などが挙げられる。それ以外にもユーザが追加したい情報を入れられるようにしても良い。
画像データを識別する際、画像データの設計データ、工程情報、撮影条件情報とモデル管理表に基づいて、対応可能なモデルであるか確認して、対応できない異なる種類のモデルの場合は、ユーザにその旨の通知をして知らせる機能を備えても良い。
また、識別する画像データの設計データ、工程情報、SEM撮影条件情報とモデル管理表に基づいて、複数のモデルの中から最も適したモデルを探索して、識別を行うことも考えられる。
以上は、設計データ101とSEM撮影条件102から学習用画像座標リスト104を作成し、その座標に基づいて撮影し、得られた画像データについて真値付けを行い、学習用画像及び教示データを作成するものである。
しかし、撮影したSEM画像から学習用画像を選択したい場合もある。そのため、既に撮影している画像データから学習用画像を選択する画像生成部1の概要を図14に示す。
但し、この画像生成部1は既に撮影している画像データに対応した設計データ101とSEM撮影条件102が存在することを前提としている。入力は設計データ101とSEM撮影条件102であり、これらを入力として学習データ選択部103で学習データを選択し、それに対応する画像データを撮影済画像データ記憶部204から取り出し、学習用画像データ記憶部203に格納する。ここで用いる学習データ選択部103は上述の学習データ選択部103とほぼ同様の処理で実現できる。異なる点は、切り出す画像や分析するパターン形状、座標位置について、既に撮影した画像に対応した形状及び位置座標に限られる点である。例えば、図4のステップS10におけるFOV設計データ切り出し処理は、既に切り出された設計データ101があるため省略できる。以降は既に撮影した画像に対応した形状及び位置座標に限って行うことで実現できる。
最適な露光条件のズレなどのプロセス変動によって生成されるパターン形状は変化する。そのパターンを撮影したSEM画像からもパターンのホワイトバンドの幅やラフネスの大きさが変わるなどにより、ある程度は把握できると考える。
以上の通り本実施例によれば、学習データの真値作成作業の手間を省き、学習データの少量化を図ることで、学習時間の短期間化を可能とするパターン検査システムを提供することが可能となる。
また、本実施例によれば、モデル303(図22)の精度を維持しつつ学習時間の短縮化が可能となる。
図15は、本発明の他の実施例に係る画像生成部の概要を示す図である。本実施例では、設計データ101と撮影済画像データ記憶部204からの入力に基づき学習データ選択部103で学習データを選択する構成とした点が実施例1と異なる。実施例1と同様の構成要素に同一符号を付し、以下では重複する説明を省略する。
まず本実施例では、既に取得した画像データがある場合に、その画像データから実際に起きているプロセスばらつきの情報を用いて学習データを選択できることに着目した点に特徴を有する。図15に示すように、入力は設計データ101と撮影済画像データ記憶部204であり、これらを入力として学習データ選択部103で学習データを選択し、その画像データを学習用画像データ記憶部203に格納する。
図16は、図15に示す学習データ選択部103の処理フローを示すフローチャートである。ステップS20における形状バリエーション分析処理及びステップS30における形状バリエーション選択処理は、上述の実施例1における図4と同一であるため説明を省略する。続く、ステップS60では、学習データ選択部103が、プロセスばらつき分析処理を実行する。すなわち、ステップS30にて選択されたパターンに対応するSEM画像について、プロセス変動によるばらつきを分析する。
続いて、ステップS70では、学習データ選択部103が、プロセスばらつき学習データ選択処理を実行する。すなわち、ステップS60にて分析したプロセスばらつきの評価値に基づいて学習データを選択する。
図17は、図16のステップS60におけるプロセスばらつき分析の詳細フローを示すフローチャートである。ステップS601では、学習データ選択部103が、プロセスの変動により、パターン形状やパターン部位によってパターンの側壁の傾きが変化することが知られており、また、パターンの側壁が変化するとパターンのホワイトバンドの幅が変わると考えられえる。そこで、ホワイトバンド幅ばらつき検出処理を実行することでプロセス変動によるばらつきを評価する指標としてホワイトバンド幅のばらつきを検出する。
ホワイトバンド幅はSEM画像に対してガウシアンフィルタ処理などでノイズ除去を行い、ホワイトバンドが白になるように設定した閾値2値化で、白領域の幅のばらつきを求めることで検出できる。
続いてステップS602では、学習データ選択部103がパターン内外判定処理を実行する。すなわち、パターン(パターン内部)とパターン以外(パターン外部)を判定する。この場合、SEM画像と設計データに対してパターンマッチングで位置合わせを行って、パターンの内側と外側を検出することができる。また、パターンの内側と外側で濃淡が異なることを利用してSEM画像に対してガウシアンフィルタ処理などでノイズ除去を行い、2値化することでパターンの内側と外側を判別することで実現できる。
続いてステップS603では、学習データ選択部103がパターン内側輝度ばらつき検出処理を実行する。すなわち、パターン内側の領域の輝度値のばらつきを求める。
続いて、ステップS604では、学習データ選択部103がパターン外側輝度ばらつき検出処理を実行する。すなわち、パターン外側の領域の輝度値のばらつきを求める。
ここで、ホワイトバンド幅ばらつき検出処理(ステップS601)、パターン内側輝度ばらつき検出処理(ステップS603)、パターン外側輝度ばらつき検出処理(ステップS604)では、輝度値のばらつきを求めているが、輝度値のばらつきに代えて輝度値の最大値及び最小値を求めても良い。また、ラフネスのばらつきやパターンの内外のノイズのばらつき等を求める構成としても良い。
図18は、図16のステップS70におけるプロセスばらつき学習データ選択の詳細フローを示すフローチャートである。ステップS701では、学習データ選択部103が、形状バリエーション学習データ選択処理(ステップS30)で選択されたパターン形状の同形パターンの画像毎に、プロセスばらつき分析処理(ステップS60)で検出したホワイトバンド幅のばらつき、パターン内側の領域の輝度値のばらつき、パターン外側の領域の輝度値のばらつきの値を基にクラスタリングし、1個以上のクラスに分ける。なお、クラスラリングは上述のステップS301と同様に実現できる。続いて、ステップS702では、分けたクラスからそれぞれm個(m≧1)の画像データをランダムに選択する。そして、選択した画像データを学習用画像データ記憶部203に格納する。
ここでは、SEM画像について、プロセス変動によるばらつきを分析して画像を選択するが、SEM画像を撮影した撮影情報の撮影位置から、先に説明した位置バリエーション分析処理(ステップS40)を用いて、同様に設計データ上の位置、半導体デバイス上の位置、ウエハ上の位置を求めて、プロセス変動のばらつきが大きく見える画像を選択する。例えば、半導体デバイス上の中央と四隅付近に対応する撮影位置のパターンの画像を選択することや、ウエハ上の中央と四隅付近に対応する撮影位置のパターンの画像を選択する、レンズヒーティングを考慮してウエハ上で露光による熱が最も高くなる位置と最も低くなる位置に対応する撮影位置のパターンの画像を選択する、または、撮影位置のパターンの画像間の距離が最も離れるように選択すること等が考えられる。
また、設計データを用いて形状バリエーション学習データ選択処理(ステップS30)で選択されたパターン形状の同形パターンのSEM画像について、SEM画像の撮影情報を用いて、SEM画像撮影位置から先に説明した位置バリエーション分析処理(ステップS40)を用いて撮影位置のパターンのSEM画像を選択した後に、選択したSEM画像について、ホワイトバンド幅のばらつき、パターン内側の領域の輝度値のばらつき、パターン外側の領域の輝度値のばらつき等からプロセス変動によるばらつきを分析して、プロセス変動のばらつきが大きく見える画像を厳選する構成としても良い。
ここで、撮影済画像データ記憶部204(図15)の画像データは、予め撮影位置をランダムに決めて撮影した画像データでも良く、撮影位置を、均等に間隔を空けながらウエハを撮影した画像データでも良い。また、露光条件を変えて回路パターンを生成したFEM(Focus Exposure Matrix)ウエハを用いることも考えられる。
その際の撮影位置は異なる露光条件の画像が撮影できる撮影位置にして撮影することも考えられる。その際、撮影位置に対応する露光条件が判るので、プロセス変動の一つの要因である露光条件のばらつきを撮影位置に基づいて求めることができる。その際は、画像間で露光条件の差が大きくなるように画像を選択することが望ましい。
以上の通り本実施例によれば、実施例1の構成と比較し、設計データ101と撮影済画像データ記憶部204からの入力に基づき学習データ選択部103で学習データを選択する構成としていることから、より学習時間の短縮化を図ることができる。
上述の実施例1または実施例2における処理の一部、また全てを汎用CPUで動作する処理プログラムで作成しても良い。また、上述の処理の一部、また全てを専用のLSIやFPGAにすることも考えられる。上述の設計データ101は設計者が作った回路パターンの設計図でも良く、SEM画像から計算したパターン形状でも良く、シミュレーションで作成したパターン形状を用いても良い。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。
例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
1…画像生成部
20…画像撮影部
30…モデル生成部
40…モデル評価部
101…設計データ
102…SEM撮影条件
103…学習データ選択部
104…学習用画像座標リスト
201…レシピ作成部
202…撮影部
203…学習用画像データ記憶部
204…撮影済画像データ記憶部
301…教示データ作成部
302…学習部
303…モデル
401…評価用画像データ記憶部
402…評価結果
2501…電子源
2502…引出電極
2503…電子ビーム
2504…コンデンサレンズ
2505…走査偏向器
2506…対物レンズ
2507…チャンバ
2508…試料台
2509…試料
2510…電子
2511…二次電子
2512…変換電極
2513…検出器
2514…制御装置

Claims (10)

  1. 電子デバイスの検査対象パターンの画像と、前記検査対象パターンを製造するために使用するデータに基づき、機械学習により構成された識別器を用いて前記検査対象パターンの画像を検査するパターン検査システムであって、
    前記電子デバイスの撮影に関する情報と前記電子デバイスのパターンを製造するために使用するパターンデータに基づき、機械学習に用いる学習用パターンを生成するために前記撮影の撮影位置の座標を選択するデータ選択部、を備えることを特徴とするパターン検査システム。
  2. 請求項1に記載のパターン検査システムにおいて、
    前記データ選択部は、前記パターンデータを用いてパターンの形状を分析、及び/又は、半導体デバイス上のパターンの位置を分析することを特徴とするパターン検査システム。
  3. 請求項2に記載のパターン検査システムにおいて、
    前記データ選択部は、前記パターンの形状を分析により検出された同じ形状を有する複数のパターンと前記電子デバイスの撮影に関する情報を用いて、同じパターンの形状が存在する前記パターンデータ上の位置を検出し、その検出した数と半導体チップ上の座標位置とウエハ上の座標位置とその検出した位置の間の距離情報のうち少なくとも1つを用いて統計処理を行うことを特徴とするパターン検査システム。
  4. 請求項3に記載のパターン検査システムにおいて、
    前記データ選択部は、さらに前記電子デバイスの撮影によるパターン画像に対応するパターンデータから得られたパターンのエッジ情報に基づき、縦エッジ及び横エッジの画素数の統計処理を行い、同じ形状を導出することを特徴とするパターン検査システム。
  5. 請求項1に記載のパターン検査システムにおいて、
    前記データ選択部は、前記パターンデータを前記電子デバイスの撮影に関する情報の撮像視野に対応する小領域に分割し、分割された各領域についてパターンの形状を分析し、分析されたパターンの形状と同じ形状となるパターンに基づき、電子デバイス上のパターンの位置を分析して撮影位置を特定することを特徴とするパターン検査システム。
  6. 請求項1に記載のパターン検査システムおいて、
    前記データ選択部により選択された前記座標に基づき、撮影部のレシピを生成するレシピ作成部を備えることを特徴とするパターン検査システム。
  7. 請求項6項に記載のパターン検査システムにおいて、
    前記レシピに基づいて撮影された学習用パターン画像とそれに対応する真値データに基づき機械学習を行い、前記識別器を生成する識別器生成部を有することを特徴とするパターン検査システム。
  8. 請求項7に記載のパターン検査システムにおいて、
    前記検査対象パターンの画像から前記識別器により、少なくともパターンの輪郭形状及びパターン領域並びに非パターン領域のうち1つを抽出する領域抽出部を有することを特徴とするパターン検査システム。
  9. 請求項7に記載のパターン検査システムにおいて、
    前記識別器は、前記検査対象パターンの画像に基づき欠陥を抽出することを特徴とするパターン検査システム。
  10. 請求項7に記載のパターン検査システムにおいて、
    前記識別器による識別データと前記電子デバイスのパターンを製造するために使用するパターンデータを比較して検査することを特徴とするパターン検査システム。
JP2022146655A 2018-08-31 2022-09-15 パターン検査システム Active JP7399235B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022146655A JP7399235B2 (ja) 2018-08-31 2022-09-15 パターン検査システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018162607A JP7144244B2 (ja) 2018-08-31 2018-08-31 パターン検査システム
JP2022146655A JP7399235B2 (ja) 2018-08-31 2022-09-15 パターン検査システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018162607A Division JP7144244B2 (ja) 2018-08-31 2018-08-31 パターン検査システム

Publications (2)

Publication Number Publication Date
JP2022172401A true JP2022172401A (ja) 2022-11-15
JP7399235B2 JP7399235B2 (ja) 2023-12-15

Family

ID=69641727

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018162607A Active JP7144244B2 (ja) 2018-08-31 2018-08-31 パターン検査システム
JP2022146655A Active JP7399235B2 (ja) 2018-08-31 2022-09-15 パターン検査システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018162607A Active JP7144244B2 (ja) 2018-08-31 2018-08-31 パターン検査システム

Country Status (4)

Country Link
US (2) US11132788B2 (ja)
JP (2) JP7144244B2 (ja)
KR (1) KR102218364B1 (ja)
TW (2) TWI731396B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7144244B2 (ja) * 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム
US10796068B2 (en) * 2018-09-11 2020-10-06 Samsung Electronics Co., Ltd. Standard cell design system, standard cell design optimization method thereof, and semiconductor design system
KR102592918B1 (ko) * 2018-09-13 2023-10-23 삼성전자주식회사 웨이퍼 품질 검사 방법 및 장치와 그 방법을 포함한 반도체 소자 제조방법
CN112889087A (zh) * 2018-10-15 2021-06-01 3M创新有限公司 对制膜中任意形状的片材部件的自动检查
JP7298016B2 (ja) * 2020-03-30 2023-06-26 株式会社日立ハイテク 診断システム
WO2021209867A1 (ja) * 2020-04-17 2021-10-21 株式会社半導体エネルギー研究所 分類装置、画像分類方法、およびパターン検査装置
EP3901902A1 (en) * 2020-04-20 2021-10-27 FEI Company Method implemented by a data processing apparatus, and charged particle beam device for inspecting a specimen using such a method
CN111626190B (zh) * 2020-05-26 2023-07-07 浙江大学 基于聚类分区进行刻度识别的水位监测方法
KR20230004819A (ko) 2020-06-16 2023-01-06 주식회사 히타치하이테크 화상 처리 방법, 형상 검사 방법, 화상 처리 시스템 및 형상 검사 시스템
JP7294275B2 (ja) * 2020-08-25 2023-06-20 トヨタ自動車株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
US20230325413A1 (en) 2020-09-17 2023-10-12 Hitachi High-Tech Corporation Error Factor Estimation Device and Error Factor Estimation Method
KR20220051868A (ko) * 2020-10-19 2022-04-27 삼성전자주식회사 반도체 장치의 제조를 위한 방법 및 컴퓨팅 장치
US11373343B2 (en) * 2020-11-06 2022-06-28 Salesforce, Inc. Systems and methods of generating color palettes with a generative adversarial network
JP7470016B2 (ja) 2020-11-10 2024-04-17 株式会社日立製作所 機械学習を用いた物体検出用識別モデル生成装置およびプログラム
JP7356962B2 (ja) 2020-12-15 2023-10-05 株式会社神戸製鋼所 機械学習装置および該方法ならびに膜厚測定装置および該方法
CN112613380B (zh) * 2020-12-17 2024-03-15 网联清算有限公司 一种机房巡检方法、装置及电子设备、存储介质
KR20220095472A (ko) * 2020-12-30 2022-07-07 삼성전자주식회사 패턴 분석 시스템 및 상기 시스템을 이용한 반도체 장치 제조 방법
US20230377185A1 (en) * 2021-02-10 2023-11-23 Hitachi High-Tech Corporation Contour analysis apparatus, processing condition determination system, shape estimation system, semiconductor device manufacturing system, search apparatus, and data structure used in them
KR102378659B1 (ko) * 2021-02-23 2022-03-25 주식회사 포스로직 패턴 이미지 검출 방법 및 패턴 이미지 검출 장치
KR20230016112A (ko) 2021-07-23 2023-02-01 삼성전자주식회사 반도체 장치의 제조를 위한 전자 장치 및 전자 장치의 동작 방법
JP7036477B1 (ja) * 2021-10-18 2022-03-15 株式会社Anamorphosis Networks 欠陥検出方法、欠陥検出システム、及び、欠陥検出プログラム
CN116664988B (zh) * 2023-07-24 2023-11-21 广立微(上海)技术有限公司 图片自动标注方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003212A (ja) * 2005-06-21 2007-01-11 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP2016058465A (ja) * 2014-09-08 2016-04-21 株式会社日立ハイテクノロジーズ 欠陥定量化方法、欠陥定量化装置、および欠陥評価値表示装置
JP2016173615A (ja) * 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ 計測装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7570796B2 (en) * 2005-11-18 2009-08-04 Kla-Tencor Technologies Corp. Methods and systems for utilizing design data in combination with inspection data
US20070106416A1 (en) * 2006-06-05 2007-05-10 Griffiths Joseph J Method and system for adaptively controlling a laser-based material processing process and method and system for qualifying same
JP5075111B2 (ja) 2008-12-29 2012-11-14 株式会社日立ハイテクノロジーズ 画像分類基準更新方法、プログラムおよび画像分類装置
US9430824B2 (en) * 2013-05-14 2016-08-30 Kla-Tencor Corporation Machine learning method and apparatus for inspecting reticles
JP2015041164A (ja) * 2013-08-20 2015-03-02 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9836839B2 (en) * 2015-05-28 2017-12-05 Tokitae Llc Image analysis systems and related methods
US20180174000A1 (en) * 2015-06-04 2018-06-21 Hitachi High-Technologies Corporation Defect image classification device and defect image classification method
KR102347057B1 (ko) 2015-08-12 2022-01-03 케이엘에이 코포레이션 전자 빔 이미지에서의 결함 위치 결정
US10282509B2 (en) * 2016-10-28 2019-05-07 Toshiba Memory Corporation Non-transitory computer readable storage medium, mask evaluation method and inspection apparatus
US10395362B2 (en) * 2017-04-07 2019-08-27 Kla-Tencor Corp. Contour based defect detection
WO2019059011A1 (ja) * 2017-09-19 2019-03-28 富士フイルム株式会社 教師データ作成方法及び装置並びに欠陥検査方法及び装置
JP7002949B2 (ja) * 2018-01-22 2022-01-20 株式会社日立ハイテク 画像評価方法及び画像評価装置
US10697900B2 (en) * 2018-06-19 2020-06-30 Kla-Tencor Corporation Correlating SEM and optical images for wafer noise nuisance identification
JP7144244B2 (ja) * 2018-08-31 2022-09-29 株式会社日立ハイテク パターン検査システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007003212A (ja) * 2005-06-21 2007-01-11 Hitachi High-Technologies Corp 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
JP2016173615A (ja) * 2013-06-24 2016-09-29 株式会社日立ハイテクノロジーズ 計測装置
JP2016058465A (ja) * 2014-09-08 2016-04-21 株式会社日立ハイテクノロジーズ 欠陥定量化方法、欠陥定量化装置、および欠陥評価値表示装置

Also Published As

Publication number Publication date
US20200074611A1 (en) 2020-03-05
TWI731396B (zh) 2021-06-21
TW202011017A (zh) 2020-03-16
KR20200026110A (ko) 2020-03-10
JP7399235B2 (ja) 2023-12-15
US11132788B2 (en) 2021-09-28
TWI801912B (zh) 2023-05-11
KR102218364B1 (ko) 2021-02-22
TW202136760A (zh) 2021-10-01
US20210383524A1 (en) 2021-12-09
JP7144244B2 (ja) 2022-09-29
US11587225B2 (en) 2023-02-21
JP2020035282A (ja) 2020-03-05

Similar Documents

Publication Publication Date Title
JP7144244B2 (ja) パターン検査システム
US10937146B2 (en) Image evaluation method and image evaluation device
US9401015B2 (en) Defect classification method, and defect classification system
US8045789B2 (en) Method and apparatus for inspecting defect of pattern formed on semiconductor device
JP5604067B2 (ja) マッチング用テンプレートの作成方法、及びテンプレート作成装置
JP6078234B2 (ja) 荷電粒子線装置
JP6043735B2 (ja) 画像評価装置及びパターン形状評価装置
JP2009206453A (ja) 製造プロセスモニタリングシステム
TWI722599B (zh) 圖像評價裝置及方法
WO2011080873A1 (ja) パターン計測条件設定装置
JP7427744B2 (ja) 画像処理プログラム、画像処理装置、画像処理方法および欠陥検出システム
TWI567789B (zh) A pattern measuring condition setting means, and a pattern measuring means
WO2023112302A1 (ja) 教師データ作成支援装置、教師データ作成支援方法
TW202418220A (zh) 圖像處理程式、圖像處理裝置、圖像處理方法及缺陷檢測系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231205

R150 Certificate of patent or registration of utility model

Ref document number: 7399235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150