JP7483061B2 - プロファイル検出方法、プロファイル検出プログラム及び情報処理装置 - Google Patents

プロファイル検出方法、プロファイル検出プログラム及び情報処理装置 Download PDF

Info

Publication number
JP7483061B2
JP7483061B2 JP2022577002A JP2022577002A JP7483061B2 JP 7483061 B2 JP7483061 B2 JP 7483061B2 JP 2022577002 A JP2022577002 A JP 2022577002A JP 2022577002 A JP2022577002 A JP 2022577002A JP 7483061 B2 JP7483061 B2 JP 7483061B2
Authority
JP
Japan
Prior art keywords
image
recess
contour
region
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022577002A
Other languages
English (en)
Other versions
JPWO2022158107A1 (ja
Inventor
俊博 北尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Ltd
Original Assignee
Tokyo Electron Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Ltd filed Critical Tokyo Electron Ltd
Publication of JPWO2022158107A1 publication Critical patent/JPWO2022158107A1/ja
Application granted granted Critical
Publication of JP7483061B2 publication Critical patent/JP7483061B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B15/00Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons
    • G01B15/04Measuring arrangements characterised by the use of electromagnetic waves or particle radiation, e.g. by the use of microwaves, X-rays, gamma rays or electrons for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/64Analysis of geometric attributes of convexity or concavity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2210/00Aspects not specifically covered by any group under G01B, e.g. of wheel alignment, caliper-like sensors
    • G01B2210/56Measuring geometric parameters of semiconductor structures, e.g. profile, critical dimensions or trench depth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Description

本開示は、プロファイル検出方法、プロファイル検出プログラム及び情報処理装置に関する。
特許文献1は、半導体を測定または検査するため、半導体デバイス上の所望の位置に存在する回路パターンを走査型電子顕微鏡(Scanning Electron Microscope:SEM)によって撮像する技術を開示する。
特開2014-139537号公報
本開示は、寸法の計測を効率化する技術を提供する。
本開示の一態様によるプロファイル検出方法は、領域検出工程と、境界検出工程と、輪郭検出工程とを有する。領域検出工程では、一方方向に窪んだ凹部が一方方向に対する交差方向に複数並んだ画像のデータを解析して画像の各凹部の領域を検出する。境界検出工程では、データを解析して画像に含まれる膜の境界を検出する。輪郭検出工程では、データを解析して画像の凹部の領域ごとに、凹部の輪郭を検出する。
本開示によれば、寸法の計測を効率化することができる。
図1は、実施形態に係る情報処理装置の機能的な構成の一例を示す図である。 図2は、実施形態に係る画像データの画像の一例を示す図である。 図3Aは、実施形態に係る画像の各凹部の領域を検出する手法の一例を説明する図である。 図3Bは、実施形態に係る画像の各凹部の領域を検出する手法の一例を説明する図である。 図3Cは、実施形態に係る画像の各凹部の領域を検出する手法の一例を説明する図である。 図4Aは、実施形態に係る膜の境界を検出する手法の一例を説明する図である。 図4Bは、実施形態に係る膜の境界を検出する手法の一例を説明する図である。 図4Cは、実施形態に係る膜の境界を検出する手法の一例を説明する図である。 図5は、実施形態に係る膜の境界を検出する手法の一例を説明する図である。 図6は、実施形態に係るプロファイル検出プログラムの処理の流れの一例を示すフローチャートである。
以下、図面を参照して本願の開示するプロファイル検出方法、プロファイル検出プログラム及び情報処理装置の実施形態について詳細に説明する。なお、本実施形態により、開示するプロファイル検出方法、プロファイル検出プログラム及び情報処理装置が限定されるものではない。
従来から、プロセスエンジニアにより、半導体の製造プロセスのレシピの最適化の支援が行われている。例えば、トレンチやホールなどの凹部が形成された半導体デバイスの断面を走査型電子顕微鏡によって撮像し、撮像した画像の凹部のCD(Critical Dimension)などの寸法を計測することで、レシピの適否を判定する。プロセスエンジニアは、撮像した画像の凹部の範囲の指定や、寸法を計測する輪郭の位置の指定を手動操作で行っており、寸法の計測作業が人依存となっている。この結果、寸法の計測に時間がかかる。また、寸法を計測する輪郭の位置の指定など、計測作業が人依存であるため、計測された寸法に人依存の誤差が発生する場合がある。また、多数の凹部の寸法を計測しようとした場合、手間がかかる。
そこで、寸法の計測を効率化する技術が期待されている。
[実施形態]
実施形態について説明する。以下では、撮像した画像の凹部の寸法を情報処理装置10により計測する場合を例に説明する。図1は、実施形態に係る情報処理装置10の機能的な構成の一例を示す図である。情報処理装置10は、撮像した画像の凹部の寸法の計測する機能を提供する装置である。情報処理装置10は、例えば、サーバコンピュータ、パーソナルコンピュータなどのコンピュータである。プロセスエンジニアは、情報処理装置10を用いて、撮像した画像の凹部の寸法を計測する。
情報処理装置10は、通信I/F(インタフェース)部20と、表示部21と、入力部22と、記憶部23と、制御部24とを有する。なお、情報処理装置10は、上記の機器以外にコンピュータが有する他の機器を有してもよい。
通信I/F部20は、他の装置との間で通信制御を行うインタフェースである。通信I/F部20は、不図示のネットワークに接続され、ネットワークを介して他の装置と各種情報を送受信する。例えば、通信I/F部20は、走査型電子顕微鏡により撮像されたデジタル画像のデータを受信する。
表示部21は、各種情報を表示する表示デバイスである。表示部21としては、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)などの表示デバイスが挙げられる。表示部21は、各種情報を表示する。
入力部22は、各種の情報を入力する入力デバイスである。例えば、入力部22としては、マウスやキーボードなどの入力デバイスが挙げられる。入力部22は、プロセスエンジニアなどのユーザからの操作入力を受付け、受付けた操作内容を示す操作情報を制御部24に入力する。
記憶部23は、ハードディスク、SSD(Solid State Drive)、光ディスクなどの記憶装置である。なお、記憶部23は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)などのデータを書き換え可能な半導体メモリであってもよい。
記憶部23は、制御部24で実行されるOS(Operating System)や、後述するプロファイル検出プログラムを含む各種プログラムを記憶する。さらに、記憶部23は、制御部24で実行されるプログラムで用いられる各種データを記憶する。例えば、記憶部23は、画像データ23aを記憶する。
画像データ23aは、半導体デバイスの断面を走査型電子顕微鏡によって撮像した画像のデータである。半導体デバイスは、例えば、半導体ウエハなどの基板上に形成されている。半導体デバイスが形成された基板の断面を走査型電子顕微鏡によって撮像することよって、画像データ23aを取得する。
制御部24は、情報処理装置10を制御するデバイスである。制御部24としては、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路を採用できる。制御部24は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、これらによって種々の処理を実行する。
制御部24は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部24は、操作受付部24aと、領域検出部24bと、境界検出部24cと、輪郭検出部24dと、計測部24eとを有する。
操作受付部24aは、各種の操作を受け付ける。例えば、操作受付部24aは、操作画面を表示部21に表示し、入力部22から操作画面に対する各種の操作を受け付ける。例えば、操作受付部24aは、操作画面から、プロファイルの検出対象とする画像データ23aの指定を受け付ける。操作受付部24aは、指定された画像の画像データ23aを記憶部23から読み出し、読み出した画像データ23aの画像を表示部21に表示する。また、操作受付部24aは、操作画面から、プロファイルの検出開始の指示を受け付ける。
図2は、実施形態に係る画像データ23aの画像の一例を示す図である。図2は、トレンチやホールが形成された半導体デバイスの断面を走査型電子顕微鏡によって撮像した画像である。画像の横方向をx方向とし、画像の縦方向をy方向とする。図2に示す画像には、y方向に窪んだ凹部50がx方向に複数並んで形成されている。凹部50は、例えば、半導体デバイスに形成されたトレンチやホールの断面である。
例えば、プロセスエンジニアは、レシピの適否を判定する場合、操作画面から、適否を判定する対象のレシピの基板処理が実施された半導体デバイスの断面の画像データ23aを指定する。そして、プロセスエンジニアは、操作画面から、プロファイルの検出開始を指示する。
領域検出部24bは、プロファイルの検出開始を指示されると、指定された画像データ23aを解析して画像の各凹部50の領域を検出する。
例えば、領域検出部24bは、画像のx方向に周波数解析を行って画像のy方向に対する複数の凹部50を含んだ範囲を特定する。例えば、領域検出部24bは、画像のy方向の各位置でx方向に画像の周波数解析を行い、複数の凹部50に対応する周波数が得られる範囲を、画像のy方向に対する複数の凹部50を含んだ範囲と特定する。
図3A~図3Cは、実施形態に係る画像の各凹部50の領域を検出する手法の一例を説明する図である。図3Aには、y方向に窪んだ凹部50がx方向に複数並んで形成された画像が示されている。領域検出部24bは、画像のy方向の各位置で、画像のx方向の各画素の輝度を並べた輝度プロファイルを求める。そして、領域検出部24bは、画像のy方向の各位置の輝度プロファイルにFFT(Fast Fourier Transform)を行い、y方向の各位置でのパワースペクトルを求める。図3Aには、y方向の位置y、y2、でのx方向の輝度プロファイルS、S2、と、位置y、y2、でのパワースペクトルPS、PS2、PSが示されている。領域検出部24bは、y方向の各位置のパワースペクトルを、画像に含まれる複数の凹部50に対応する周波数の範囲で積分する。複数の凹部50に対応する周波数の範囲は、入力部22から入力させてもよく、画像に含まれる凹部50の数を解析により求めて特定してもよく、画像の半導体デバイスの設計情報から特定してもよい。例えば、領域検出部24bは、半導体デバイスの設計情報から、画像に含まれると想定される凹部50の数の最小値と最大値を求め、最小値と最大値に対応する周波数の範囲を、複数の凹部50に対応する周波数の範囲と特定する。領域検出部24bは、y方向の各位置のパワースペクトルを、複数の凹部50に対応する周波数の範囲について積分し、y方向の各位置のパワースペクトルの積分値をy方向の位置の順に並べて積分値のプロファイルを求める。図3Aには、パワースペクトルPS、PS2、PSについて、複数の凹部50に対応する周波数の範囲が矩形FRで示されている。また、図3Aには、y方向の各位置の矩形FRの範囲のパワースペクトルの積分値をy方向の位置の順に並べた積分値のプロファイルISが示されている。
領域検出部24bは、積分値のプロファイルISの最大値を検出する。領域検出部24bは、検出した最大値を含むピークの裾の範囲を、画像のy方向に対する複数の凹部50を含んだ範囲と特定する。例えば、領域検出部24bは、積分値のプロファイルISのベースラインを求め、ピークがベースラインになる範囲を、画像のy方向に対する複数の凹部50を含んだ範囲と特定する。あるいは、領域検出部24bは、最大値を含むピークから積分値の変化が所定値以上である範囲を、画像のy方向に対する複数の凹部50を含んだ範囲と特定する。図3Aには、積分値のプロファイルISについて、最大値を含むピークの裾の範囲がY Rangeとして示されている。領域検出部24bは、Y Rangeの範囲を、画像のy方向に対する複数の凹部50を含んだ範囲と特定する。
領域検出部24bは、画像の特定した範囲から各凹部50の領域を検出する。例えば、領域検出部24bは、画像の特定した範囲から、画像のx方向の位置ごとにy方向の各画素の輝度の平均値を算出する。領域検出部24bは、算出したx方向の各位置の平均値に基づいて、画像の特定した範囲から各凹部50の領域を検出する。
図3Bには、y方向に窪んだ凹部50がx方向に複数並んで形成された画像が示されている。また、図3Bには、画像のy方向のY Rangeの範囲が矩形S1で示されている。矩形S1で示した範囲には、複数の凹部50が含まれている。例えば、領域検出部24bは、画像の特定したy方向のY Rangeの範囲を抽出し、抽出したY Rangeの範囲の画像から、画像のx方向の位置ごとにy方向の各画素の輝度の平均値を算出する。領域検出部24bは、x方向の各位置の平均値をx方向の位置の順に並べて平均値のプロファイルを求める。図3Bには、x方向の各位置の平均値をx方向の位置の順に並べた平均値のプロファイルAPが示されている。
領域検出部24bは、x方向の平均値のプロファイルAPの各値を2値化する。例えば、領域検出部24bは、x方向の平均値のプロファイルの平均値を求め、求めた平均値を閾値としてプロファイルの各値を2値化する。例えば、領域検出部24bは、平均値のプロファイルの値が閾値以上の場合、第1の値とし、平均値のプロファイルの値が閾値よりも小さい場合、第2の値とし、プロファイルの各値を2値化する。図3Bには、プロファイルAPの各値が、閾値(平均値)以上の場合、「1」とし、閾値よりも小さい場合、「0」として、2値化したプロファイルBPが示されている。領域検出部24bは、2値化したプロファイルにおいて第1の値が連続する連続部分ごとに、連続部分の中心の位置をx方向の凹部50のパターン境界と検出する。例えば、領域検出部24bは、2値化したプロファイルBPにおいて「1」が連続する連続部分ごとに、連続部分の中心の位置をx方向の凹部50のパターン境界と検出する。図3Bには、2値化したプロファイルBPにおいて「1」が連続する連続部分ごとに、中心の位置に「〇」が示されている。領域検出部24bは、Y Rangeの範囲の画像について、検出したパターン境界の間の領域をそれぞれ凹部50の領域と検出する。例えば、図3Cに示したY Rangeの範囲の画像を、「〇」に示した位置をパターン境界として、凹部50の領域と検出する。図3Cには、Y Rangeの範囲の画像から検出された各凹部50の領域がそれぞれ矩形S2で示されている。
境界検出部24cは、指定された画像データ23aを解析して画像に含まれる膜の境界を検出する。
例えば、境界検出部24cは、領域検出部24bにより検出された凹部50の領域ごとに、凹部50を構成する側壁部分のy向に対する輝度の変化に基づいて、膜の境界を検出する。例えば、境界検出部24cは、領域検出部24bにより検出された凹部50の領域ごとに、凹部50を構成する側壁部分のy方向に対する輝度の変化を求める。境界検出部24cは、輝度の変化の大きい部分を膜の境界と検出する。
図4A~図4Cは、実施形態に係る膜の境界を検出する手法の一例を説明する図である。図4Aには、y方向に窪んだ凹部50がx方向に複数並んで形成された画像が示されている。また、図4Aには、各凹部50の領域がそれぞれ矩形S2で示されている。例えば、境界検出部24cは、画像から、複数の凹部50を含んだy方向のY Rangeの範囲の画像を切り出す。境界検出部24cは、切り出したY Rangeの範囲の画像から、凹部50のパターン境界の位置の近傍の領域の画像をそれぞれ切り出す。境界検出部24cは、切り出したパターン境界の位置の近傍の領域の画像について、それぞれy方向の画素の輝度の変化を求め、y方向の輝度の変化がそれぞれピークなる位置を膜の界面位置と検出する。例えば、境界検出部24cは、切り出したパターン境界の位置の近傍の領域の画像に対して、y方向の微分フィルタを適用し、微分画像を算出する。微分フィルタとしては、例えば、ソーベルフィルタが挙げられる。図4Bには、画像の凹部50のパターン境界の位置の近傍の領域のy方向の輝度の変化を求めた微分画像の一例が示されている。微分画像は、輝度の変化の大きい部分が白く示されている。境界検出部24cは、各凹部50について、輝度の変化の大きい部分のy方向の位置を求め、y方向の平均の位置を膜の境界と検出する。図4Cには、凹部50の側壁を構成する膜がそれぞれパターンを変えて図示されており、検出されたy方向の膜の境界が線L1、L2で示されている。画像の凹部50の上側の膜は、例えば、マスクである。境界検出部24cは、膜の境界を検出できている。このように膜の境界を検出することで、画像の回転ずれの自動調整に利用できる。例えば、境界検出部24cは、膜の境界の線L2を利用して、線L2が水平となるように画像の回転補正を行ってもよい。これにより、画像の回転ずれを補正でき、画像から膜の位置関係や膜厚などを把握ししやすきすることができる。
輪郭検出部24dは、指定された画像データ23aを解析して画像の凹部50の領域ごとに凹部50の輪郭を検出する。例えば、輪郭検出部24dは、領域検出部24bにより検出された凹部50の領域ごとに、x向に対する輝度の変化に基づいて、凹部50の輪郭を検出する。
図5は、実施形態に係る膜の境界を検出する手法の一例を説明する図である。例えば、輪郭検出部24dは、画像から、複数の凹部50を含んだy方向のY Rangeの範囲の画像を切り出す。輪郭検出部24dは、切り出したY Rangeの範囲の画像から、画像のy方向の位置ごとにx方向の各画素の輝度のプロファイルを求める。輪郭検出部24dは、y方向の位置ごとの輝度のプロファイルに対し、2次微分フィルタなどの変化点検出アルゴリズムを適用し、左側エッジLEの位置と右側エッジREの位置を特定することで、各凹部50の左右の輪郭のエッジプロファイルを特定する。例えば、輪郭検出部24dは、y方向の位置ごとの輝度のプロファイルに2次微分フィルタを適用して輝度の変化の大きい部分を特定する。輪郭検出部24dは、凹部50の領域ごとに、凹部50の領域内で左側の輝度の変化の大きい部分を左側エッジLEの位置と特定し、右側の輝度の変化の大きい部分を右側エッジREの位置と特定することで、左右の輪郭のエッジプロファイルを検出する。輪郭検出部24dは、凹部50の領域ごとに、検出した左右の輪郭のy方向の最も上の位置をプロファイル上端、最も下の位置をプロファイル下端と特定する。輪郭検出部24dは、凹部50の領域ごとに、左右の輪郭のエッジプロファイルを上端、下端でトリミングすることで、最終的な凹部50の輪郭のエッジプロファイルを得ることができる。
実施形態に係る情報処理装置10は、このように画像の凹部50の範囲や、凹部50の輪郭を自動で検出できることにより、寸法の計測を効率化することができる。
計測部24eは、寸法を計測する。例えば、操作受付部24aは、輪郭検出部24dにより、凹部50の輪郭を検出した画像を表示部21に表示し、入力部22から寸法を計測する凹部50の輪郭の位置の指定を受け付ける。計測部24eは、指定された輪郭の位置で凹部50のCDを計測する。
なお、計測部24eは、位置の指定を受けることなく、所定の輪郭の位置で凹部50のCDなどの寸法を計測してもよい。寸法を計測する位置は、事前に設定されていてもよく、境界検出部24cや輪郭検出部24dの検出結果に基づいて、設定されてもよい。例えば、計測部24eは、境界検出部24cにより検出された膜の境界の高さの位置で、輪郭検出部24dにより検出された各凹部50の輪郭から膜の境界でのCDなどの寸法を計測してもよい。また、計測部24eは、輪郭検出部24dにより検出された各凹部50の輪郭のエッジプロファイルからy方向の各位置でのCDなどの寸法を計測してもよい。
計測部24eは、計測位置と共に計測された寸法を表示部21に表示してもよく、計測位置と共に計測された寸法のデータを記憶部23に格納してもよく、通信I/F部20を介して他の装置へ送信してもよい。
実施形態に係る情報処理装置10は、このように画像の凹部50の寸法を計測できることにより、寸法の計測を効率化することができる。この結果、寸法の計測にかかる時間を短縮できる。また、情報処理装置10は、寸法を計測する位置となる輪郭を検出できるため、計測される寸法に発生する人依存の誤差を低減できる。また、情報処理装置10は、多数の凹部50の寸法の計測を効率よく実施できる。例えば、画像に含まれる各凹部50の寸法の計測を自動で計測することで、データ分析に用いる多くの測長値を収集できる。また、画像に含まれる各凹部50の寸法の計測を自動で計測し、計測された各凹部50の寸法を解析することで、異常な凹部50を検出できる。
[処理フロー]
次に、実施形態に係るプロファイル検出方法の流れを説明する。実施形態に係る情報処理装置10は、プロファイル検出プログラムを実行することにより、プロファイル検出方法を実施する。図6は、実施形態に係るプロファイル検出プログラムの処理の流れの一例を示すフローチャートである。
操作受付部24aは、操作画面から、プロファイルの検出対象とする画像データ23aの指定を受け付ける(ステップS10)。操作受付部24aは、操作画面からプロファイルの検出開始の指示を受け付ける(ステップS11)。
領域検出部24bは、指定された画像データ23aを解析して画像の各凹部50の領域を検出する(ステップS12)。例えば、領域検出部24bは、画像のx方向に周波数解析を行って画像のy方向に対する複数の凹部50を含んだ範囲を特定する。そして、領域検出部24bは、画像の特定した範囲から各凹部50の領域を検出する。
境界検出部24cは、指定された画像データ23aを解析して画像に含まれる膜の境界を検出する(ステップS13)。例えば、境界検出部24cは、領域検出部24bにより検出された凹部50の領域ごとに、凹部50を構成する側壁部分のy向に対する輝度の変化に基づいて、膜の境界を検出する。
輪郭検出部24dは、指定された画像データ23aを解析して画像の凹部50の領域ごとに凹部50の輪郭を検出する(ステップS14)。例えば、輪郭検出部24dは、領域検出部24bにより検出された凹部50の領域ごとに、x向に対する輝度の変化に基づいて、凹部50の輪郭を検出する。
計測部24eは、寸法を計測し(ステップS15)、処理を終了する。例えば、操作受付部24aは、輪郭検出部24dにより、凹部50の輪郭を検出した画像を表示部21に表示し、入力部22から寸法を計測する凹部50の輪郭の位置の指定を受け付ける。計測部24eは、指定された輪郭の位置で凹部50のCDを計測する。
以上のように、実施形態に係るプロファイル検出方法は、領域検出工程(ステップS12)と、境界検出工程(ステップS13)と、輪郭検出工程(ステップS14)とを有する。領域検出工程では、一方方向(y方向)に窪んだ凹部50が一方方向に対する交差方向(x方向)に複数並んだ画像のデータ(画像データ23a)を解析して画像の各凹部50の領域を検出する。境界検出工程では、データを解析して画像に含まれる膜の境界を検出する。輪郭検出工程では、データを解析して画像の凹部50の領域ごとに、凹部50の輪郭を検出する。これにより、実施形態に係るプロファイル検出方法は、寸法の計測を効率化することができる。例えば、実施形態に係るプロファイル検出方法は、寸法の計測にかかる時間を短縮できる。また、実施形態に係るプロファイル検出方法は、計測される寸法に発生する人依存の誤差を低減できる。また、実施形態に係るプロファイル検出方法は、多数の凹部50の寸法の計測を効率よく実施できる。
また、領域検出工程では、画像の交差方向に周波数解析を行って画像の一方方向に対する複数の凹部50を含んだ範囲を特定し、画像の特定した範囲から各凹部50の領域を検出する。また、領域検出工程では、画像の一方方向の各位置で交差方向に画像の周波数解析を行い、複数の凹部50に対応する周波数が得られる範囲を、画像の一方方向に対する複数の凹部50を含んだ範囲と特定する。これにより、実施形態に係るプロファイル検出方法は、画像の一方方向に対して複数の凹部50を含んだ範囲を精度良く特定でき、画像の特定した範囲から各凹部50の領域を検出できる。
また、領域検出工程は、画像の特定した範囲から、画像の交差方向の位置ごとに一方方向の各画素の輝度の平均値を算出し、算出した交差方向の各位置の平均値に基づいて、画像の特定した範囲から各凹部50の領域を検出する。これにより、実施形態に係るプロファイル検出方法は、画像の特定した範囲から各凹部50の領域を精度良く検出できる。
また、境界検出工程は、領域検出工程により検出された凹部50の領域ごとに、凹部50を構成する側壁部分の一方方向に対する輝度の変化に基づいて、膜の境界を検出する。また、境界検出工程は、側壁部分の一方方向に対する輝度の変化を求め、変化の大きい部分を膜の境界と検出する。これにより、実施形態に係るプロファイル検出方法は、膜の境界を精度良く検出できる。
また、輪郭検出工程は、画像の凹部50の領域ごとに、交差方向に対する輝度の変化に基づいて、凹部50の輪郭を検出する。また、輪郭検出工程は、画像の凹部50の領域ごとに、一方方向の各位置で交差方向に対する輝度の変化を求め、変化の大きい部分を凹部50の輪郭と検出する。これにより、実施形態に係るプロファイル検出方法は、凹部50の輪郭を精度良く検出できる。
以上、実施形態について説明してきたが、今回開示された実施形態は、全ての点で例示であって制限的なものではないと考えられるべきである。実に、上述した実施形態は、多様な形態で具現され得る。また、上述した実施形態は、請求の範囲及びその趣旨を逸脱することなく、様々な形態で省略、置換、変更されてもよい。
例えば、上記の実施形態では、領域検出(ステップS12)と、境界検出(ステップS13)と、輪郭検出(ステップS14)を順に実施する場合を例に説明した。しかし、これに限定されるものではない。領域検出、境界検出、輪郭検出の順序は、異なってもよい。例えば、輪郭検出、領域検出、境界検出の順で実施してもよい。例えば、次のような順で処理を行ってもよい。輪郭検出部24dは、指定された画像データ23aの画像全体に対して2値化処理を行って2値画像を取得し、2値画像から境界となる凹部の外郭の輪郭を特定する。例えば、輪郭検出部24dは、2値画像の2値の境界となる画素を輪郭と特定する。領域検出部24bは、上記の実施形態の領域検出と同様に、指定された画像データ23aを解析して画像の各凹部50の領域を検出する。境界検出部24cは、上記の実施形態の領域検出と同様に、画像データ23aを解析して画像に含まれる膜の境界を検出する。
また、領域検出、境界検出、輪郭検出は、順序を問わず、各検出処理を並行して実施してもよく、2以上の処理を組み合わせて実施してもよい。各検出結果を相互利用してもよく、例えば、領域検出を行う際に、輪郭検出で得られた2値画像を用いて領域検出を行ってもよい。
また、上記の実施形態では、半導体ウエハなどの基板上に形成された半導体デバイスの凹部の寸法を計測する場合を例に説明した。しかし、これに限定されるものではない。基板は、例えば、ガラス基板など何れの基板でもよい。実施形態に係るプロファイル検出方法は、どのような基板の凹部の寸法の計測に適用してもよい。例えば、実施形態に係るプロファイル検出方法は、FPD用の基板に形成された凹部の寸法の計測に適用してもよい。
なお、今回開示された実施形態は全ての点で例示であって制限的なものではないと考えられるべきである。実に、上記した実施形態は多様な形態で具現され得る。また、上記の実施形態は、添付の特許請求の範囲及びその趣旨を逸脱することなく、様々な形態で省略、置換、変更されてもよい。
10 情報処理装置
20 通信I/F部
21 表示部
22 入力部
23 記憶部
23a 画像データ
24 制御部
24a 操作受付部
24b 領域検出部
24c 境界検出部
24d 輪郭検出部
24e 計測部
50 凹部

Claims (12)

  1. 一方方向に窪んだ凹部が前記一方方向に対する交差方向に複数並んだ画像のデータを解析して前記画像の各凹部の領域を検出する領域検出工程と、
    前記データを解析して前記画像に含まれる膜の境界を検出する境界検出工程と、
    前記データを解析して前記画像の凹部の領域ごとに、凹部の輪郭を検出する輪郭検出工程と、
    を有するプロファイル検出方法。
  2. 前記領域検出工程は、前記画像の前記交差方向に周波数解析を行って前記画像の前記一方方向に対する複数の凹部を含んだ範囲を特定し、前記画像の特定した範囲から各凹部の領域を検出する
    請求項1に記載のプロファイル検出方法。
  3. 前記領域検出工程は、前記画像の前記一方方向の各位置で前記交差方向に画像の周波数解析を行い、複数の凹部に対応する周波数が得られる範囲を、前記画像の前記一方方向に対する複数の凹部を含んだ範囲と特定する
    請求項2に記載のプロファイル検出方法。
  4. 前記領域検出工程は、前記画像の特定した範囲から、前記画像の前記交差方向の位置ごとに前記一方方向の各画素の輝度の平均値を算出し、算出した前記交差方向の各位置の平均値に基づいて、前記画像の特定した範囲から各凹部の領域を検出する
    請求項2又は3に記載のプロファイル検出方法。
  5. 前記境界検出工程は、前記領域検出工程により検出された凹部の領域ごとに、凹部を構成する側壁部分の前記一方方向に対する輝度の変化に基づいて、膜の境界を検出する
    請求項1~4の何れか1つに記載のプロファイル検出方法。
  6. 前記境界検出工程は、前記側壁部分の前記一方方向に対する輝度の変化を求め、変化の大きい部分を膜の境界と検出する
    請求項5に記載のプロファイル検出方法。
  7. 前記輪郭検出工程は、前記画像の凹部の領域ごとに、前記交差方向に対する輝度の変化に基づいて、凹部の輪郭を検出する
    請求項1~6の何れか1つに記載のプロファイル検出方法。
  8. 前記輪郭検出工程は、前記画像の凹部の領域ごとに、前記一方方向の各位置で前記交差方向に対する輝度の変化を求め、変化の大きい部分を凹部の輪郭と検出する
    請求項7に記載のプロファイル検出方法。
  9. 輪郭検出工程の検出結果に基づき、前記凹部の寸法を計測する工程をさらに有する
    求項1~8の何れか1つに記載のプロファイル検出方法。
  10. 前記画像のデータは、走査型電子顕微鏡により取得された基板断面の画像のデータである
    求項1~9の何れか1つに記載のプロファイル検出方法。
  11. 一方方向に窪んだ凹部が前記一方方向に対する交差方向に複数並んだ画像のデータを解析して前記画像の各凹部の領域を検出する領域検出工程と、
    前記データを解析して前記画像に含まれる膜の境界を検出する境界検出工程と、
    前記データを解析して前記画像の凹部の領域ごとに、凹部の輪郭を検出する輪郭検出工程と、
    をコンピュータに実行させるプロファイル検出プログラム。
  12. 一方方向に窪んだ凹部が前記一方方向に対する交差方向に複数並んだ画像のデータを解析して前記画像の各凹部の領域を検出するように構成される領域検出部と、
    前記データを解析して前記画像に含まれる膜の境界を検出するように構成される境界検出部と、
    前記データを解析して前記画像の凹部の領域ごとに、凹部の輪郭を検出するように構成される輪郭検出部と、
    を有する情報処理装置。
JP2022577002A 2021-01-21 2021-11-24 プロファイル検出方法、プロファイル検出プログラム及び情報処理装置 Active JP7483061B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202163139948P 2021-01-21 2021-01-21
US63/139,948 2021-01-21
PCT/JP2021/042891 WO2022158107A1 (ja) 2021-01-21 2021-11-24 プロファイル検出方法、プロファイル検出プログラム及び情報処理装置

Publications (2)

Publication Number Publication Date
JPWO2022158107A1 JPWO2022158107A1 (ja) 2022-07-28
JP7483061B2 true JP7483061B2 (ja) 2024-05-14

Family

ID=82548706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022577002A Active JP7483061B2 (ja) 2021-01-21 2021-11-24 プロファイル検出方法、プロファイル検出プログラム及び情報処理装置

Country Status (5)

Country Link
US (1) US20230360190A1 (ja)
JP (1) JP7483061B2 (ja)
KR (1) KR20230132780A (ja)
TW (1) TW202303092A (ja)
WO (1) WO2022158107A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004251674A (ja) 2003-02-19 2004-09-09 Hitachi High-Technologies Corp 試料の凹凸判定方法、及び荷電粒子線装置
JP2007129059A (ja) 2005-11-04 2007-05-24 Hitachi High-Technologies Corp 半導体デバイス製造プロセスモニタ装置および方法並びにパターンの断面形状推定方法及びその装置
WO2016002341A1 (ja) 2014-06-30 2016-01-07 株式会社 日立ハイテクノロジーズ パターン測定方法、及びパターン測定装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7348556B2 (en) * 2005-07-19 2008-03-25 Fei Company Method of measuring three-dimensional surface roughness of a structure
JP6133603B2 (ja) 2013-01-21 2017-05-24 株式会社日立ハイテクノロジーズ 荷電粒子線装置用の検査データ処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004251674A (ja) 2003-02-19 2004-09-09 Hitachi High-Technologies Corp 試料の凹凸判定方法、及び荷電粒子線装置
JP2007129059A (ja) 2005-11-04 2007-05-24 Hitachi High-Technologies Corp 半導体デバイス製造プロセスモニタ装置および方法並びにパターンの断面形状推定方法及びその装置
WO2016002341A1 (ja) 2014-06-30 2016-01-07 株式会社 日立ハイテクノロジーズ パターン測定方法、及びパターン測定装置

Also Published As

Publication number Publication date
KR20230132780A (ko) 2023-09-18
JPWO2022158107A1 (ja) 2022-07-28
WO2022158107A1 (ja) 2022-07-28
US20230360190A1 (en) 2023-11-09
TW202303092A (zh) 2023-01-16

Similar Documents

Publication Publication Date Title
US20180247400A1 (en) Pattern-Measuring Apparatus and Semiconductor-Measuring System
US7983471B2 (en) Pattern inspection apparatus and method
US9183622B2 (en) Image processing apparatus
JP5651428B2 (ja) パターン測定方法,パターン測定装置及びそれを用いたプログラム
US20080175469A1 (en) Pattern Inspection Apparatus and Semiconductor Inspection System
JP2009047494A (ja) パターン評価方法及びその装置
JP5364528B2 (ja) パターンマッチング方法、パターンマッチングプログラム、電子計算機、電子デバイス検査装置
US10643326B2 (en) Semiconductor measurement apparatus and computer program
TWI466206B (zh) 邊緣檢查和量測
JP7483061B2 (ja) プロファイル検出方法、プロファイル検出プログラム及び情報処理装置
JP5498258B2 (ja) 欠陥解析方法、欠陥解析装置、欠陥解析システム、およびプログラム
KR102078809B1 (ko) 패턴의 선폭 측정 장치 및 그 방법
TW202205160A (zh) 使用機器學習之半導體疊加測量
US10724856B2 (en) Image analysis apparatus and charged particle beam apparatus
WO2023166748A1 (ja) プロファイル検出方法及びプロファイル検出装置
KR100383258B1 (ko) 주사 전자 현미경을 이용한 측정 장치의 측정 에러 검출방법
JP2007104296A (ja) 解像度測定方法、装置及びプログラム
JP6345937B2 (ja) パターン形状検査装置及びパターン形状検査方法
JPH03266444A (ja) 電子ビームを用いた測定装置におけるパタン検出方法および寸法測定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7483061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150