JP2004214382A - Film layer display method - Google Patents

Film layer display method Download PDF

Info

Publication number
JP2004214382A
JP2004214382A JP2002381491A JP2002381491A JP2004214382A JP 2004214382 A JP2004214382 A JP 2004214382A JP 2002381491 A JP2002381491 A JP 2002381491A JP 2002381491 A JP2002381491 A JP 2002381491A JP 2004214382 A JP2004214382 A JP 2004214382A
Authority
JP
Japan
Prior art keywords
boundary surface
display
boundary
film
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002381491A
Other languages
Japanese (ja)
Inventor
Naoshi Haraguchi
直士 原口
Hirohisa Fujimoto
洋久 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2002381491A priority Critical patent/JP2004214382A/en
Publication of JP2004214382A publication Critical patent/JP2004214382A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a film layer display method which can display legible indication according to various estimation measures and enables intuitive display. <P>SOLUTION: In the film layer display method, boundary surfaces 401, 402, 403 of films formed in a layer type are three-dimensionally lamination displayed in a state that vertical positional relation is maintained. When the boundary surface 403 is selected out of the boundary surfaces 401, 402, 403 which are lamination displayed three-dimensionally, an interval in a Z axis direction between the boundary surface 403 and the boundary surface 402 positioned above the boundary surface 403 is adjusted and lamination display is updated. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、半導体ウェハなどの基板表面、複数種類のガラスを貼り合わせた強化ガラス、またはレンズなど、その表面に光を透過する膜などが層状に形成された試料の膜層表示方法に関するものである。
【0002】
【従来の技術】
半導体ウェハなどの基板表面、複数種類のガラスを貼り合わせた強化ガラス、またはレンズなど、その表面に光を透過する膜などが層状に形成されるものは、これらの膜の厚さ寸法にバラツキがあると、製品として所望する特性を得られないことがある。
【0003】
このため、従来から、このような製品については、膜表面の各位置で厚さ寸法を測定して膜厚を評価することが行われており、この測定結果を見易く表示する種々の工夫もなされている。
【0004】
図9は、膜厚の測定結果の種々の表示例を示すもので、同図(a)は、1つの膜の上側の境界面901と下側の境界面902の高さ方向の座標を1次元的に表示したものである。また、同図(b)は、1つの膜の上側の境界面と下側の境界面の高さ方向の座標差903を1次元的に表示したもので、膜厚の変化が見易くなっている。さらに、同図(c)は、1つの膜の膜厚を2次元的に等高線表示したものであり、膜厚の平面方向の分布が見易くなっている。そして、同図(d)は、同図(c)の等高線表示に対して、しきい値を設け、しきい値を逸脱した箇所の表示を変更したものであり、しきい値を逸脱した箇所の識別が容易になっている。
【0005】
このようにして、本来、3次元の形状を持つ試料の測定結果を1次元または2次元で表示する方法は、試料の評価尺度が特定されている場合に非常に有効な手段として用いられている。また、このような表示方法を採用することで、実際に膜厚を測定する場合に、測定箇所が限定することができるので、測定時間の短縮を図ることができるという利点がある。
【0006】
一方、特許文献1にも、膜厚の表示方法として、3次元画像により表わす方法、等高線表示画像により表わしたり、変化量を色別表示し、2次元または3次元で表示する方法、閾値を設定しておき、その閾値を超えている部分の色を変えて表示する方法などが開示されている。
【0007】
【特許文献1】
特開2002−39718号公報
【0008】
【発明が解決しようとする課題】
しかしながら、前の3次元である試料の形状を2次元もしくは1次元へと次数を減らして表示する方法は、その分情報量が失われていることであり、直感的な表示という意味では解りづらくなっている。このことは、例えば、実験的に製造した試料の特性の概要を把握したい場合のように、直感的に試料に関する情報を取得したいような用途には不向きである。
【0009】
また、後の特許文献1に開示される3次元画像により表わす方法は、薄膜の表面と基板表面の高さの差を3次元表示したもので、薄膜の境界面のそれぞれについて3次元表示できるものでない。
【0010】
ところで、最近、コンピュータの発達と画像処理技術の向上により、膜厚測定結果として薄膜の境界面のそれぞれについて3次元表示できるようにしたものもあり、さらに直感的な表示に近づけるアプローチが提案されている。
【0011】
例えば、図9(e)は、従来の表示を3次元に拡張した表示例を示すもので、上述した図9(a)に示す1次元的に表示された薄膜の上側の境界面901と下側の境界面902をそれぞれ3次元表示するようにしている。
【0012】
しかし、従来の1次元表示を単純に3次元に拡張しただけでは、この3次元表示にしたためにかえって表示が見難くなることがある。つまり、図9(e)に示すように、図9(a)に示す表示を単純に3次元表示に拡張すると、下側の境界面902の一部が上側の境界面901の下側に隠れてしまい、下側の境界面902全体の様子を観察できないことがある。
【0013】
このような場合、視点を変更することで下側の境界面902全体を観察するようにできるが、角度がついてしまい、かえって見にくいものになることがある。また、膜厚が薄い場合などでは、視点を変更しても下側の境界面902全体を観察できないこともある。
【0014】
本発明は上記事情に鑑みてなされたもので、さまざまな評価尺度に従った表示を見やすく、しかも直感的に表示できる膜層表示方法を提供することを目的とする。
【0015】
【課題を解決するための手段】
請求項1記載の発明は、層状に形成された膜のそれぞれの境界面の情報を検出し、これら検出された境界面を上下の位置関係を保った状態で3次元的に積層表示する膜層表示方法において、前記3次元的に積層表示された境界面のうち任意の境界面を選択することにより、該選択された境界面と隣接して表示される境界面との間隔を調整し、前記積層表示を更新可能にしたことを特徴としている。
【0016】
請求項2記載の発明は、請求項1記載の発明において、前記3次元的に積層表示された境界面のうち2つの境界面を選択することにより、これら選択された境界面で挟まれた空間を3次元的に追加表示可能としたことを特徴としている。
【0017】
請求項3記載の発明は、請求項1または2記載の発明において、前記3次元的に積層表示された境界面のうち処理対象となる境界面を選択し、次いで、前記選択された境界面の情報から生成可能な表示データと該表示データに適用する表示手法をそれぞれ指定することにより、前記処理対象の境界面の表面に、前記指定された表示手法により前記表示データによるテクスチャを貼り付け表示することを特徴としている。
【0018】
請求項4記載の発明は、請求項1乃至3のいずれかに記載の発明において、前記3次元的に積層表示された境界面のうち処理対象となる境界面を選択し、前記選択された境界面の変形方法を指定することにより、前記選択された境界面を、前記指定した形状に変形するとともに、この変形にともなう変形量を記憶し、前記処理対象の境界面以外の境界面を、前記記憶された変形量に基づいて変形させ、前記選択された境界面とともに表示することを特徴としている。
【0019】
請求項5記載の発明は、請求項1乃至4のいずれかに記載の発明において、前記3次元的に積層表示された境界面のうち正常に検出できた箇所と検出できなかった箇所を判別し、該正常に検出できなかった箇所に、前記正常に検出できた箇所と異なる表示効果を持たせることを特徴としている。
【0020】
この結果、本発明によれば、選択した境界面の表示が他の境界面の表示で隠れないようにすることができ、それぞれの境界面の表示の見易さを維持しながら膜全体の様子を観察できる。
【0021】
また、本発明によれば、選択された境界面で挟まれた空間から膜そのものの形状を直感的に把握できる。
【0022】
さらに、本発明によれば、処理対象として選択した境界面の表面に、境界面の形状や情報に基づいて作成した、さまざまなテクスチャを貼り付けて表示することができる。
【0023】
さらに、本発明によれば、膜の変形の影響を取り除いた状態で、各境界面の形状を表示できるので、それぞれの膜厚の変化を見易くできる。
【0024】
さらに、本発明によれば、正常に境界面を測定できた箇所と、そうでない箇所を表示内容から一目して判別できるので、取得した膜の境界面の情報の信頼性について的確に判断できる。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態を図面に従い説明する。
【0026】
(第1の実施の形態)
図1は、本発明の膜層表示方法が適用される測定顕微鏡の概略構成を示している。図1において、1は顕微鏡本体で、この顕微鏡本体1は、ベース部1aと、このベース部1aに直立して設けられた胴部1bを有している。
【0027】
ベース部1aには、電動式のXYテーブル2が設けられている。このXYテーブル2には、試料11が載置されている。この場合、試料11には、基板上に膜を層状に形成したものが用いられている。
【0028】
また、XYテーブル2は、XY軸方向のそれぞれの移動軸に沿って、図示しないリニアスケールが内蔵されており、これらリニアスケールによりXY軸方向の移動量をカウントすることで試料11上の観察位置のXY軸座標を取得できるようになっている。
【0029】
顕微鏡本体1の胴部1bには、落射照明用アーム3が上下方向、つまりZ軸方向に移動可能に設けられている。落射照明用アーム3のXYテーブル2に対向する下側部には、レボルバ4が設けられている。このレボルバ4には、複数の対物レンズ5が設けられ、これら対物レンズ5を選択的に光軸上に切換えることができるようになっている。また、落射照明用アーム3の上側部には、オートフォーカスユニット6、鏡筒7および接眼レンズ8からなる光学系が搭載されている。
【0030】
顕微鏡本体1の内部には、後述するZ軸駆動用のモータ12が内蔵されている。このモータ12は、オートフォーカスユニット6からの指示により落射照明用アーム3を上下方向、つまり、XYテーブル2上の試料11に対して対物レンズ5を含む光学系全体をZ軸方向(光軸方向)に移動させるようになっている。
【0031】
顕微鏡本体1の胴部1bには、落射照明用アーム3のZ軸方向の移動軸に沿って、図示しないリニアスケールが内蔵されており、このリニアスケールによりZ軸方向の移動量をカウントすることで、対物レンズ5の焦点が合った位置のZ軸座標を取得できるようになっている。
【0032】
顕微鏡本体1には、通信ケーブル9を介してパソナルコンピュータ(以下、PCと称する。)10が接続されている。PC10は、例えばRS232Cによる通信により、オートフォーカスユニット6により焦点合わせされた位置のZ軸座標と、XYテーブル2のXY軸座標から3次元座標を取得できるようになっている。
【0033】
図2は、オートフォーカスユニット6の概略構成を示している。
【0034】
この場合、図示点線で囲まれた部分で示すオートフォーカスユニット6は、レーザ光源601を有しており、このレーザ光源601から出射された光は、ミラー602で反射し、ハーフミラー603を透過し、さらに対物レンズ5を透過してテーブル2上の試料11に照射される。試料11で反射した光は再び対物レンズ5を透過し、ハーフミラー603で反射したあと、結像レンズ604により結像する。結像レンズ604の焦点位置にはピンホール605が配置されている。これにより、対物レンズ5の焦点位置が試料11の表面に位置する場合に試料11で反射した光が選択的にピンホール605を透過して光検出器606に入力される。光検出器606の出力強度は、入力された光の強度に応じて変化し、この光検出器606からの出力は、CPU607に入力される。
【0035】
この場合、例えば、図3(a)に示すように試料11の膜301に対して対物レンズ5の焦点位置を同図中の軌跡304に沿って走査すると、光検出器606の出力強度は、同図(b)の307に示すように変化する。つまり、光検出器606からの出力強度は、膜301の上側の境界面302と下側の境界面303を対物レンズ5の焦点位置が横切った位置305と306で、それぞれピーク位置308および309を形成するようになる。
【0036】
これにより、Z軸駆動用のモータ12により落射照明用アーム3をZ軸方向に移動させ、対物レンズ5を含む光学系全体を、図3(a)に示す軌跡304に沿って焦点合わせ開始位置310から焦点合わせ311まで移動させることで、光検出器606の出力強度のピーク位置309とピーク位置308を順次検出することが可能となる。
【0037】
いま、対物レンズ5の焦点位置が焦点合わせ開始位置310にある場合、PC10は、通信ケーブル9を介して対物レンズ5の移動方向として矢印の方向を、探索距離として焦点合わせ終了位置311までの距離をそれぞれ指定した上で焦点合わせ動作を開始させる。
【0038】
すると、CPU607は、光検出器606の出力強度のサンプリングを開始するとともに、Z軸駆動用のモータ12に対し、対物レンズ5を含む光学系全体をZ軸の上方へ移動させるように指示する。
【0039】
光学系全体をZ軸の上方へ移動している間、CPU607は、サンプリングした光検出器606の出力強度が正から負に変化したか監視しており、出力強度が正から負に変化した場合、図3(b)に示すピーク位置309を通過したと判断して光検出器606の出力強度のサンプリングおよびZ軸駆動を一旦停止する。そして、ピーク位置309をより高精度に検出するために光検出器606の出力強度のより精密なサンプリングを再開するとともに、Z軸駆動用のモータ12に対して、上述と逆方向に、より低速で移動するよう指示する。
【0040】
その後、サンプリングした光検出器606の出力強度が、再び正から負に変化したことをCPU607が検出すると、この時点で、光検出器606の出力強度のサンプリングおよびZ軸駆動を中止し、PC10に対して通信ケーブル9を介して最初の焦点合わせの終了を通知して焦点合わせを終了する。焦点合わせの終了を通知されたPC10は、通信ケーブル9を介して顕微鏡本体1のXYテーブル2のXY軸座標、対物レンズ5を含む光学系全体のZ軸座標を取得し、この取得したXYZ座標を、膜301の下側の境界面303の対物レンズ5の焦点位置が横切った位置30の3次元座標として記憶する。
【0041】
次に、焦点位置が下側の境界面303の位置306にある状態から、再びPC10により、通信ケーブル9を介して移動方向として図3(b)に示す矢印方向と、探索距離として焦点合わせ終了位置311までの距離をそれぞれ指定し、焦点合わせ動作を開始する。
【0042】
すると、PC10は、上述したと同様の動作によって膜301の上側の境界面302の対物レンズ5の焦点位置が横切った位置305のXYZ座標を取得し、3次元座標として記憶する。
【0043】
次に、焦点位置が上側の境界面302の位置305にある状態から、さらにPC10により、通信ケーブル9を介して移動方向として図3(b)に示す矢印方向と、探索距離として焦点合わせ終了位置311までの距離をそれぞれ指定し、焦点合わせ動作を開始する。
【0044】
この場合も、CPU607は、上述したと同様にサンプリングした光検出器606の出力強度の正から負への変化を監視するが、今回は正から負への変化を検出することがなく焦点合わせ終了位置311に到達する。
【0045】
これにより、CPU607は、PC10に対して通信ケーブル9を介して焦点合わせ終了位置への到達を通知し、焦点合わせを終了する。この場合、PC10は、焦点合わせ開始位置310と焦点合わせ終了位置311の範囲に境界面302と303以外の境界面が存在しないことを認識し、通信ケーブル9を介してXYテーブル2に対して、次の測定ポイントの焦点合わせ開始位置に移動するように指示する。
【0046】
このような動作を試料11面上に設定した測定領域内の全測定ポイントについて繰り返して実行することにより、測定領域内の膜301の境界面の位置情報を取得することができる。
【0047】
次に、このようにして取得された膜の境界面の位置情報の表示方法について説明する。
【0048】
この場合、上述した要領で膜の境界面が取得される。ここで、図4に示すように、取得した膜の境界面を401、402、403とすると、これらの境界面401、402、403の情報に基づいて3次元オブジェクトが定義される。そして、図4(a)に示すように、これら定義された3次元オブジェクトが、上下の位置関係を保ったまま3次元的に積層表示される。ここでは、境界面402の表示部の一部が境界面401の表示により隠れ、境界面403の表示部の一部が境界面402の表示により隠れている。
【0049】
この状態から、いま、境界面403全体を表示したい場合、図示しない手段により境界面403を選択する。すると、図4(b)に示すように、選択された境界面403全体の表示が、他の境界面401、402の表示によって隠れないように、境界面403と隣接して位置される境界面402との間のZ軸方向の間隔が調整され、積層表示が更新される。ここで、境界面403を選択した状態で、3次元表示の視点を変えたような場合も、自動的に境界面403全体が観察できるように表示が更新される。また、連続的に3次元表示の視点を変えて境界面403の表示を回転させるような場合も、境界面403全体が観察できるように表示が更新される。
【0050】
なお、上述では、境界面403全体を表示するため、図示しない手段により境界面403を選択する場合を述べたが、境界面402全体を表示したい場合は、境界面402を選択すれば、境界面401と境界面402の間のZ軸方向の間隔が調整されて、境界面402全体が観察できるように表示が更新される。また、図4(b)では、境界面402と境界面403の間のZ軸方向の間隔を調整することで、境界面403全体を観察できるように表示を更新しているが、図4(c)に示すように、選択した境界面403が見かけ上、最上位にあるように表示を更新することもできる。さらに、選択された境界面と表示が重なる境界面を透明、または半透明とすることで、境界面403全体を観察できるように表示を更新してもよい。
【0051】
従って、このようにすれば、膜の境界面401、402、403の位置関係を維持した状態で3次元表示できるため、これら境界面401、402、403により形成される膜の形状を直感的に把握することができる。しかも、選択した境界面の表示が他の境界面の表示で隠れないようにすることができので、それぞれの境界面401、402、403の表示の見易さを維持しながら、これら境界面401、402、403から膜全体の様子を詳細に観察することができる。
【0052】
なお、上述した実施の形態では、Z軸駆動用のモータ12により落射照明用アーム3とともに、対物レンズ5を含む光学系全体をZ軸方向(光軸方向)に移動させるようにしたが、これに代えて、XYテーブル2をZ軸方向に移動させるようにしてもよい。要は、XYテーブル2に載置される試料と対物レンズ5がZ軸方向(光軸方向)に相対的に移動できるようになっていればよい。また、上述では、測定領域内部の各測定ポイントごとに焦点合わせ開始位置から焦点合わせ終了位置の全範囲について焦点合わせを実施して膜の境界面を全て検出するようにしているが、最初に膜の下側の境界面だけを全て検出し、次に上側の境界面を全て検出するようにしてもよい。さらに、試料上の測定ポイントを移動する手段として電動式のXYテーブル2を用いているが、図2に示すハーフミラー603と対物レンズ5の間に、2次元走査機構を設け、この2次元走査機構によってレーザ光を試料11上で2次元的に移動させることで測定ポイントを移動させるようにしてもよい。この場合、Z軸方向にステップ移動させながら、各ステップで2次元走査機構により測定領域内部の全測定ポイントを走査して、各測定ポイントにおける光検出器606の出力強度を全てPC10に取り込む。そして、Z軸のステップ移動が完了した後に、各測定ポイントについて、図3で説明したように焦点合わせ開始位置310から焦点合わせ終了位置311までの出力強度の変化がPC10に格納されていることから、計算により各測定ポイントでの膜の境界面の位置情報を取得するようにしてもよい。
【0053】
(第2の実施の形態)
次に、本発明の第2の実施の形態を説明する。
【0054】
この場合、第2の実施の形態に用いられる測定顕微鏡およびオートフォーカスユニットは、上述した図1および図2のものと同様なので、これらの図面を援用する。また、これら測定顕微鏡およびオートフォーカスユニットを用いて膜の境界面の位置情報を取得するまでは、上述した第1の実施の形態で説明したと同様なので、ここでの説明を省略する。
【0055】
次に、このようにして取得された膜の境界面の位置情報の表示方法について説明する。
【0056】
この場合も、上述した要領で膜の境界面401、402、403が取得されると、これらの境界面401、402、403について3次元オブジェクトが定義され、図4(a)に示すように、これら定義された3次元オブジェクトが、上下の位置関係を保ったまま3次元的に積層表示される。
【0057】
この状態から、境界面401と境界面402を選択すると、これら選択された2つの境界面401と境界面402で挟まれた空間が3次元オブジェクトとして定義される。すると、この定義された3次元オブジェクトが、図5(a)に示すように境界面401と境界面402の間に空間501として追加表示される。この2つの境界面401と402に挟まれた空間501は、言うまでもなく膜そのものであり、膜そのものを3次元表示することによって、膜の形状を直感的に把握することができる。
【0058】
この場合、境界面401と空間501の間のZ軸方向の間隔を調整することで、図5(b)に示すように積層表示を更新することができる。このようにすると、空間501そのものを独立して表示することができる。
【0059】
(第3の実施の形態)
次に、本発明の第3の実施の形態を説明する。
【0060】
この場合、第3の実施の形態に用いられる測定顕微鏡およびオートフォーカスユニットは、上述した図1および図2のものと同様なので、これらの図面を援用する。また、これら測定顕微鏡およびオートフォーカスユニットを用いて膜の境界面の位置情報を取得するまでは、上述した第1の実施の形態で説明したと同様なので、ここでの説明を省略する。
【0061】
次に、このようにして取得された膜の境界面の位置情報の表示方法について説明する。
【0062】
この場合も、上述した要領で膜の複数の境界面401、402、403が取得される。次に、処理対象となる境界面、例えば境界面401を選択し、この選択した境界面401の情報から生成可能な表示データを複数の中から指定する。
【0063】
ここで、指定可能な表示データとしては、(a)処理対象の境界面を構成する各位置のZ座標、(b)予め指定した基準となる境界面と処理対象の境界面の各位置について求めたZ座標差、(c)予め指定した基準となる境界面と処理対象の境界面の各位置について求めた法線方向の距離、(d)予め指定した基準となる境界面と処理対象の境界面の各位置について求めた最短距離などである。
【0064】
次に、表示データに適用する表示手法を指定する。ここで指定可能な表示手法は、(a)値の大きさに応じて表示色をかえるルックアップテーブルを用いた表示手法、(b)値の大きさに応じた等高線表示手法である。
【0065】
そして、このような処理対象となる境界面401の表面に対して、予め指定した表示手法により、表示データによるテクスチャを貼り付け表示させる。
【0066】
図6は、このようにして貼り付けられるテクスチャの表示例を示すもので、同図(a)は、図4(a)に示す境界面401について、Z座標に応じて色をつけたテクスチャ404を貼り付けた例を示し、同図(b)は、図4(a)に示す境界面401について、境界面401の表面にZ座標に応じて等高線を描画したテクスチャ405を貼り付けた例を示し、同図(c)は、図4(a)に示す境界面402を基準として指定し、境界面401について、基準となる境界面402とのZ座標差を計算し、その座標差に応じて色をつけたテクスチャ406を貼り付けた例を示している。
【0067】
このようにすれば、処理対象として指定した境界面の表面に対し、境界面の形状や情報に基づいて作成した、さまざまなテクスチャを貼り付けて表示することができるので、これらテクスチャの様子から膜全体の特性の評価をさまざまな評価尺度で比較検討することができる。
【0068】
なお、図1で述べた顕微鏡本体1の鏡筒7に撮像装置(不図示)を接続し、この撮像装置とPC10を図示しないケーブルで接続して、撮像装置で撮像した画像をPC10に撮り込むようにし、この撮像装置で撮像した画像情報から、膜の境界面の情報として輝度情報を取得し、この輝度情報を処理対象として指定した境界面の表面にテクスチャとして貼り付けるようにしてもよい。
【0069】
(第4の実施の形態)
次に、本発明の第4の実施の形態を説明する。
【0070】
この場合、第4の実施の形態に用いられる測定顕微鏡およびオートフォーカスユニットは、上述した図1および図2のものと同様なので、これらの図面を援用する。また、これら測定顕微鏡およびオートフォーカスユニットを用いて膜の境界面の位置情報を取得するまでは、上述した第1の実施の形態で説明したと同様なので、ここでの説明を省略する。
【0071】
次に、このようにして取得された膜の境界面の位置情報の表示方法について説明する。
【0072】
この場合も、第1の実施の形態で述べた要領で膜の境界面が取得される。ここでは、図7(a)に示すように、2層の膜がもつ3つの境界面701、702、703の位置情報により、これら境界面701、702、703の断面方向が観察できるような表示が行われている。
【0073】
この状態から、まず、境界面702を選択し、境界面702を、例えば平面に変形させるように指示する。すると、境界面702を構成する全ての位置情報からZ座標の平均値Zaveが計算され、各位置のZ座標を平均値Zaveにするとともに、そのときのZ座標の移動値を変形量として記憶する。
【0074】
その後、境界面702を覗く他の境界面701,703のそれぞれの位置情報についても、境界面702の変形量に基づいて平面に変形する。そして、全ての境界面701、702、703の変形処理を終了した後、同図(b)に示すように表示を更新する。
【0075】
このようにすれば、膜の変形の影響を取り除いた状態で、各境界面701、702、703の形状を表示できるので、それぞれの膜厚の変化を見易く表示できる。
【0076】
なお、上述では、変形方法として、境界面702をZ座標がZaveである平面に変形しているが、例えば、変形させる形状として平面ではなく、凸面や凹面など任意の形状を指定できるようにしてもよい。また、予め変形させる形状を複数用意しておいて選択するようにしてもよいし、形状の種類とそのパラメータを入力させるようにしてもよい。
【0077】
(第5の実施の形態)
次に、本発明の第5の実施の形態を説明する。
【0078】
この場合、第5の実施の形態に用いられる測定顕微鏡およびオートフォーカスユニットは、上述した図1および図2のものと同様なので、これらの図面を援用する。また、これら測定顕微鏡およびオートフォーカスユニットを用いて膜の境界面の位置情報を取得するまでは、上述した第1の実施の形態で説明したと同様なので、ここでの説明を省略する。
【0079】
次に、このようにして取得された膜の境界面の位置情報の表示方法について説明する。
【0080】
この場合も、第1の実施の形態で述べた要領で膜の境界面が取得される。ここでは、図8(a)に示すように、境界面801と802の位置情報により、これら境界面801と802の断面方向が観察できるような表示が行われている。また、この表示では、境界面801上の測定ポイント803と境界面802上の測定ポイント804が極端に接近している様子を示している。
【0081】
このように2つの境界面801と802の測定ポイント803と804が非常に接近していると、図2で述べた光検出器606の出力強度の変化も図8(b)に示すようになって、2つのピークに分離できないため、1つの境界面として検出してしまうことがある。
【0082】
そこで、この実施の形態では、全ての測定ポイントについて検出した境界面の数に対するヒストグラムを作成し、最も高い頻度で現れた境界面の数を正常に検出した場合の境界面の数とみなし、それ以外の境界面を検出した測定ポイントについては、表示を点滅させるなどして異なる表示効果を持たせ、正常に検出できた測定ポイントと表示を区別するようにしている。
【0083】
一方、第1の実施の形態で述べた要領で膜の境界面を取得すると、全ての測定ポイントについて同じ数の境界面が存在することが前提となるが、例えば、組成の違いなどにより、図8(c)に示すように境界面805と境界面806の間に部分的に境界面807が存在することも考えられる。
【0084】
このような場合は、注目する測定ポイントが検出した境界面の数と同じ境界面の数を検出した測定ポイントが周囲に連続して存在する個数もしくは面積を評価値として計算し、この計算した評価値が、しきい値以上の場合に正常に検出したと見なすようにすればよい。
【0085】
なお、正常に境界面を検出できた箇所と、その以外の箇所を区別する表示効果としては、点滅だけでなく、透明にする、もしくは色が変えられるようにすることも考えられる。
【0086】
このようにすれば、正常に境界面を測定できた箇所と、そうでない箇所を表示内容から一目して判別できるようになるため、取得した膜の境界面の情報の信頼性について的確に判断することができる。
【0087】
その他、本発明は、上記実施の形態に限定されるものでなく、実施段階では、その要旨を変更しない範囲で種々変形することが可能である。
【0088】
さらに、上記実施の形態には、種々の段階の発明が含まれており、開示されている複数の構成要件における適宜な組み合わせにより種々の発明が抽出できる。例えば、実施の形態に示されている全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題を解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成が発明として抽出できる。
【0089】
【発明の効果】
以上述べたように本発明によれば、さまざまな評価尺度に従った表示を見やすく、しかも直感的に表示できる膜層表示方法を提供できる。
【図面の簡単な説明】
【図1】本発明の膜層表示方法が適用される測定顕微鏡の概略構成を示す図。
【図2】本発明の膜層表示方法が適用されるオートフォーカスユニットの概略構成を示す図。
【図3】本発明の膜層表示方法に用いられる膜の境界面の取得方法を説明する図。
【図4】本発明の第1の実施の形態の膜厚測定結果の表示例を示す図。
【図5】本発明の第2の実施の形態の膜厚測定結果の表示例を示す図。
【図6】本発明の第3の実施の形態の膜厚測定結果の表示例を示す図。
【図7】本発明の第4の実施の形態の膜厚測定結果の表示例を示す図。
【図8】本発明の第5の実施の形態の膜厚測定結果の表示例を示す図。
【図9】従来の膜厚測定結果の表示例を示す図。
【符号の説明】
1…顕微鏡本体
1a…ベース部
1b…胴部
2…XYテーブル
3…落射照明用アーム
4…レボルバ
5…対物レンズ
6…オートフォーカスユニット
601…レーザ光源
602…ミラー
603…ハーフミラー
604…結像レンズ
605…ピンホール
606…光検出器
607…CPU
7…鏡筒
8…接眼レンズ
9…通信ケーブル
10…PC
11…試料
12…モータ
301…膜
302、303…境界面
304…軌跡
305、306…位置
308、309…ピーク位置
310…焦点合わせ開始位置
311…焦点合わせ終了位置
401〜403…境界面
501…空間
701、702…境界面
801、802、805〜807…境界面
802…境界面
803、804…測定ポイント
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for displaying a film layer of a sample in which a light-transmitting film or the like is formed in a layer on the surface of a substrate such as a semiconductor wafer, a tempered glass having a plurality of types of glass bonded thereto, or a lens. is there.
[0002]
[Prior art]
In the case of a substrate surface such as a semiconductor wafer, a tempered glass laminated with multiple types of glass, or a lens such as a lens, a film that transmits light is formed on the surface in layers, and the thickness dimensions of these films vary. In some cases, desired characteristics as a product may not be obtained.
[0003]
For this reason, conventionally, for such products, the thickness is measured at each position on the film surface to evaluate the film thickness, and various measures have been made to display the measurement results in an easy-to-read manner. ing.
[0004]
FIG. 9 shows various display examples of the measurement results of the film thickness. FIG. 9A shows the coordinates of the upper boundary surface 901 and the lower boundary surface 902 of one film in the height direction by one. It is a dimensional display. FIG. 3B shows a one-dimensional display of the coordinate difference 903 in the height direction between the upper boundary surface and the lower boundary surface of one film, so that the change in the film thickness is easy to see. . Further, FIG. 4C shows the film thickness of one film in two-dimensional contour lines, so that the distribution of the film thickness in the plane direction is easy to see. FIG. 11D shows the contour lines shown in FIG. 10C in which a threshold value is set and the display of a portion deviating from the threshold value is changed. Is easy to identify.
[0005]
Thus, the method of displaying the measurement result of a sample having a three-dimensional shape in one or two dimensions is originally used as a very effective means when the evaluation scale of the sample is specified. . In addition, by adopting such a display method, when the film thickness is actually measured, the measurement location can be limited, so that there is an advantage that the measurement time can be reduced.
[0006]
On the other hand, Patent Document 1 also discloses, as a method of displaying a film thickness, a method of displaying a three-dimensional image, a method of displaying a contour line display image, displaying a change amount in different colors, and displaying a two-dimensional or three-dimensional image, and setting a threshold value. In addition, a method of changing the color of a portion exceeding the threshold and displaying the same is disclosed.
[0007]
[Patent Document 1]
JP 2002-39718 A
[0008]
[Problems to be solved by the invention]
However, the method of displaying the previous three-dimensional shape of the sample in a two-dimensional or one-dimensional manner with a reduced order is a loss of the amount of information, and is difficult to understand in the sense of intuitive display. Has become. This is not suitable for applications where it is desired to intuitively acquire information on a sample, such as when it is desired to obtain an overview of the characteristics of a sample manufactured experimentally.
[0009]
Further, a method of expressing by a three-dimensional image disclosed in Patent Document 1 described later is a method in which the difference between the height of the thin film surface and the height of the substrate surface is three-dimensionally displayed, and each of the boundary surfaces of the thin film can be three-dimensionally displayed. Not.
[0010]
By the way, recently, with the development of computers and the improvement of image processing technology, there has been a method that can display three-dimensionally each of the thin film boundaries as a result of film thickness measurement, and an approach for making the display more intuitive has been proposed. I have.
[0011]
For example, FIG. 9E shows a display example in which the conventional display is extended three-dimensionally. The upper boundary surface 901 and the lower boundary surface 901 of the one-dimensionally displayed thin film shown in FIG. Each of the side boundary surfaces 902 is three-dimensionally displayed.
[0012]
However, simply expanding the conventional one-dimensional display to three-dimensional display may make it difficult to view the display because of the three-dimensional display. That is, as shown in FIG. 9E, when the display shown in FIG. 9A is simply extended to a three-dimensional display, a part of the lower boundary surface 902 is hidden under the upper boundary surface 901. In some cases, the state of the entire lower boundary surface 902 cannot be observed.
[0013]
In such a case, by changing the viewpoint, the entire lower boundary surface 902 can be observed. However, the angle may be formed, which may make it difficult to see. In addition, when the film thickness is small, the entire lower boundary surface 902 may not be observed even when the viewpoint is changed.
[0014]
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a film layer display method that makes it easy to view a display according to various evaluation scales and that can display the display in an intuitive manner.
[0015]
[Means for Solving the Problems]
According to the first aspect of the present invention, there is provided a film layer which detects information on each boundary surface of a film formed in a layered manner and three-dimensionally displays the detected boundary surfaces in a three-dimensional manner while maintaining a vertical positional relationship. In the display method, by selecting an arbitrary boundary surface from the three-dimensionally stacked boundary surfaces, an interval between the selected boundary surface and a boundary surface displayed adjacently is adjusted, It is characterized in that the stack display can be updated.
[0016]
According to a second aspect of the present invention, in the first aspect of the present invention, by selecting two of the three-dimensionally stacked boundary surfaces, a space sandwiched between the selected boundary surfaces is selected. Can be additionally displayed three-dimensionally.
[0017]
According to a third aspect of the present invention, in the first or second aspect, a boundary surface to be processed is selected from the three-dimensionally stacked boundary surfaces, and then the selected boundary surface is selected. By specifying display data that can be generated from information and a display method applied to the display data, a texture based on the display data is pasted and displayed on the surface of the boundary surface to be processed by the specified display method. It is characterized by:
[0018]
According to a fourth aspect of the present invention, in the invention according to any one of the first to third aspects, a boundary surface to be processed is selected from the three-dimensionally stacked boundary surfaces, and the selected boundary surface is selected. By designating a surface deformation method, the selected boundary surface is deformed into the specified shape, and a deformation amount associated with the deformation is stored, and the boundary surfaces other than the processing target boundary surface are subjected to the processing. It is characterized in that it is deformed based on the stored deformation amount and is displayed together with the selected boundary surface.
[0019]
According to a fifth aspect of the present invention, in the invention according to any one of the first to fourth aspects, a part that has been normally detected and a part that has not been detected among the three-dimensionally displayed boundary surfaces are determined. A feature is provided that a portion that has not been detected normally has a display effect different from that of the portion that has been normally detected.
[0020]
As a result, according to the present invention, it is possible to prevent the display of the selected boundary surface from being hidden by the display of other boundary surfaces, and to maintain the visibility of the display of each boundary surface while maintaining the visibility of the entire film. Can be observed.
[0021]
Further, according to the present invention, the shape of the film itself can be intuitively grasped from the space sandwiched by the selected boundary surfaces.
[0022]
Further, according to the present invention, various textures created based on the shape and information of the boundary surface can be pasted and displayed on the surface of the boundary surface selected as a processing target.
[0023]
Further, according to the present invention, the shape of each boundary surface can be displayed in a state where the influence of the deformation of the film is removed, so that the change in the thickness of each film can be easily seen.
[0024]
Further, according to the present invention, it is possible to determine, at a glance, a portion where the boundary surface can be normally measured and a portion where the boundary surface has not been measured from the displayed contents, so that the reliability of the acquired information on the boundary surface of the film can be accurately determined.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0026]
(First Embodiment)
FIG. 1 shows a schematic configuration of a measuring microscope to which the film layer display method of the present invention is applied. In FIG. 1, reference numeral 1 denotes a microscope main body. The microscope main body 1 has a base 1a and a body 1b provided upright on the base 1a.
[0027]
An electric XY table 2 is provided on the base 1a. The sample 11 is placed on the XY table 2. In this case, a sample 11 in which a film is formed in a layer on a substrate is used.
[0028]
The XY table 2 has a built-in linear scale (not shown) along each moving axis in the XY axis direction, and counts the amount of movement in the XY axis direction by using these linear scales. XY axis coordinates can be obtained.
[0029]
An epi-illumination arm 3 is provided on the body 1b of the microscope body 1 so as to be movable in the vertical direction, that is, in the Z-axis direction. A revolver 4 is provided on a lower side of the epi-illumination arm 3 facing the XY table 2. The revolver 4 is provided with a plurality of objective lenses 5, and these objective lenses 5 can be selectively switched on the optical axis. On the upper side of the epi-illumination arm 3, an optical system including an autofocus unit 6, a lens barrel 7, and an eyepiece 8 is mounted.
[0030]
Inside the microscope main body 1, a motor 12 for driving the Z-axis, which will be described later, is incorporated. The motor 12 moves the epi-illumination arm 3 in the vertical direction in response to an instruction from the autofocus unit 6, that is, moves the entire optical system including the objective lens 5 with respect to the sample 11 on the XY table 2 in the Z-axis direction (optical axis direction). ).
[0031]
A linear scale (not shown) is built in the body 1b of the microscope main body 1 along the movement axis in the Z-axis direction of the epi-illumination arm 3, and the movement amount in the Z-axis direction is counted by the linear scale. Thus, the Z-axis coordinates of the position where the objective lens 5 is in focus can be obtained.
[0032]
A personal computer (hereinafter, referred to as a PC) 10 is connected to the microscope main body 1 via a communication cable 9. The PC 10 can acquire three-dimensional coordinates from the Z-axis coordinates of the position focused by the autofocus unit 6 and the XY-axis coordinates of the XY table 2 by, for example, communication using RS232C.
[0033]
FIG. 2 shows a schematic configuration of the autofocus unit 6.
[0034]
In this case, the autofocus unit 6 indicated by a portion surrounded by a dotted line in the drawing has a laser light source 601, and light emitted from the laser light source 601 is reflected by a mirror 602 and transmitted through a half mirror 603. Then, the light passes through the objective lens 5 and irradiates the sample 11 on the table 2. The light reflected by the sample 11 passes through the objective lens 5 again, is reflected by the half mirror 603, and forms an image by the imaging lens 604. A pinhole 605 is arranged at the focal position of the imaging lens 604. Thereby, when the focal position of the objective lens 5 is located on the surface of the sample 11, the light reflected by the sample 11 is selectively transmitted through the pinhole 605 and input to the photodetector 606. The output intensity of the photodetector 606 changes according to the intensity of the input light, and the output from the photodetector 606 is input to the CPU 607.
[0035]
In this case, for example, as shown in FIG. 3A, when the focal position of the objective lens 5 is scanned along the locus 304 in the drawing with respect to the film 301 of the sample 11, the output intensity of the photodetector 606 becomes It changes as indicated by 307 in FIG. In other words, the output intensity from the photodetector 606 shows the peak positions 308 and 309 at the positions 305 and 306 where the focal position of the objective lens 5 crosses the upper boundary surface 302 and the lower boundary surface 303 of the film 301, respectively. Will be formed.
[0036]
Thereby, the epi-illumination arm 3 is moved in the Z-axis direction by the Z-axis driving motor 12, and the entire optical system including the objective lens 5 is focused on the locus 304 shown in FIG. By moving from 310 to focusing 311, the peak position 309 and the peak position 308 of the output intensity of the photodetector 606 can be sequentially detected.
[0037]
Now, when the focal position of the objective lens 5 is at the focusing start position 310, the PC 10 uses the communication cable 9 to move the objective lens 5 in the direction indicated by the arrow, and as the search distance to the focusing end position 311. Are designated, and the focusing operation is started.
[0038]
Then, the CPU 607 starts sampling the output intensity of the photodetector 606 and instructs the motor 12 for driving the Z-axis to move the entire optical system including the objective lens 5 above the Z-axis.
[0039]
While moving the entire optical system above the Z axis, the CPU 607 monitors whether the output intensity of the sampled photodetector 606 has changed from positive to negative, and when the output intensity changes from positive to negative. 3B, the sampling of the output intensity of the photodetector 606 and the Z-axis driving are temporarily stopped. Then, in order to detect the peak position 309 with higher accuracy, more precise sampling of the output intensity of the photodetector 606 is restarted, and the motor 12 for driving the Z-axis is driven at a lower speed in the opposite direction to the above. Instruct to move with.
[0040]
Thereafter, when the CPU 607 detects that the sampled output intensity of the photodetector 606 has changed from positive to negative again, at this time, sampling of the output intensity of the photodetector 606 and Z-axis driving are stopped, and the PC 10 On the other hand, the end of the first focusing is notified via the communication cable 9 to terminate the focusing. The PC 10 notified of the end of focusing acquires the XY-axis coordinates of the XY table 2 of the microscope main body 1 and the Z-axis coordinates of the entire optical system including the objective lens 5 via the communication cable 9, and acquires the acquired XYZ coordinates. Is stored as the three-dimensional coordinates of the position 30 where the focal position of the objective lens 5 crosses the lower boundary surface 303 of the film 301.
[0041]
Next, from the state in which the focal position is at the position 306 of the lower boundary surface 303, the PC 10 again uses the communication cable 9 to move through the communication cable 9 in the direction of the arrow shown in FIG. The distance to the position 311 is specified, and the focusing operation is started.
[0042]
Then, the PC 10 acquires the XYZ coordinates of the position 305 of the upper boundary surface 302 of the film 301 where the focal position of the objective lens 5 crosses by the same operation as described above, and stores it as three-dimensional coordinates.
[0043]
Next, from the state where the focus position is at the position 305 of the upper boundary surface 302, the PC 10 further moves the communication direction through the communication cable 9 in the direction of the arrow shown in FIG. The distance to 311 is specified, and the focusing operation is started.
[0044]
In this case as well, the CPU 607 monitors the change in the output intensity of the sampled photodetector 606 from positive to negative in the same manner as described above, but this time the focusing is completed without detecting the change from positive to negative. The position 311 is reached.
[0045]
Accordingly, the CPU 607 notifies the PC 10 of the arrival at the focus end position via the communication cable 9 and ends the focus. In this case, the PC 10 recognizes that there is no boundary surface other than the boundary surfaces 302 and 303 in the range between the focus start position 310 and the focus end position 311, and sends the XY table 2 to the XY table 2 via the communication cable 9. An instruction is issued to move to the focus start position of the next measurement point.
[0046]
By repeatedly performing such an operation for all measurement points in the measurement area set on the surface of the sample 11, position information of the boundary surface of the film 301 in the measurement area can be obtained.
[0047]
Next, a method for displaying the position information of the boundary surface of the film obtained in this manner will be described.
[0048]
In this case, the boundary surface of the film is obtained as described above. Here, as shown in FIG. 4, assuming that the acquired boundary surfaces of the films are 401, 402, and 403, a three-dimensional object is defined based on the information of these boundary surfaces 401, 402, and 403. Then, as shown in FIG. 4A, these defined three-dimensional objects are three-dimensionally stacked and displayed while maintaining the vertical positional relationship. Here, a part of the display part of the boundary surface 402 is hidden by the display of the boundary surface 401, and a part of the display part of the boundary surface 403 is hidden by the display of the boundary surface 402.
[0049]
From this state, when it is desired to display the entire boundary surface 403, the boundary surface 403 is selected by means not shown. Then, as shown in FIG. 4B, a boundary surface positioned adjacent to the boundary surface 403 so that the entire display of the selected boundary surface 403 is not hidden by the displays of the other boundary surfaces 401 and 402. The distance between the layer 402 and the layer 402 is adjusted, and the stack display is updated. Here, even when the viewpoint of the three-dimensional display is changed while the boundary surface 403 is selected, the display is automatically updated so that the entire boundary surface 403 can be observed. Also, when the display of the boundary surface 403 is rotated while continuously changing the viewpoint of the three-dimensional display, the display is updated so that the entire boundary surface 403 can be observed.
[0050]
In the above description, the case where the boundary surface 403 is selected by means (not shown) in order to display the entire boundary surface 403 is described. The distance in the Z-axis direction between 401 and boundary surface 402 is adjusted, and the display is updated so that the entire boundary surface 402 can be observed. Also, in FIG. 4B, the display is updated so that the entire boundary surface 403 can be observed by adjusting the distance between the boundary surface 402 and the boundary surface 403 in the Z-axis direction. As shown in c), the display can be updated so that the selected boundary surface 403 is apparently at the top. Further, the display may be updated so that the entire boundary surface 403 can be observed by making the boundary surface where the display overlaps with the selected boundary surface transparent or translucent.
[0051]
Therefore, in this way, since the three-dimensional display can be performed while maintaining the positional relationship between the boundary surfaces 401, 402, and 403 of the film, the shape of the film formed by these boundary surfaces 401, 402, and 403 can be intuitively determined. I can figure it out. In addition, since the display of the selected boundary surface can be prevented from being hidden by the display of the other boundary surfaces, the boundary surfaces 401, 402, and 403 can be easily displayed while maintaining the visibility of the respective boundary surfaces 401, 402, and 403. , 402, and 403, the state of the entire film can be observed in detail.
[0052]
In the above-described embodiment, the entire optical system including the objective lens 5 is moved in the Z-axis direction (optical axis direction) together with the epi-illumination arm 3 by the motor 12 for driving the Z-axis. Alternatively, the XY table 2 may be moved in the Z-axis direction. In short, it is only necessary that the sample placed on the XY table 2 and the objective lens 5 can be relatively moved in the Z-axis direction (optical axis direction). In the above description, focusing is performed on the entire range from the focusing start position to the focusing end position for each measurement point inside the measurement area to detect all the boundary surfaces of the film. Only the lower boundary surface may be detected, and then all the upper boundary surfaces may be detected. Further, the motorized XY table 2 is used as a means for moving the measurement point on the sample. A two-dimensional scanning mechanism is provided between the half mirror 603 and the objective lens 5 shown in FIG. The measurement point may be moved by moving the laser beam two-dimensionally on the sample 11 by a mechanism. In this case, all the measurement points in the measurement area are scanned by the two-dimensional scanning mechanism at each step while moving stepwise in the Z-axis direction, and all the output intensities of the photodetector 606 at each measurement point are taken into the PC 10. After the step movement of the Z-axis is completed, the change in output intensity from the focusing start position 310 to the focusing end position 311 is stored in the PC 10 for each measurement point as described with reference to FIG. The position information of the boundary surface of the film at each measurement point may be obtained by calculation.
[0053]
(Second embodiment)
Next, a second embodiment of the present invention will be described.
[0054]
In this case, since the measuring microscope and the autofocus unit used in the second embodiment are the same as those in FIGS. 1 and 2 described above, these drawings are used. Until the position information of the boundary surface of the film is obtained using the measuring microscope and the autofocus unit, it is the same as that described in the first embodiment, and the description is omitted here.
[0055]
Next, a method for displaying the position information of the boundary surface of the film obtained in this manner will be described.
[0056]
Also in this case, when the boundary surfaces 401, 402, and 403 of the film are acquired in the manner described above, a three-dimensional object is defined for these boundary surfaces 401, 402, and 403, and as shown in FIG. These defined three-dimensional objects are three-dimensionally stacked and displayed while maintaining the vertical positional relationship.
[0057]
In this state, when the boundary surfaces 401 and 402 are selected, a space sandwiched between the selected two boundary surfaces 401 and 402 is defined as a three-dimensional object. Then, the defined three-dimensional object is additionally displayed as a space 501 between the boundary surface 401 and the boundary surface 402 as shown in FIG. Needless to say, the space 501 sandwiched between the two boundary surfaces 401 and 402 is the film itself. By displaying the film itself three-dimensionally, the shape of the film can be intuitively grasped.
[0058]
In this case, by adjusting the distance between the boundary surface 401 and the space 501 in the Z-axis direction, the stacked display can be updated as shown in FIG. 5B. By doing so, the space 501 itself can be displayed independently.
[0059]
(Third embodiment)
Next, a third embodiment of the present invention will be described.
[0060]
In this case, since the measuring microscope and the autofocus unit used in the third embodiment are the same as those in FIGS. 1 and 2 described above, these drawings are used. Until the position information of the boundary surface of the film is obtained using the measuring microscope and the autofocus unit, it is the same as that described in the first embodiment, and the description is omitted here.
[0061]
Next, a method for displaying the position information of the boundary surface of the film obtained in this manner will be described.
[0062]
Also in this case, a plurality of boundary surfaces 401, 402, and 403 of the film are obtained in the manner described above. Next, a boundary surface to be processed, for example, the boundary surface 401 is selected, and display data that can be generated from the information on the selected boundary surface 401 is specified from a plurality.
[0063]
Here, as the display data that can be specified, (a) the Z coordinate of each position constituting the boundary surface to be processed, and (b) each position between the reference boundary surface and the boundary surface to be processed which are specified in advance. (C) the distance in the normal direction obtained for each position of the predetermined reference boundary surface and the processing target boundary surface, and (d) the predetermined reference reference surface and the processing target boundary. This is the shortest distance obtained for each position on the surface.
[0064]
Next, a display method to be applied to the display data is specified. The display methods that can be specified here are (a) a display method using a look-up table that changes the display color according to the value size, and (b) a contour line display method according to the value size.
[0065]
Then, the texture based on the display data is pasted and displayed on the surface of the boundary surface 401 to be processed by the display method specified in advance.
[0066]
FIG. 6 shows a display example of the texture pasted in this manner. FIG. 6A shows a texture 404 in which the boundary surface 401 shown in FIG. 4A is colored according to the Z coordinate. FIG. 4B shows an example in which a texture 405 in which contour lines are drawn on the surface of the boundary surface 401 according to the Z coordinate is pasted on the boundary surface 401 shown in FIG. FIG. 4C shows an example in which the boundary surface 402 shown in FIG. 4A is designated as a reference, and a Z coordinate difference between the boundary surface 401 and the reference boundary surface 402 is calculated. An example is shown in which a texture 406 colored with color is pasted.
[0067]
In this way, various textures created based on the shape and information of the boundary surface can be pasted and displayed on the surface of the boundary surface specified as a processing target. The evaluation of the overall characteristics can be compared and evaluated on various evaluation scales.
[0068]
An imaging device (not shown) is connected to the lens barrel 7 of the microscope main body 1 described with reference to FIG. 1, and the imaging device and the PC 10 are connected by a cable (not shown), and an image captured by the imaging device is taken into the PC 10. In this way, luminance information may be acquired as information on the boundary surface of the film from the image information captured by the imaging device, and the luminance information may be pasted as a texture on the surface of the boundary surface designated as a processing target.
[0069]
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.
[0070]
In this case, since the measuring microscope and the autofocus unit used in the fourth embodiment are the same as those in FIGS. 1 and 2 described above, these drawings are used. Until the position information of the boundary surface of the film is obtained using the measuring microscope and the autofocus unit, it is the same as that described in the first embodiment, and the description is omitted here.
[0071]
Next, a method for displaying the position information of the boundary surface of the film obtained in this manner will be described.
[0072]
Also in this case, the boundary surface of the film is obtained in the manner described in the first embodiment. Here, as shown in FIG. 7 (a), a display in which the cross-sectional directions of these boundary surfaces 701, 702, 703 can be observed based on the position information of the three boundary surfaces 701, 702, 703 of the two-layer film. Has been done.
[0073]
From this state, first, the boundary surface 702 is selected, and an instruction is given to transform the boundary surface 702 into, for example, a plane. Then, the average value Zave of the Z coordinate is calculated from all the position information forming the boundary surface 702, the Z coordinate of each position is set to the average value Zave, and the movement value of the Z coordinate at that time is stored as the deformation amount. .
[0074]
Thereafter, the position information of each of the other boundary surfaces 701 and 703 looking into the boundary surface 702 is also deformed into a plane based on the deformation amount of the boundary surface 702. Then, after finishing the deformation processing of all the boundary surfaces 701, 702, 703, the display is updated as shown in FIG.
[0075]
With this configuration, the shape of each of the boundary surfaces 701, 702, and 703 can be displayed in a state in which the influence of the film deformation has been removed, so that the change in each film thickness can be displayed easily.
[0076]
In the above description, as the deformation method, the boundary surface 702 is deformed into a plane whose Z coordinate is Zave. For example, the shape to be deformed is not a plane, but an arbitrary shape such as a convex surface or a concave surface can be designated. Is also good. Alternatively, a plurality of shapes to be deformed may be prepared in advance and selected, or the shape type and its parameters may be input.
[0077]
(Fifth embodiment)
Next, a fifth embodiment of the present invention will be described.
[0078]
In this case, since the measuring microscope and the autofocus unit used in the fifth embodiment are the same as those in FIGS. 1 and 2 described above, these drawings are used. Until the position information of the boundary surface of the film is obtained using the measuring microscope and the autofocus unit, it is the same as that described in the first embodiment, and the description is omitted here.
[0079]
Next, a method for displaying the position information of the boundary surface of the film obtained in this manner will be described.
[0080]
Also in this case, the boundary surface of the film is obtained in the manner described in the first embodiment. Here, as shown in FIG. 8A, a display is made such that the cross-sectional direction of the boundary surfaces 801 and 802 can be observed based on the position information of the boundary surfaces 801 and 802. This display also shows that the measurement point 803 on the boundary surface 801 and the measurement point 804 on the boundary surface 802 are extremely close to each other.
[0081]
When the measurement points 803 and 804 of the two boundary surfaces 801 and 802 are very close in this way, the change in the output intensity of the photodetector 606 described in FIG. 2 also becomes as shown in FIG. 8B. Therefore, since it cannot be separated into two peaks, it may be detected as one boundary surface.
[0082]
Therefore, in this embodiment, a histogram is created for the number of boundary surfaces detected for all measurement points, and the number of boundary surfaces that appeared most frequently is regarded as the number of boundary surfaces when normally detected. For measurement points at which a boundary surface other than the above is detected, a different display effect is provided by blinking the display or the like, so that measurement points that have been normally detected and display are distinguished.
[0083]
On the other hand, when the boundary surfaces of the film are acquired in the manner described in the first embodiment, it is assumed that the same number of boundary surfaces exist for all the measurement points. It is also conceivable that a boundary surface 807 exists partially between the boundary surface 805 and the boundary surface 806 as shown in FIG.
[0084]
In such a case, the number or area in which the number of measurement points where the number of boundary surfaces detected is the same as the number of boundary surfaces detected by the measurement point of interest continuously exists around the periphery is calculated as an evaluation value, and the calculated evaluation value is calculated. When the value is equal to or larger than the threshold value, it may be considered that the detection is normally performed.
[0085]
In addition, as a display effect for distinguishing a portion where the boundary surface can be normally detected from a portion other than the portion, not only blinking but also transparency or changing the color can be considered.
[0086]
With this configuration, it is possible to determine at a glance, from the displayed contents, a portion where the boundary surface can be normally measured and a portion where the boundary surface has not been measured. Therefore, it is possible to accurately determine the reliability of the acquired information of the membrane boundary surface. be able to.
[0087]
In addition, the present invention is not limited to the above-described embodiment, and can be variously modified in an implementation stage without departing from the spirit of the invention.
[0088]
Furthermore, the above embodiments include inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent features. For example, even if some components are deleted from all the components shown in the embodiments, the problem described in the column of the problem to be solved by the invention can be solved, and the problem described in the column of the effect of the invention can be solved. In the case where the effect described above is obtained, a configuration from which this configuration requirement is deleted can be extracted as an invention.
[0089]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a film layer display method in which display according to various evaluation scales can be easily viewed and intuitively displayed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of a measurement microscope to which a film layer display method of the present invention is applied.
FIG. 2 is a diagram showing a schematic configuration of an autofocus unit to which the film layer display method of the present invention is applied.
FIG. 3 is a view for explaining a method of acquiring a boundary surface of a film used in the method of displaying a film layer according to the present invention.
FIG. 4 is a view showing a display example of a film thickness measurement result according to the first embodiment of the present invention.
FIG. 5 is a diagram illustrating a display example of a film thickness measurement result according to the second embodiment of the present invention.
FIG. 6 is a diagram illustrating a display example of a film thickness measurement result according to the third embodiment of the present invention.
FIG. 7 is a diagram illustrating a display example of a film thickness measurement result according to a fourth embodiment of the present invention.
FIG. 8 is a diagram showing a display example of a film thickness measurement result according to a fifth embodiment of the present invention.
FIG. 9 is a view showing a display example of a conventional film thickness measurement result.
[Explanation of symbols]
1. The microscope body
1a: Base part
1b ... trunk
2. XY table
3. Epi-illumination arm
4. Revolver
5. Objective lens
6 ... Auto focus unit
601 laser light source
602… Mirror
603: Half mirror
604: imaging lens
605: Pinhole
606 photodetector
607 ... CPU
7 ... Barrel
8. Eyepiece
9 Communication cable
10 PC
11 ... sample
12 ... Motor
301 ... film
302, 303 ... boundary surface
304: locus
305, 306 ... position
308, 309 ... peak position
310: Focusing start position
311 ... Focusing end position
401 to 403 ... Boundary surface
501 ... space
701, 702 ... boundary surface
801, 802, 805 to 807 ... boundary surface
802 ... Boundary surface
803, 804 ... measurement points

Claims (5)

層状に形成された膜のそれぞれの境界面の情報を検出し、これら検出された境界面を上下の位置関係を保った状態で3次元的に積層表示する膜層表示方法において、
前記3次元的に積層表示された境界面のうち任意の境界面を選択することにより、該選択された境界面と隣接して表示される境界面との間隔を調整し、前記積層表示を更新可能にしたことを特徴とする膜層表示方法。
A film layer display method for detecting information of each boundary surface of a film formed in a layered form and three-dimensionally stacking and displaying these detected boundary surfaces while maintaining a vertical positional relationship,
By selecting an arbitrary boundary surface among the three-dimensionally displayed boundary surfaces, an interval between the selected boundary surface and a boundary surface displayed adjacently is adjusted, and the stacked display is updated. A method for displaying a film layer, wherein the method is enabled.
前記3次元的に積層表示された境界面のうち2つの境界面を選択することにより、これら選択された境界面で挟まれた空間を3次元的に追加表示可能としたことを特徴とする請求項1記載の膜層表示方法。The space between the selected boundary surfaces can be additionally displayed three-dimensionally by selecting two of the three-dimensionally stacked boundary surfaces. Item 6. The method for displaying a film layer according to Item 1. 前記3次元的に積層表示された境界面のうち処理対象となる境界面を選択し、次いで、前記選択された境界面の情報から生成可能な表示データと該表示データに適用する表示手法をそれぞれ指定することにより、
前記処理対象の境界面の表面に、前記指定された表示手法により前記表示データによるテクスチャを貼り付け表示することを特徴とする請求項1または2記載の膜層表示方法。
A boundary surface to be processed is selected from among the three-dimensionally displayed boundary surfaces, and then display data that can be generated from information of the selected boundary surface and a display method that is applied to the display data are respectively described. By specifying
3. The film layer display method according to claim 1, wherein a texture based on the display data is pasted and displayed on the surface of the boundary surface to be processed by the specified display method.
前記3次元的に積層表示された境界面のうち処理対象となる境界面を選択し、該選択された境界面の変形方法を指定することにより、
前記選択された境界面を、前記指定した形状に変形するとともに、この変形にともなう変形量を記憶し、
前記処理対象の境界面以外の境界面を、前記記憶された変形量に基づいて変形させ、前記選択された境界面とともに表示することを特徴とする請求項1乃至3のいずれかに記載の膜層表示方法。
By selecting a boundary surface to be processed from among the three-dimensionally stacked boundary surfaces, and specifying a deformation method of the selected boundary surface,
The selected boundary surface is deformed into the specified shape, and a deformation amount associated with the deformation is stored,
The film according to any one of claims 1 to 3, wherein a boundary surface other than the boundary surface to be processed is deformed based on the stored deformation amount, and is displayed together with the selected boundary surface. Layer display method.
前記3次元的に積層表示された境界面のうち正常に検出できた箇所と検出できなかった箇所を判別し、該正常に検出できなかった箇所に、前記正常に検出できた箇所と異なる表示効果を持たせることを特徴とする請求項1乃至4のいずれかに記載の膜層表示方法。In the three-dimensionally displayed boundary surface, a portion that has been normally detected and a portion that has not been detected are determined, and a display effect that differs from the normally detected portion is provided in the portion that has not been detected normally. The method according to any one of claims 1 to 4, further comprising:
JP2002381491A 2002-12-27 2002-12-27 Film layer display method Withdrawn JP2004214382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002381491A JP2004214382A (en) 2002-12-27 2002-12-27 Film layer display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002381491A JP2004214382A (en) 2002-12-27 2002-12-27 Film layer display method

Publications (1)

Publication Number Publication Date
JP2004214382A true JP2004214382A (en) 2004-07-29

Family

ID=32817390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002381491A Withdrawn JP2004214382A (en) 2002-12-27 2002-12-27 Film layer display method

Country Status (1)

Country Link
JP (1) JP2004214382A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021517960A (en) * 2018-02-27 2021-07-29 エーファウ・グループ・エー・タルナー・ゲーエムベーハー How and equipment to identify mark fields and positions

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021517960A (en) * 2018-02-27 2021-07-29 エーファウ・グループ・エー・タルナー・ゲーエムベーハー How and equipment to identify mark fields and positions
US11680792B2 (en) 2018-02-27 2023-06-20 Ev Group E. Thallner Gmbh Incoming runout measurement method
JP7480049B2 (en) 2018-02-27 2024-05-09 エーファウ・グループ・エー・タルナー・ゲーエムベーハー Method and apparatus for identifying marked fields and positions - Patents.com

Similar Documents

Publication Publication Date Title
EP2910993B1 (en) Digital microscope
US8350905B2 (en) Microscope system, image generating method, and program for practicing the same
CN111256616A (en) Metering-level 3D super-depth-of-field microscopic system and detection method
JP5221614B2 (en) Three-dimensional confocal observation device and observation focal plane displacement / correction unit
KR102615578B1 (en) Characterizing a height profile of a sample by side view imaging
CN110214290A (en) Microspectrum measurement method and system
KR20200041982A (en) Real-time autofocus scanning
JP4700299B2 (en) Confocal scanning microscope
JP2005520128A (en) Apparatus and method for measuring the geometry of a generally two-dimensional object.
CN211651535U (en) Metering-grade 3D ultra-depth-of-field confocal microscope system
JP4547669B2 (en) Height measuring device
KR101867081B1 (en) Confocal 3d sensing system with digital optical system
JP4603177B2 (en) Scanning laser microscope
JP2004214382A (en) Film layer display method
JP2023092515A (en) Microscope control device
US20180180867A1 (en) Microscope and setting support method
Manske Modular family of sensors for a nanopositioning and nanomeasuring machine
JP2002039722A (en) Device and method for data acquisition in film thickness measurement and recording medium stored with program for data acquisition
JP2006337701A5 (en)
Sueishi et al. Continuous high-resolution observation system using high-speed gaze and focus control with wide-angle triangulation
JP2003057553A (en) Confocal scanning type microscope
CN111750991A (en) Spectroscopic camera and inspection system
JP2020159847A (en) Spectroscopic inspection method, spectroscopic image processing device, and robot system
US20040160610A1 (en) Surface inspecting apparatus
JP2015220625A (en) Image acquisition device and image acquisition method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060307