JP4085635B2 - Outline extracting method and apparatus and program thereof - Google Patents

Outline extracting method and apparatus and program thereof Download PDF

Info

Publication number
JP4085635B2
JP4085635B2 JP2002012397A JP2002012397A JP4085635B2 JP 4085635 B2 JP4085635 B2 JP 4085635B2 JP 2002012397 A JP2002012397 A JP 2002012397A JP 2002012397 A JP2002012397 A JP 2002012397A JP 4085635 B2 JP4085635 B2 JP 4085635B2
Authority
JP
Japan
Prior art keywords
contour
data
pattern
edge
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002012397A
Other languages
Japanese (ja)
Other versions
JP2003216959A (en
Inventor
勲 米倉
裕一 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toppan Inc
Original Assignee
Toppan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppan Inc filed Critical Toppan Inc
Priority to JP2002012397A priority Critical patent/JP4085635B2/en
Publication of JP2003216959A publication Critical patent/JP2003216959A/en
Application granted granted Critical
Publication of JP4085635B2 publication Critical patent/JP4085635B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は半導体製造のリソグラフィ工程に用いられるフォトマスクのマスクパターン画像や、リソグラフィにより半導体ウェハ上に作成されたウェハパターンの画像から、パターンの輪郭線を抽出するための輪郭抽出方法及びその装置及びそのプログラムに関する。
【0002】
【従来の技術】
近年の半導体LSIの微細化に伴い、パターン原版としてのフォトマスクも同様に微細化への対応を迫られており、同時に高精度化への要求は非常に厳しい。特に最近は、微細なパターン形状の劣化を防ぐために、光学原理を積極的に利用した光近接効果補正マスク(以下OPCマスクと称する)なども増え始め、さらに高度な微細加工技術が要求されるようになってきている。
【0003】
ここでOPCマスクについて説明する。OPCマスクとは、ウェハ露光転写時に回路パターン形状が精度良く転写されるように、本来の回路パターンに近接、あるいは接触するようにして従来パターンよりも小さな光近接効果補正パターン(以下OPCパターンと称する)が付加されているマスクである。つまり、最先端のフォトマスクにおいては、パターンの微細化が進む上に微細補助パターンであるOPCパターンが付加されるため、微細かつ複雑な形状を精度よく作り込む技術が必須となっている。
【0004】
そこで、製造及び検査技術の課題としてパターン形状精度の問題が重要視されてきている。
【0005】
一方、リソグラフィ工程によってウェハ上に露光転写されたパターンにおいても、より微細なパターン(フォトマスクパターンの4分の1〜5分の1)の形状を精度良く作り込む技術が必要であり、製造及び検査技術の課題としてフォトマスクと全く同様にパターン形状精度の問題が重要視される。
【0006】
パターン形状の精度を確認する手段として、光学顕微鏡やSEMによるウェハパターン及びフォトマスクパターンの観察画像をコンピュータに画像データとして読み込んだ後、コンピュータの画面上でパターン形状と設計パターンを比較して形状の善し悪しを判断したり、画像処理を施してパターンの輪郭線を抽出し、この輪郭線のデータを元に形状の特性値を定量的に計測する方法などがある。
【0007】
一般的に画像処理手法によるパターンの輪郭線抽出は、まずパターン画像をパターンと背景の2値画像に変換し、パターン部分の輪郭を追跡処理することで行う。この場合パターン画像を2値画像に変換する2値化処理を行う必要があり、そのための最適な閾値を設定する必要がある。2値化のための閾値を求める方法としては次のようなものがある。
【0008】
第1の方法はモード法である。モード法とは、パターン画像のヒストグラム中にはパターン部分と背景部分を表す2つの山(モード)があり(図14)、濃度分布が双方形になることを前提に、2つの山を分離する谷となるところをしきい値とする方法である。
【0009】
また第2の方法としてp−タイル法がある。p−タイル法はパターン画像の中でパターン部分の占める割合が予めP%であると分かっている場合に、ヒストグラムから累積分布がP%になるようなところをしきい値とする方法である。
【0010】
さらに第3の方法に判別分析法がある。判別分析法とは、マスクパターン画像のヒストグラムをしきい値kで2つのクラスに分割したと仮定したとき、2つのクラス間の分離が最も良くなるようなkを求める方法である。
【0011】
また、マスクパターン画像にシェーディングなどの濃淡ムラが生じている場合には、画像を任意数の領域に分割してから、各分割領域ごとにしきい値を算出する方法もある。
【0012】
ここで濃淡ムラがある画像とは、図15に示す原画像のようにパターン部分または背景部分の濃度分布が一様でなく、場所によって濃度値が異なる画像のことである。この画像を画像全体を一括して設定したしきい値(以下固定しきい値と呼ぶ)で2値化した結果を右側に示す。処理結果を見るとパターンの左上のコーナー部分は、適切に2値化できているが、右下のコーナー部分は背景からうまく分離できていないことが分かる。つまり濃淡ムラがある画像は、パターン部分と背景部分を分離するしきい値が場所によって異なるため、固定しきい値による処理では、適切な2値化が難しいという問題点がある。特にフォトマスクのSEM画像の場合、マスクがチャージアップしてしまうことにより、パターン画像に濃淡ムラが生じやすい。
【0013】
この問題を回避する方法が、画像を任意数の領域に分割してそれぞれのしきい値を求める方法である。図16に原画像を4分割し、各分割領域でしきい値を設定して2値化したパターン画像を示す。これを見ると、パターンの右下部分も背景との分離ができており、画像全体のしきい値を設定する場合に比べ適切な2値化が行えることが分かる。
【0014】
【発明が解決しようとする課題】
しかしながら、輪郭を追跡処理するための前処理としての前記各種しきい値を求める方法には次のような課題が含まれている。
【0015】
モード法は濃度分布が双方形になることが前提になっているため、画像の濃度分布の状態によって使用できない場合がある。またp−タイル法は、パターン画像においてパターン部分の面積が予め分かっていることは少ないと考えられ、利用できる場面は限られる。これら2つの方法は、パターン画像を分割する場合においても同様である。
【0016】
また判別分析法ではマスクパターン画像にシェーディングなどの濃淡ムラがなければ、ある程度良いしきい値を得ることができる。しかし、濃淡ムラがある場合には画像全体を適切に2値化するしきい値を求めることは前述の理由により難しい。そして、パターン画像を分割して分割領域それぞれに判別分析法を用いた場合は、領域内にパターン部分と背景部分の両方が含まれていれば良いしきい値を得ることができるが、領域内にパターン部分又は背景部分のみしか含まれていない場合には、ノイズが抽出されてしまうという欠点がある。パターン画像によって最適な分割方法が異なるため、ノイズが抽出されないように分割方法を設定することは非常に難しい。
【0017】
以上のようにノイズや濃淡ムラがあるパターン画像においては、パターン部と背景部とを分離するための適切なしきい値を安定的に求めることは非常に困難であり、パターン画像を2値化した後パターン部分を追跡処理するという従来の輪郭線抽出方法は、ウェハパターン画像やフォトマスクパターン画像の場合うまくいかないことが多い。
【0018】
本発明は上記の問題点を鑑みてなされたもので、形状の評価や計測に利用できるパターンの輪郭線を得るため、画像撮影時の様々な制約によってノイズや濃淡ムラが生じたウェハパターン画像及びフォトマスクパターン画像においても、最適なパターンの輪郭抽出を可能とする方法を提供することを課題とする。
【0019】
【課題を解決するための手段】
本発明はかかる課題を解決するものであり、請求項1に係る発明は、半導体ウェハ及びフォトマスクの多階調を有するパターン画像からパターンの輪郭を抽出する輪郭抽出方法において、(a)輪郭を抽出する画像の範囲を選択する領域選択ステップと、(b)選択された領域の画像情報から、エッジデータを算出する際の差分を計算する画素間の距離を階層とし、縦横方向のエッジデータと階層構造を持ち、エッジデータを多重化した階層エッジデータを作成するエッジデータ作成ステップと、(c)パターンの輪郭を追跡し始める点を抽出する追跡開始点抽出ステップと、(d)階層エッジデータについて、用いる階層を設定し、該階層におけるエッジデータの値を比較し、エッジデータの最大値を順に辿ることにより、パターンを輪郭追跡し、 輪郭追跡してきたエッジデータの値からしきい値を設定し、輪郭候補点のエッジデータの値がしきい値以下のとき階層を変更することにより、パターンの輪郭データを生成する輪郭追跡ステップと、(e)パターンの輪郭データから、一定間隔毎にパターンの輪郭にあたるポイントを、代表点として抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理ステップと、(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成ステップと、からなるステップを実行することによりパターン画像の輪郭を抽出することを特徴とする輪郭抽出方法である。
【0020】
本発明の請求項2に係る発明は、前記(d)階層エッジデータを利用してパターンの輪郭データを生成する輪郭追跡ステップにおいて、
(a)追跡方向と追跡距離から追跡する範囲を予め設定する追跡範囲設定ステップと、
(b)追跡範囲の中から方向に対応した階層エッジデータを利用して輪郭候補点を探す輪郭候補点探索ステップと、
(c)輪郭候補点が見つからない場合に階層エッジデータの使用階層を増加させるとともに、階層の上限を超えた場合には使用階層を初期化して追跡距離を増加させる使用階層・追跡距離更新ステップと、
(d)輪郭候補点がみつかった場合に輪郭候補点を輪郭データに追加し、追跡方向を更新するとともに使用階層と追跡距離を初期化する輪郭データ追加ステップと、
(e)輪郭データが追加される毎に輪郭の角度を確認し、角度が一定のしきい値以上となる場合にはその部分の輪郭データを削除し、別の追跡方向を設定する輪郭の角度確認ステップと、
(f)領域外に出るか追跡開始点に戻るまで前記の全ステップを繰り返す繰返しステップと、
からなるステップを実行することによりパターン画像の輪郭を抽出することを特徴とする請求項1記載の輪郭抽出方法である。
【0021】
本発明の請求項3に係る発明は、請求項1、又は請求項2記載の輪郭抽出方法において、請求項1記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理ステップにあって、輪郭データ補正処理ステップは、動的輪郭モデル計算によって輪郭データを滑らかな輪郭に補正する際に、パターンの滑らかさと元画像との一致度についての重み係数を適宜設定するステップと、からなるステップを実行することにより、画像のノイズによらずに最適な輪郭が抽出できることを特徴とする輪郭抽出方法である。
【0022】
本発明の請求項4に係る発明は、請求項1、乃至請求項3のいずれか1項記載の輪郭抽出方法において、請求項1記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理ステップにあって、元パターン画像の縁が太さを持っている場合は、
(a)元パターン画像の縁の内側か外側か中心のいずれを輪郭として抽出するかを選択するステップと、
(b)選択に応じて輪郭データを変換する輪郭データ変換ステップと、
からなるステップを実行することにより、太さのある縁の任意のエッジを輪郭線として抽出できることを特徴とする輪郭抽出方法である。
【0023】
本発明の請求項5に係る発明は、請求項1、乃至請求項4のいずれか1項記載の輪郭抽出方法において、請求項1記載の(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成ステップにあって、輪郭線生成ステップ後、選択された領域内に複数のパターンが存在する場合は、
(a)領域内に別のパターンがあるかを判定するステップと、
(b)パターンが無くなるまで輪郭抽出を繰り返すパターンの有無判定ステップと、
からなるステップを実行することにより、複数パターンの一括輪郭抽出が可能となることを特徴とする輪郭抽出方法である。
【0024】
本発明の請求項6に係る発明は、半導体ウェハ及びフォトマスクの多階調を有するパターン画像からパターンの輪郭を抽出する輪郭抽出装置において、(a)輪郭を抽出する画像の範囲を選択する領域選択手段と、(b)選択された領域の画像情報から、エッジデータを算出する際の差分を計算する画素間の距離を階層とし、縦横方向のエッジデータと階層構造を持ち、エッジデータを多重化した階層エッジデータを作成するエッジデータ作成手段と、(c)パターンの輪郭を追跡し始める点を抽出する追跡開始点抽出手段と、(d)階層エッジデータについて、用いる階層を設定し、該階層におけるエッジデータの値を比較し、エッジデータの最大値を順に辿ることにより、パターンを輪郭追跡し、 輪郭追跡してきたエッジデータの値からしきい値を設定し、輪郭候補点のエッジデータの値がしきい値以下のとき階層を変更することにより、パターンの輪郭データを生成する輪郭追跡手段と、(e)パターンの輪郭データから、一定間隔毎にパターンの輪郭にあたるポイントを、代表点として抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理手段と、(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成手段と、からなることを特徴とする輪郭抽出装置である。
【0025】
本発明の請求項7に係る発明は、前記(d)階層エッジデータを利用してパターンの輪郭データを生成する輪郭追跡手段が、
(a)追跡方向と追跡距離から追跡する範囲を予め設定する追跡範囲設定手段と、
(b)追跡範囲の中から方向に対応した階層エッジデータを利用して輪郭候補点を探す輪郭候補点探索手段と、
(c)輪郭候補点が見つからない場合に階層エッジデータの使用階層を増加させるとともに、階層の上限を超えた場合には使用階層を初期化して追跡距離を増加させる使用階層・追跡距離更新手段と、
(d)輪郭候補点がみつかった場合に輪郭候補点を輪郭データに追加し、追跡方向を更新するとともに使用階層と追跡距離を初期化する輪郭データ追加手段と、
(e)輪郭データが追加される毎に輪郭の角度を確認し、角度が一定のしきい値以上となる場合にはその部分の輪郭データを削除し、別の追跡方向を設定する輪郭の角度確認手段と、
(f)領域外に出るか追跡開始点に戻るまで前記の全ステップを繰り返す繰返し手段と、
からなることを特徴とする請求項6記載の輪郭抽出装置である。
【0026】
本発明の請求項8に係る発明は、請求項6、又は請求項7記載の輪郭抽出装置において、請求項6記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理手段は、動的輪郭モデル計算によって輪郭データを滑らかな輪郭に補正する際に、パターンの滑らかさと元画像との一致度についての重み係数を適宜設定する手段を備え、画像のノイズによらずに最適な輪郭が抽出できることを特徴とする輪郭抽出装置である。
【0027】
本発明の請求項9に係る発明は、請求項6、乃至請求項8のいずれか1項記載の輪郭抽出装置において、請求項6記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理手段は、元パターン画像の縁が太さを持っている場合は、
(a)元パターン画像の縁の内側か外側か中心のいずれを輪郭として抽出するかを選択する手段と、
(b)選択に応じて輪郭データを変換する輪郭データ変換手段と、
からなり、太さのある縁の任意のエッジを輪郭線として抽出できることを特徴とする輪郭抽出装置である。
【0028】
本発明の請求項10に係る発明は、請求項6、乃至請求項9のいずれか1項の輪郭抽出装置において、請求項6記載の(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成手段は、輪郭線生成手段後、選択された領域内に複数のパターンが存在する場合は、
(a)領域内に別のパターンがあるかを判定する手段と、
(b)パターンが無くなるまで輪郭抽出を繰り返すパターンの有無判定手段と、からなり、複数パターンの一括輪郭抽出が可能となることを特徴とする輪郭抽出装置である。
【0029】
本発明の請求項11に係る発明は、半導体ウェハ及びフォトマスクの多階調を有するパターン画像からパターンの輪郭を抽出する輪郭抽出プログラムにおいて、(a)輪郭を抽出する画像の範囲を選択する領域選択プログラムと、(b)選択された領域の画像情報から、エッジデータを算出する際の差分を計算する画素間の距離を階層とし、縦横方向のエッジデータと階層構造を持ち、エッジデータを多重化した階層エッジデータを作成するエッジデータ作成プログラムと、(c)パターンの輪郭を追跡し始める点を抽出する追跡開始点抽出プログラムと、(d)階層エッジデータについて、用いる階層を設定し、該階層におけるエッジデータの値を比較し、エッジデータの最大値を順に辿ることにより、パターンを輪郭追跡し、 輪郭追跡してきたエッジデータの値からしきい値を設定し、輪郭候補点のエッジデータの値がしきい値以下のとき階層を変更することにより、パターンの輪郭データを生成する輪郭追跡プログラムと、(e)パターンの輪郭データから、一定間隔毎にパターンの輪郭にあたるポイントを、代表点として抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理プログラムと、(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成プログラムと、からなることを特徴とする輪郭抽出プログラムである。
【0030】
本発明の請求項12に係る発明は、前記(d)階層エッジデータを利用してパターンの輪郭データを生成する輪郭追跡プログラムにおいて、
(a)追跡方向と追跡距離から追跡する範囲を予め設定する追跡範囲設定プログラムと、
(b)追跡範囲の中から方向に対応した階層エッジデータを利用して輪郭候補点を探す輪郭候補点探索プログラムと、
(c)輪郭候補点が見つからない場合に階層エッジデータの使用階層を増加させるとともに、階層の上限を超えた場合には使用階層を初期化して追跡距離を増加させる使用階層・追跡距離更新プログラムと、
(d)輪郭候補点がみつかった場合に輪郭候補点を輪郭データに追加し、追跡方向を更新するとともに使用階層と追跡距離を初期化する輪郭データ追加プログラムと、
(e)輪郭データが追加される毎に輪郭の角度を確認し、角度が一定のしきい値以上となる場合にはその部分の輪郭データを削除し、別の追跡方向を設定する輪郭の角度確認プログラムと、
(f)領域外に出るか追跡開始点に戻るまで前記の全ステップを繰り返す繰返しプログラムと、
からなることを特徴とする請求項11記載の輪郭抽出プログラムである。
【0031】
本発明の請求項13に係る発明は、請求項11、又は請求項12記載の輪郭抽出プログラムにおいて、請求項11記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理プログラムは、動的輪郭モデル計算によって輪郭データを滑らかな輪郭に補正する際に、パターンの滑らかさと元画像との一致度についての重み係数を適宜設定するプログラムと、からなる画像のノイズによらずに最適な輪郭が抽出できることを特徴とする輪郭抽出プログラムである。
【0032】
本発明の請求項14に係る発明は、請求項11、乃至請求項13のいずれか1項記載の輪郭抽出プログラムにおいて、請求項11記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理プログラムは、元パターン画像の縁が太さを持っている場合は、
(a)元パターン画像の縁の内側か外側か中心のいずれを輪郭として抽出するかを選択するプログラムと、
(b)選択に応じて輪郭データを変換する輪郭データ変換プログラムと、
からなり、太さのある縁の任意のエッジを輪郭線として抽出できることを特徴とする輪郭抽出プログラムである。
【0033】
本発明の請求項15に係る発明は、請求項11、乃至請求項14のいずれか1項記載の輪郭抽出プログラムにおいて、請求項11記載の(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成プログラムにあって、輪郭線生成プログラムの後、選択された領域内に複数のパターンが存在する場合は、
(a)領域内に別のパターンがあるかを判定するプログラムと、
(b)パターンが無くなるまで輪郭抽出を繰り返すパターンの有無判定プログラムと、
からなることにより、複数パターンの一括輪郭抽出が可能となることを特徴とする輪郭抽出プログラムである。
【0034】
本発明の請求項16に係る発明は、請求項11、乃至請求項15のいずれか1項記載の輪郭抽出プログラムを搭載することを特徴とする輪郭抽出装置である。
【0035】
【発明の実施の形態】
以下において本発明の内容について解説する。
【0036】
図1に本発明の輪郭抽出の処理フローを示す。光学顕微鏡やSEM等により撮影したフォトマスクパターンやウェハパターンのカラー、又はモノクロの観察画像をコンピュータに読み込み、これをグレーの多階調画像に変換したものをパターン画像と呼ぶ。
【0037】
最初にこのパターン画像のどの範囲を輪郭抽出するかを領域の選択(S1)により設定する。これは、コンピュータディスプレイ上に表示されたパターン画像を見ながら、マウスなどのポインティングデバイスを利用して行う。
【0038】
次に選択された画像領域の濃淡データを元に、階層エッジデータの作成処理(S2)を行う。
【0039】
前記の階層エッジデータの作成は図2に示すフローに従って行う。階層エッジデータは、濃淡データの各画素の差分によって求めるエッジデータを多重化したものである。
【0040】
図2は、まず、
(a)選択された画像領域に含まれるノイズを除去することを目的に平滑化処理を行う(101)。
(b)次に階層kを1〜5まで変化させながら、横方向のエッジデータを算出する(103)。
(c)続いて縦方向のエッジデータを算出する(104)。
【0041】
この階層エッジデータの具体的な算出方法を図3に示す。図3において画像領域の濃淡データをbmp(幅:Width、高さ:Height)、幅方向の位置をi、高さ方向の位置をjとすると、縦方向の階層エッジデータは式(1)、横方向の階層エッジデータは式(2)によって算出される。階層kというのはエッジデータを算出する際の、差分を計算する画素間の距離のことである。なお、計算の際に配列の添字が濃淡データの範囲(1〜Width、1〜Height)を超える場合は、範囲内となるように適当に添字の値を変換する。階層エッジデータは階層kと横方向の位置i、縦方向の位置jの3つのパラメータによる3次元配列で表現される。それぞれの式において画像ノイズの影響を削減するため、点線矢印で示される部分の画素間の差分も計算し、それらの平均を算出している。縦方向の階層エッジデータは鉛直方向のエッジがある場合に大きな値を持ち、横方向の階層エッジデータは水平方向のエッジがある場合に大きな値を持つ。
【0042】
本発明の処理フロー図1のフローに戻り、説明する。
【0043】
次に追跡開始点の抽出処理(S3)を行う。
【0044】
追跡開始点はパターンの輪郭を追跡し始める座標点のことである。輪郭抽出を行うパターンは、領域の選択の仕方によってパターン全体の一部が切り取られる形になる場合と、選択領域内にパターン全体が含まれる場合とが考えられる。ここでは前者を部分パターン、後者を全体パターンと呼ぶ。部分パターンは選択領域矩形の四辺上のいずれかの地点から輪郭が始まり、四辺上の別の地点で輪郭が終わる形態になる。そのため、追跡開始点は四辺上から探すようにする。一方、全体パターンはパターンが閉じているため、パターン上のどの地点を追跡開始点としても、追跡処理によって最終的に元の開始点に戻ることになる。従って、全体パターンを抽出する場合には、選択領域内の任意な位置から開始点を探すこととする。
【0045】
前記の追跡開始点の抽出処理のフローを図4に示す。
【0046】
以下に図4について解説する。なお、図4のフローで使用する階層エッジデータは階層2のものとする。
【0047】
図4は、
(a)追跡開始点かどうか判断するための開始点判定しきい値を算出する(201)。開始点判定しきい値は、縦横両方向の階層エッジデータから最大値と最小値を抽出し、その平均値とする。
(b)次に、選択領域の四辺上の階層エッジデータの中から最大値とその座標を抽出する(202)。部分パターンの場合は、各辺と切取られるパターンの端は局所的にはほぼ直交すると思われる。そのため、上辺と底辺の(鉛直方向のエッジ情報を多く含む)縦方向の階層エッジデータと、左辺と右辺の(水平方向のエッジ情報を多く含む)横方向の階層エッジデータから最大値を抽出する。
(c)そして、この最大値と開始点判定しきい値とを比較する(203)。
(d)開始点判定しきい値より大きい場合は、抽出された座標を追跡開始点とする(204)。
(e)一方、開始点判定しきい値以下の場合は、選択領域の中に部分パターンは無いものと判断し、今度は全体パターンの追跡開始点を抽出するため、選択領域内の縦横両方向の階層エッジデータについて最大値を抽出する(205)。
(f)そして、この最大値と開始点判定しきい値とを比較し(206)する。
(g)しきい値より大きい場合は抽出された座標を全体パターンの追跡開始点とする(207)。
(h)さらに、これも開始点判定しきい値以下であった場合は、選択領域内にはパターンがないものと判断し、エラー処理(208)を行う。
【0048】
本発明の処理フロー図1のフローに戻り、説明する。
【0049】
再び図1のフローに戻り、次に輪郭追跡処理(S4)を行う。
【0050】
前記の輪郭追跡処理のフローを図5に示し、以下に詳細を解説する。
【0051】
図5に示すように、
(a)最初に現在のポイントを追跡開始点で初期化(301)する。
(b)追跡方向及び追跡距離、階層エッジデータの使用階層を初期化(302)、初期化(303)、初期化(304)する。
【0052】
ここで、追跡方向とはパターンのエッジを追跡する方向を示すもので、近傍8方向それぞれを数字で表したものである(図6)。
【0053】
追跡方向の初期値は、輪郭を追跡するパターンが部分パターンの場合、追跡開始点が選択領域のどの辺上にあるかによって設定する。これは、選択領域の辺と部分パターンの端がほぼ直交していると見なし、最初の追跡方向をパターンの端から中心に向かうように定めるものである。つまり、追跡開始点が選択領域の上辺上にある場合は2、右辺上にある場合は4、下辺上にある場合は6、左辺上にある場合は0となる。一方、輪郭を追跡するパターンが全体パターンの場合は、追跡開始点の8近傍のうち最も大きい階層エッジデータがある方向を追跡方向の初期値とする。
【0054】
追跡距離の初期化は、輪郭の次のポイントを追跡する際の距離を表すもので初期値は1とする。階層エッジデータの使用階層は、ステップ(S2)で作成した階層エッジデータで何番目の階層を使用するかを設定するもので、初期値は2とする。
【0055】
次に、
(c)追跡方向と追跡距離から追跡範囲を設定(305)する。ここで、ウェハパターン又はフォトマスクパターンの顕微鏡やSEMによる画像は、パターンが拡大表示された画像であるため、パターンの輪郭をそれを構成している単位線分に分解すると、隣接する2つの単位線分はゆるやかに変化しており、一方の線分を基準にして、2本の線分で構成される角度は0度〜±45度であると考えられる。この考えに基づき、輪郭線を追跡する範囲を一つ前のポイントからの追跡方向(スタート時はステップ(302)で設定した追跡方向)と追跡距離によって図7にように設定し、次のポイントはこの追跡範囲(3点)から探すようにする。このように追跡範囲を前のポイントからの方向により限定することで、それまでの追跡結果が情報として生かされるため、パターン画像のノイズ等によって輪郭の追跡がパターンと異なる方向に発散してしまうことを防ぐ効果がある。
【0056】
続いて、
(d)追跡範囲の中で階層エッジデータが最大となるポイントを輪郭候補点とする(306)。なお、階層エッジデータは縦方向・横方向の2種類あるが、追跡範囲の位置によって比較に使用する階層エッジデータの種類を適宜選択する。具体的には、追跡範囲が現在のポイントに対して水平(左右)の場合は横方向の階層エッジデータを使用し、鉛直(上下)の場合は縦方向の階層エッジデータを使用し、斜めの場合は縦方向・横方向の階層エッジデータの大きい方を使用する。これは、パターンの輪郭を追跡している方向に応じて、より確かな情報だけを利用することを目的としており、水平方向のエッジ情報を多く含む横方向の階層エッジデータと、鉛直方向のエッジ情報を多く含む縦方向の階層エッジデータを選別して利用することで、確実にパターンのエッジに沿った輪郭追跡が可能となる。
【0057】
次に、
(e)輪郭候補点の階層エッジデータとしきい値とを比較する(307)。しきい値は、これまで追跡してきた各ポイントの階層エッジデータの値を合計したものを、追跡してきたポイント数で除算し、1/3を乗算したものである。このしきい値は、輪郭追跡の過程に応じて動的に変動する。そのため、元画像の濃淡分布のコントラストが明瞭でない場合や、濃淡ムラがある場合でも、算出したしきい値と比較することで、輪郭候補点の確からしさを正しく確認することができる。
【0058】
しきい値と比較した結果、輪郭候補点の階層エッジデータがしきい値以下の場合には、(f)階層エッジデータの使用階層を1増加(308)させ、使用階層が5以下の場合にはステップ306に戻って輪郭候補点を探し直す。階層エッジデータの階層を増加させて探索をやり直す方法は、人がパターン画像からパターンのエッジを見分ける際に、濃度分布の局所的な変化よりも大局的な変化を捉えて判断していることを鑑みたものである。つまり、階層エッジデータの階層を増加させると、濃淡データの差を取る画素間距離が長くなるため、その階層のエッジデータはより大局的な濃度変化を表すことになる。そのため、コントラストが不明瞭なエッジの場合、そのエッジデータの値は画素間距離を長くすると大きくなる可能性が高い。従って、ある階層の輪郭候補点におけるエッジデータがしきい値以下となる場合でも、より上位の階層エッジデータがしきい値より大きくなった場合には、その輪郭候補点はエッジの一部として妥当であると判断できる。
【0059】
階層エッジデータの階層を5以上に上げてもしきい値より大きくならなかった場合は、その輪郭候補点はエッジとして妥当でなく、ステップ(305)で設定した追跡範囲には輪郭となるポイントがないものと見なす。この場合は、(g)使用階層を1に初期化し、追跡距離を1増加して(310)、追跡範囲の設定(305)からやり直す。このように追跡距離を長くすることで、エッジの情報があいまいな所はとばして、その次のポイントから輪郭の追跡を継続することが可能となる。
【0060】
ステップ(307)において、輪郭候補点の階層エッジデータがしきい値より大きい場合には、輪郭候補点を輪郭の一部と確定する。
(h)輪郭データに追加する(311)。
(i)そして、現在のポイントを輪郭候補点で更新(312)して輪郭追跡を先に進める。
(j)その際、追跡方向を更新(313)する。
(k)追跡距離と使用階層を初期化(314)する。
【0061】
次に、
(l)確定した輪郭データについて輪郭データの角度を確認(315)し、パターン画像中のノイズやムラの影響によって追跡途中の輪郭線が異常な形にならないように監視する。本発明によって輪郭を抽出しようとしているウェハパターンやフォトマスクパターンは、矩形の組み合わせで構成されているものが多く、パターンの角はほとんどが直角だと思われ、抽出される輪郭線は局所的に急激に曲がることはないと考えられる。そこでステップ(315)では、確定した直近の輪郭データ複数個からその曲がり角を算出し、一定の角度を超えていないかを確認する。
【0062】
その結果、
(m)角度が大きすぎてNGとなった場合は、追跡経路が間違っているものと判断する。この場合、現在のポイントを角度が正常なところまで戻して、そこまでの輪郭データを削除(316)する。
(n)別の追跡方向を設定(317)してステップ(305)からやり直す。一方、角度がOKの場合はそのまま次に進む。
【0063】
以上の各ステップを、
(o)現在のポイントが選択領域外に出るか(部分パターンの場合)、追跡開始点まで戻ってくる(全体パターンの場合)(318)まで繰返し行う。
(p)この条件を満たした場合に追跡処理を終了(319)する。
【0064】
本発明の処理フロー図1のフローに戻り、説明する。
【0065】
再び図1のフローに戻る。次に、抽出した輪郭線を滑らかな形状に変換するための輪郭データの補正処理(S5)を行う。
【0066】
前記輪郭データの補正処理は図8に示すように、
(a)まず輪郭データから代表ポイントを抽出(401)する。
(b)動的輪郭モデルにより代表ポイントを補正(402)をすることによって行われる。代表ポイントの抽出は、単に輪郭データを間引くために行うもので、輪郭データから一定間隔毎にデータを抽出する。動的輪郭モデルによる代表ポイントの補正は、エネルギー最小化問題である動的輪郭モデルを利用したもので、パターンとしての形状を崩さずに輪郭の滑らかさを向上させることを目的としている。
【0067】
ここで動的輪郭モデルについて詳細を述べる。動的輪郭モデル(Snakes)は、1988年にKassらが提案した画像中の対象物の輪郭を抽出する手法で、画像の特徴とモデルの形状からエネルギーEsnakesを定義し、このエネルギー関数を最小化する過程で対象物の輪郭を抽出するものである。エネルギー関数Esnakesは、滑らかさや節点間の距離などのモデル形状に関する内部エネルギーEint、モデルが画像特徴に引き寄せられる画像エネルギーEimage、およびモデルの形状変化を外部から抑制する外部エネルギーEconとから成り、下記の式(1)のように表される。なお、Vi(i=1,2,3,…,n)は輪郭モデルの節点であり、本発明では輪郭データの代表ポイントに当たる。
Esnakes(Vi)= Eint(Vi)+Eimage(Vi)+Econ(Vi) ―――(1)
内部エネルギーは輪郭の1次微分及び2次微分の和が用いられることが多く、下記の式(2)のように算出される。1次微分は節点間の距離を、2次微分は節点間を繋ぐ曲線の滑らかさを表す。なお、α及びβはそれぞれの項に対する重み付けのパラメータである。
Eint(Vi)= α|Vi − Vi-12+β|Vi-1 − 2Vi + Vi+12 ―――(2)
また、画像エネルギーは一般に下記の式(3)で表される画像の濃度勾配として算出される。
【0068】
本発明においては、図3に示した階層エッジデータの階層1での縦方向のエッジデータと横方向のエッジデータを加算したものを濃度勾配を表すデータとして利用する。なお、濃度勾配を表すデータ値は256階調の場合は0〜255の値を取るものとし、加算の結果255より大きくなる場合は255に変換する。式(3)のγは画像エネルギーに対する重み付けのパラメータである。
Eimage(Vi)= −γ|▽I(Vi)| ―――(3)
外部エネルギーは、一般にモデルの形状変化を抑制するものとして、主にモデルの収縮方向やモデル形状の特徴を維持するために利用される。本発明においては、このようなモデルの拘束は必要ないので式(1)のEcon(Vi)は0とする。
【0069】
このように定義されたエネルギー関数Esnakesを全ての代表ポイントについて、各ポイントの近傍領域で評価し、最もエネルギーが小さくなる位置へ各代表ポイントを移動させることにより輪郭を補正していく。動的輪郭モデルによる補正の様子を図9に示す。
【0070】
このとき、図1のフローの補正パラメータ入力(S6)で、パターン画像の画質(ノイズやムラの状態)に応じて式(2)や式(3)の重み付けのパラメータを変更することにより、パターンの輪郭の特徴を変化させることができる。例えば、画像にノイズが多く、輪郭追跡処理(S4)によって抽出した輪郭のガタツキが大きい場合には、内部エネルギーを算出する式(2)の重み付けパラメータをより大きくすることにより、ガタツキが少なく滑らかな輪郭に補正することができる。また、元のパターンに微小な突起や歪みがあり、それらを忠実に表した輪郭を得たい場合には、画像エネルギーを算出する式(3)の重み付けパラメータをより大きくすることで、元のパターン画像により近い輪郭に補正することが可能である。
【0071】
ここでまた図1のフローに戻る。
【0072】
次に輪郭データの変換処理(S7)を行う。これは、ウェハやフォトマスクのパターン画像(主にSEM画像)において、図10のようにパターンの縁の部分が白く光っていて太さを持っている場合に対応するためのものである。
【0073】
パターンの縁が太さを持っている場合には、その内側・外側・中心のいずれの部分を真の輪郭として抽出すれば良いか分からない。そこで、本発明では図1のエッジのサイド入力(S8)で利用者が内側・外側・中心のいずれかを選択できるようにし、輪郭データの変換処理(S7)によって所望の輪郭が抽出されるようにした。
【0074】
なお、内側・外側という表現では直線パターンなどの場合に対応できないので、本発明においては太さを持った白い縁に対して、より暗く濃度が濃い方を暗部のエッジ、その反対側を明部のエッジ、両者の中心を中央のエッジと呼び、そのいずれかを選択することとする。また、暗部のエッジは明部のエッジに比べエッジデータが大きいことから、図1の(S6)までの処理によって、最初は暗部のエッジの輪郭データが抽出される。
【0075】
図11に輪郭データの変換処理のフローを、図12にその説明図を示す。
【0076】
最初に、図11に示す輪郭データの変換処理のフロー図に沿って説明する。
(a)図1のS8で入力されたエッジの種類を確認(501)する。それが暗部のエッジである場合はそのまま終了し、それ以外(明部のエッジ、中央のエッジ)の場合に輪郭データの変換処理を行う。
(b)まず、パターンの縁が太さを持っていて明部のエッジが存在するかを確かめるため、明部のエッジの有無確認(502)をする。これは、任意の階層の階層エッジデータを利用して、輪郭データの始点の近傍領域を調べ、あるしきい値以上のエッジデータの有無を確認することで行う。
(c)もし、明部のエッジがみつからない場合は、エラー処理(503)として、暗部のエッジのみしか抽出できない旨のメッセージを出力する。明部のエッジが存在することが確認できた場合は、輪郭データの始点と次の点を結んだ基準ベクトルを作成する。
(d)明部のエッジが基準ベクトルを右左のどちらに回転した方向に存在するのかを調べ、変換方向(+or −)を算出(504)する。なお、右回転方向を+とする。図12の例では、明部のエッジは基準ベクトルを左回転させた方向にあるので、変換方向は−となる。
【0077】
次に全ての輪郭データについて順に以下の処理を行う。
(e)まず、一つ前(i-1)と、一つ先(i+1)の輪郭データを結ぶベクトルd(i)を生成(506)する。
(f)ベクトルd(i)の法線ベクトルn(i)をi番目の輪郭データを始点として生成する(507)。法線ベクトルn(i)の向きは、ベクトルd(i)を変換方向に回転させた方向、つまり明部のエッジが存在する方向とする。法線ベクトルn(i)は各輪郭データを移動させる方向を設定するものである。
(g)次に、法線ベクトルn(i)の終点を見つけ、長さを算出(508)する。法線ベクトルn(i)の終点は、法線ベクトルn(i)を伸縮させて終点位置にある階層エッジデータが最大となる地点を探す。つまり、明部のエッジの位置を法線ベクトルn(i)の終点とする。
(h)ここで、抽出するエッジとして中央のエッジが選択されている場合は、法線ベクトルn(i)を1/2にする(510)。これは、中央のエッジは暗部のエッジと明部のエッジの中間に位置していると考えられるからである。
(i)全ての輪郭データについて法線ベクトルn(i)を生成後、法線ベクトルn(i)の平均長を算出(513)する。
(j)そして最後に、全輪郭データを各法線ベクトルn(i)により変換し(514)、明部のエッジ又は中央のエッジの輪郭データを生成する。このとき変換の方式として、輪郭データを各法線ベクトルn(i)の終点位置へ移動させる方式と、各法線ベクトルn(i)の方向に平均長だけ移動させる方式とがある。前者の場合は、太さを持った縁の幅が一定でない場合に有効であり、パターン画像に忠実な輪郭が得られるが、輪郭のノイズが多くなる可能性がある。後者の場合は、変換した結果の輪郭はノイズが少なく滑らかさを維持することができるが、太さを持った縁の幅が一定でない場合には、パターン画像とずれが生じる可能性がある。従って、どちらの方式を利用するかは、パターン画像の縁の状態や画質によって判断する必要がある。
【0078】
再び図1のフローに戻る。
【0079】
これまでの処理によって求められた輪郭データは離散値であるので、これを連続値になるように補間計算して輪郭線の生成(S9)を行う。補間方法としては、輪郭データの各ポイント間を単純に直線で結ぶ方法や、スプライン関数によって補間する方法などがある。
【0080】
次に、選択領域内にある複数パターンを一括で輪郭抽出するため、まだパターンが残っていないかを確認する残りパターンの判定処理(S10)を行う。
【0081】
このフローを図13に示す。
(a)まず、ある階層の縦横方向のエッジデータにおいて最大値と最小値の平均を計算して残りパターン判定しきい値を求める(601)。
(b)次に、各階層の縦横方向のエッジデータについて輪郭線領域のデータを0にする(602)。輪郭線領域というのは、輪郭線にある一定の幅を持たせたもので、元のパターンの縁が太さを持っている場合を考慮し、輪郭線付近のデータを全て0にすることを目的としている。
(c)そして、ある階層の縦横方向のエッジデータをそれぞれ一行毎に走査して、残りパターン判定しきい値以上のエッジデータが横方向もしくは縦方向に連続して存在するか確認する(603)。
【0082】
ステップ(603)の結果、しきい値以上のデータが連続して存在する場合は、別のパターンがまだ存在するものと判定し、図1のフローの"パターンあり"へ進み、一連の処理を繰り返して別のパターンの輪郭抽出を行う。一方、存在しない場合は選択領域内には別のパターンはもう存在しないものと判定し、図1のフローの"パターンなし"へ進み、終了する。
【0083】
【実施例】
ここで、本発明による輪郭抽出の実施例を示す。
【0084】
図17は濃淡ムラがあるパターン画像の例である。パターン画像の右側より左側の方が明るくなっていることが分かる。このようなパターン画像の場合、画像を2値化してから輪郭を抽出する従来の方法ではうまくいかない。
【0085】
図18の(a)はモード法によりしきい値設定、2値化して輪郭抽出したものである。この場合はしきい値が一つしか設定されないために、輪郭線が途中でくずれてしまっていることが分かる。また図18の(b)は画像を分割して、それぞれの領域で判別分析法によりしきい値を求め、2値化及び輪郭抽出したものである。この場合は、(a)のような輪郭線のくずれはないが、分割した各領域でパターン部分若しくは背景部分のみしかないところではノイズが抽出され、パターン輪郭のみの抽出はできていない。
【0086】
そこで、本発明の請求項1に沿って輪郭抽出を実施する。
【0087】
まず、パターンの領域を選択(S1)し、選択領域の濃淡データから階層エッジデータを作成する(S2)。次に輪郭追跡開始点を抽出して(S3)、そこから輪郭追跡処理(S4)を行う。輪郭追跡処理によって得られた輪郭データを図19に示す。従来方法による結果と比べ、パターンの輪郭線のみが元画像通りに抽出できていることが分かる。
【0088】
しかしながら、パターンの輪郭線にはガタガタしたノイズが含まれているため、次にこれを除去するための処理を行う。輪郭データから代表ポイントを抽出し、動的輪郭モデルによる輪郭データの補正処理(S5)を行う。その後、補正された輪郭データを直線又はスプライン曲線で繋いで輪郭線を生成(S9)する。生成した輪郭線を図20に示す。この図から、元画像のパターンとほぼ一致し、かつノイズのない滑らかな輪郭線が得られていることが分かる。
【0089】
濃淡ムラ画像の輪郭抽出について、本発明の実施例をもう一つ示す。
【0090】
フォトマスクのSEM画像の場合、撮影条件が画質に大きく影響する。特に図21に示すように、フォトマスクのガラス部分のチャージアップによってパターンの各部分ごとに濃淡ムラが発生した場合、従来の手法では輪郭線を抽出することは不可能であった。しかしながら、本発明の請求項1による輪郭抽出方法により、このようなパターン画像においても最適な輪郭抽出が可能となった。輪郭抽出の結果を図22に示す。
【0091】
次に、パターン画像のノイズやコントラスト不足などの原因で、抽出した輪郭線に多くのノイズが発生する場合において、動的輪郭モデルを利用した輪郭データの補正処理の際に、重み係数を調整して最適な輪郭線を抽出する例について述べる。
【0092】
図23に示すパターン画像は、パターン部と背景部のコントラストがあまり明瞭でなく、画像のノイズも大きい。このようなパターン画像について、輪郭データの抽出後、輪郭の滑らかさを調整する重み係数と画像との一致度を調整する重み係数が等しい補正パラメータを入力(S6)し、輪郭データ補正処理(S5)を行った結果を図24に示す。図24の輪郭線には微小なノイズが含まれていることが分かる。この微小ノイズは、パターン画像の画質が良くないために出現したもので、本来のパターンには含まれていないものと考えられる。このようなノイズは、輪郭線からパターンの特徴量を計測する際の弊害となる。
【0093】
そこで補正パラメータを変更し、輪郭の滑らかさを調整する重み係数を大きく、画像との一致度を調整する重み係数を小さくして、先ほどと同様に輪郭データの補正処理(S5)を行った結果を図25に示す。今回の輪郭線では先ほどの微小ノイズがきれいに無くなっている事が分かる。しかも、元のパターン画像の右側エッジ中央付近に見られる凹凸形状は、ノイズとして削除されずに残されていることが確認できる。この結果は、本手法がパターンそのものが持っている特徴を輪郭線として忠実に表現し、不要なノイズだけを削除する手法として非常に有効であることを示している。
【0094】
次に、パターン画像の縁が白く光る太さを持っている場合に、その内側・外側・中央(本発明では暗部のエッジ・明部のエッジ・中央のエッジ)のいずれかのエッジを選択して抽出する例について述べる。
【0095】
図26は縁が太さを持っているパターン画像の例である。このようなパタ−ン画像において、太さを持つ縁の任意のエッジを輪郭線として抽出する。
【0096】
本発明においてはパターン画像を輪郭抽出処理すると、まずコントラストが大きい方のエッジを先に抽出するため、図26の場合は図1のS5までの処理で、暗部のエッジ(上側のエッジ)の輪郭が抽出される。従って、S8で選択入力したエッジが暗部のエッジの場合は、輪郭データの変換処理(S7)ではなにもしない。一方、明部のエッジもしくは中央のエッジの場合は輪郭データの変換処理を行い、各輪郭データの座標を明部のエッジ又は中央のエッジがある位置に移動させることで、各エッジに対応する輪郭線を生成する。
【0097】
図26のパターン画像において暗部のエッジ、明部のエッジ、中央のエッジの輪郭線をそれぞれ抽出した結果を図27に示す。各輪郭線がそれぞれのエッジに合わせて正しく抽出されていることが分かる。
【0098】
【発明の効果】
以上のように、本発明の輪郭抽出方法では、輪郭追跡処理によって抽出した輪郭データに対して動的輪郭モデルを利用した補正処理を施すことにより、ノイズや濃淡ムラがあるウェハパターン画像やフォトマスクパターン画像においても、元のパターン画像と一致する滑らかな輪郭線を抽出することができる。また、輪郭データの補正処理時に補正パラメータを調整することにより、パターン画像の画質が悪い場合でも画質に影響されることなく、パターンの特徴を忠実に表す輪郭線を抽出することが可能である。さらに、縁が太さを持つパターンにおいては、選択されたエッジに応じて輪郭データを変換処理することによって、任意のエッジの輪郭線を抽出することが可能である。
【図面の簡単な説明】
【図1】本発明の輪郭抽出の処理手順を表すフロー図である。
【図2】階層エッジデータの作成フロー図である。
【図3】階層エッジデータの計算方法図である。
【図4】追跡開始点の抽出処理フロー図である。
【図5】輪郭追跡処理方法の手順を表すフロー図である。
【図6】近傍データの方向に対応する数値を表す図である。
【図7】輪郭追跡処理において追跡方向と追跡距離から追跡範囲を定める模式図である。
【図8】輪郭データの補正処理についてのフロー図である。
【図9】動的輪郭モデルによる輪郭データの補正処理の様子を表す模式図である。
【図10】パターンの縁の部分が白く光り、太さを持っている場合のパターン画像の例である。
【図11】輪郭データの変換処理手順を表すフロー図である。
【図12】輪郭データの変換処理方法についての説明図である。
【図13】残りパターンの判定処理のフロー図である。
【図14】パターン部と背景部が存在する画像のヒストグラムを表す模式図である。
【図15】濃淡ムラがあるパターン画像と画像全体に対するしきい値処理結果の例である。
【図16】濃淡ムラがあるパターン画像と画像を分割してしきい値処理した結果の例である。
【図17】濃淡ムラがあるパターン画像の例である。
【図18】従来の方法によって輪郭抽出処理した結果を表す図である。
【図19】輪郭追跡処理の結果を表す図である。
【図20】輪郭データの補正処理の結果を表す図である。
【図21】チャージアップによる濃淡ムラがあるパターン画像の例である。
【図22】チャージアップによる濃淡ムラがあるパターン画像を輪郭抽出した結果である。
【図23】ノイズが大きくコントラストが小さいパターン画像の例である。
【図24】輪郭データの補正処理において輪郭の滑らかさを調整する重み係数と画像との一致度を調整する重み係数を同じにした場合に抽出される輪郭線である。
【図25】輪郭データの補正処理において輪郭の滑らかさを調整する重み係数を大きくし、画像との一致度を調整する重み係数を小さくした場合に抽出される輪郭線である。
【図26】パターンの縁の部分が白く光り、太さを持っているパターン画像である。
【図27】輪郭データの変換処理によって抽出された明部のエッジ、暗部のエッジ、中央のエッジの輪郭線である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a contour extraction method and apparatus for extracting a contour line of a pattern from a mask pattern image of a photomask used in a lithography process of semiconductor manufacturing or a wafer pattern image created on a semiconductor wafer by lithography, and Regarding the program.
[0002]
[Prior art]
With the recent miniaturization of semiconductor LSIs, photomasks as pattern masters are also required to cope with miniaturization, and at the same time, the demand for high accuracy is extremely severe. Recently, in order to prevent the deterioration of fine pattern shapes, optical proximity effect correction masks (hereinafter referred to as OPC masks) that actively use optical principles have begun to increase, and more advanced fine processing techniques are required. It is becoming.
[0003]
Here, the OPC mask will be described. The OPC mask is an optical proximity effect correction pattern (hereinafter referred to as an OPC pattern) smaller than the conventional pattern so as to be close to or in contact with the original circuit pattern so that the circuit pattern shape can be accurately transferred during wafer exposure transfer. ) Is added to the mask. That is, in a state-of-the-art photomask, an OPC pattern, which is a fine auxiliary pattern, is added as the pattern becomes finer, so that a technique for accurately creating a fine and complicated shape is essential.
[0004]
Therefore, the problem of pattern shape accuracy has been regarded as an important issue for manufacturing and inspection techniques.
[0005]
On the other hand, even in a pattern exposed and transferred onto a wafer by a lithography process, a technique for accurately creating a shape of a finer pattern (1/4 to 1/5 of a photomask pattern) is necessary. As a problem of inspection technology, the problem of pattern shape accuracy is regarded as important just like a photomask.
[0006]
As a means of confirming the accuracy of the pattern shape, the observation image of the wafer pattern and photomask pattern by an optical microscope or SEM is read as image data into a computer, and then the pattern shape is compared with the design pattern on the computer screen. There is a method of judging whether the quality is good or bad, extracting the contour line of the pattern by performing image processing, and quantitatively measuring the characteristic value of the shape based on the data of the contour line.
[0007]
Generally, pattern contour extraction by an image processing method is performed by first converting a pattern image into a binary image of a pattern and a background, and tracking the contour of the pattern portion. In this case, it is necessary to perform a binarization process for converting the pattern image into a binary image, and it is necessary to set an optimum threshold value for this. There are the following methods for obtaining a threshold for binarization.
[0008]
The first method is a mode method. In the mode method, there are two peaks (modes) representing the pattern portion and the background portion in the histogram of the pattern image (FIG. 14), and the two peaks are separated on the assumption that the density distribution is bilateral. This is a method in which a valley is a threshold value.
[0009]
The second method is a p-tile method. The p-tile method is a method in which a threshold value is set such that the cumulative distribution is P% from the histogram when the ratio of the pattern portion in the pattern image is known to be P% in advance.
[0010]
A third method is discriminant analysis. The discriminant analysis method is a method for obtaining k that provides the best separation between the two classes when it is assumed that the histogram of the mask pattern image is divided into two classes with a threshold value k.
[0011]
In addition, when there is shading unevenness such as shading in the mask pattern image, there is a method of dividing the image into an arbitrary number of regions and then calculating a threshold value for each divided region.
[0012]
Here, an image having light and shade unevenness is an image in which the density distribution of the pattern portion or the background portion is not uniform and the density value differs depending on the location as in the original image shown in FIG. The result of binarizing this image with a threshold value (hereinafter referred to as a fixed threshold value) set for the entire image is shown on the right side. The processing result shows that the upper left corner of the pattern can be appropriately binarized, but the lower right corner is not well separated from the background. In other words, an image with shading unevenness has a problem in that it is difficult to perform appropriate binarization by processing with a fixed threshold because the threshold for separating the pattern portion and the background portion differs depending on the location. In particular, in the case of an SEM image of a photomask, unevenness of light and darkness is likely to occur in the pattern image because the mask is charged up.
[0013]
A method for avoiding this problem is a method in which an image is divided into an arbitrary number of areas and respective threshold values are obtained. FIG. 16 shows a pattern image obtained by dividing the original image into four parts and binarizing them by setting a threshold value in each divided area. From this, it can be seen that the lower right part of the pattern is also separated from the background, and that binarization can be performed more appropriately than when the entire image threshold is set.
[0014]
[Problems to be solved by the invention]
However, the following problems are included in the method for obtaining the various threshold values as the preprocessing for tracking the contour.
[0015]
Since the mode method is based on the premise that the density distribution is bilateral, it may not be used depending on the density distribution state of the image. Further, in the p-tile method, it is considered that the area of the pattern portion is not known in advance in the pattern image, and the usable scenes are limited. These two methods are the same when the pattern image is divided.
[0016]
In the discriminant analysis method, if the mask pattern image does not have shading unevenness such as shading, a certain good threshold value can be obtained. However, it is difficult to obtain a threshold value for appropriately binarizing the entire image when there is shading unevenness for the reasons described above. If the pattern image is divided and the discriminant analysis method is used for each of the divided regions, a threshold value can be obtained as long as both the pattern portion and the background portion are included in the region. Has only a pattern portion or a background portion, there is a drawback that noise is extracted. Since the optimal division method differs depending on the pattern image, it is very difficult to set the division method so that noise is not extracted.
[0017]
As described above, in a pattern image with noise and shading unevenness, it is very difficult to stably obtain an appropriate threshold for separating the pattern portion and the background portion, and the pattern image is binarized. The conventional contour line extraction method of tracking the back pattern portion often fails in the case of a wafer pattern image or a photomask pattern image.
[0018]
The present invention has been made in view of the above problems, and in order to obtain a contour line of a pattern that can be used for shape evaluation and measurement, a wafer pattern image in which noise and shading unevenness occur due to various restrictions during image shooting, and An object of the present invention is to provide a method capable of extracting an outline of an optimum pattern even in a photomask pattern image.
[0019]
[Means for Solving the Problems]
The present invention solves such a problem. The invention according to claim 1 is a contour extraction method for extracting a contour of a pattern from a pattern image having multiple gradations of a semiconductor wafer and a photomask. From the area selection step of selecting the range of the image to be extracted, and (b) the image information of the selected area, The distance between pixels for calculating the difference when calculating edge data is set as a hierarchy, and the edge data is multiplexed with the edge data in the vertical and horizontal directions. An edge data creation step for creating hierarchical edge data; (c) a tracking start point extraction step for extracting a point at which the contour of the pattern starts to be traced; (D) Concerning the layer edge data, the layer to be used is set, the value of the edge data in the layer is compared, the maximum value of the edge data is traced in order, the pattern is traced, and the value of the edge data that has been traced A contour tracking step for generating contour data of a pattern by setting a threshold value and changing the hierarchy when the edge data value of the contour candidate point is equal to or lower than the threshold value; (E) From the contour data of the pattern, At regular intervals A contour data correction processing step for extracting a point corresponding to the contour of the pattern as a representative point and converting it into a smooth contour by dynamic contour model calculation, and (f) generating a continuous contour line by interpolation calculation from the corrected contour data An outline extraction method characterized by extracting an outline of a pattern image by executing a step comprising:
[0020]
According to a second aspect of the present invention, in the contour tracking step of generating pattern contour data using the (d) hierarchical edge data,
(A) a tracking range setting step for presetting a tracking range from a tracking direction and a tracking distance;
(B) a contour candidate point search step for searching for a contour candidate point using hierarchical edge data corresponding to a direction from the tracking range;
(C) a usage hierarchy / tracking distance update step for increasing the usage hierarchy of the hierarchical edge data when no contour candidate point is found, and initializing the usage hierarchy and increasing the tracking distance when the upper limit of the hierarchy is exceeded; ,
(D) an outline data adding step of adding an outline candidate point to outline data when an outline candidate point is found, updating a tracking direction and initializing a use hierarchy and a tracking distance;
(E) Check the angle of the contour every time contour data is added, and if the angle exceeds a certain threshold value, delete the contour data of that portion and set another tracking direction A confirmation step;
(F) a repeating step that repeats all of the above steps until it goes out of the area or returns to the tracking start point;
The contour extracting method according to claim 1, wherein the contour of the pattern image is extracted by executing the steps consisting of:
[0021]
According to a third aspect of the present invention, in the contour extraction method according to the first or second aspect, the representative point is extracted from the contour data of the pattern (e) according to the first aspect, and the dynamic contour model calculation is performed. In the contour data correction processing step for converting to a smooth contour by the contour data correction step, the contour data correction processing step matches the smoothness of the pattern with the original image when correcting the contour data to a smooth contour by dynamic contour model calculation. This is an outline extraction method characterized in that an optimum outline can be extracted regardless of image noise by executing a step consisting of a step of appropriately setting a weighting factor for the degree.
[0022]
According to a fourth aspect of the present invention, in the contour extraction method according to any one of the first to third aspects, the representative point is extracted from the contour data of the pattern (e) according to the first aspect, In the contour data correction processing step that converts to a smooth contour by dynamic contour model calculation, if the edge of the original pattern image has a thickness,
(A) selecting whether to extract the inside, outside or center of the edge of the original pattern image as a contour;
(B) a contour data conversion step for converting the contour data in accordance with the selection;
An outline extraction method characterized in that an arbitrary edge of a thick edge can be extracted as an outline by executing the steps consisting of:
[0023]
The invention according to claim 5 of the present invention is the contour extraction method according to any one of claims 1 to 4, wherein (f) the corrected contour data according to claim 1 is continued by interpolation calculation. In the contour generation step for generating the contour line, after the contour line generation step, if there are a plurality of patterns in the selected region,
(A) determining whether there is another pattern in the region;
(B) a pattern presence / absence determination step in which contour extraction is repeated until there is no pattern;
A contour extracting method is characterized in that collective contour extraction of a plurality of patterns can be performed by executing the steps.
[0024]
According to a sixth aspect of the present invention, in the contour extracting apparatus for extracting the contour of a pattern from a pattern image having multiple gradations of a semiconductor wafer and a photomask, (a) a region for selecting a range of the image from which the contour is extracted From the selection means and (b) the image information of the selected area, The distance between pixels for calculating the difference when calculating edge data is set as a hierarchy, and the edge data is multiplexed with the edge data in the vertical and horizontal directions. Edge data creating means for creating hierarchical edge data; (c) a tracking start point extracting means for extracting a point at which the contour of the pattern starts to be traced; (D) Concerning the layer edge data, the layer to be used is set, the value of the edge data in the layer is compared, the maximum value of the edge data is traced in order, the pattern is traced, and the value of the edge data that has been traced The threshold value is set from the above, and the contour data of the pattern is generated by changing the hierarchy when the edge data value of the contour candidate point is below the threshold value From contour tracking means and (e) pattern contour data, At regular intervals A contour data correction processing means for extracting points corresponding to the contour of the pattern as representative points and converting them into a smooth contour by dynamic contour model calculation, and (f) generating a continuous contour line by interpolation calculation from the corrected contour data An outline extraction apparatus comprising: an outline generation means for performing an operation.
[0025]
In the invention according to claim 7 of the present invention, the contour tracking means for generating the contour data of the pattern using the (d) hierarchical edge data comprises:
(A) tracking range setting means for presetting a tracking range from a tracking direction and a tracking distance;
(B) contour candidate point searching means for searching for contour candidate points using hierarchical edge data corresponding to the direction from the tracking range;
(C) a use hierarchy / tracking distance update unit that increases the use hierarchy of the layer edge data when the contour candidate point is not found, and initializes the use hierarchy to increase the tracking distance when the upper limit of the hierarchy is exceeded; ,
(D) contour data adding means for adding a contour candidate point to contour data when a contour candidate point is found, updating a tracking direction and initializing a use hierarchy and a tracking distance;
(E) Check the angle of the contour every time contour data is added, and if the angle exceeds a certain threshold value, delete the contour data of that portion and set another tracking direction Confirmation means;
(F) repetitive means that repeats all the above steps until going out of the area or returning to the tracking start point;
The contour extracting apparatus according to claim 6, comprising:
[0026]
According to an eighth aspect of the present invention, in the contour extracting apparatus according to the sixth or seventh aspect, the representative point is extracted from the contour data of the pattern (e) according to the sixth aspect, and the dynamic contour model calculation is performed. The contour data correction processing means for converting to a smooth contour by appropriately setting a weighting coefficient for the degree of coincidence between the smoothness of the pattern and the original image when the contour data is corrected to a smooth contour by dynamic contour model calculation. The contour extracting apparatus is characterized in that an optimal contour can be extracted without depending on image noise.
[0027]
The invention according to claim 9 of the present invention is the contour extraction device according to any one of claims 6 to 8, wherein the representative point is extracted from the contour data of the pattern (e) according to claim 6, The contour data correction processing means for converting to a smooth contour by the dynamic contour model calculation, when the edge of the original pattern image has a thickness,
(A) means for selecting whether to extract the inside, outside or center of the edge of the original pattern image as a contour;
(B) contour data conversion means for converting the contour data according to the selection;
The contour extracting apparatus is characterized in that an arbitrary edge having a thickness can be extracted as a contour line.
[0028]
The invention according to claim 10 of the present invention is the contour extraction device according to any one of claims 6 to 9, wherein (f) contours continuous from the corrected contour data according to claim 6 by interpolation calculation. The contour line generating means for generating a line has a plurality of patterns in the selected region after the contour line generating means.
(A) means for determining whether there is another pattern in the area;
(B) A contour extraction device comprising a pattern presence / absence determining unit that repeats contour extraction until there are no more patterns, and enables collective contour extraction of a plurality of patterns.
[0029]
According to an eleventh aspect of the present invention, in a contour extraction program for extracting a contour of a pattern from a pattern image having multiple gradations of a semiconductor wafer and a photomask, (a) a region for selecting a range of the image from which the contour is extracted From the selection program and (b) the image information of the selected area, The distance between pixels for calculating the difference when calculating edge data is set as a hierarchy, and the edge data is multiplexed with the edge data in the vertical and horizontal directions. An edge data creation program for creating hierarchical edge data; (c) a tracking start point extraction program for extracting a point at which the contour of a pattern starts to be traced; (D) Concerning the layer edge data, the layer to be used is set, the value of the edge data in the layer is compared, the maximum value of the edge data is traced in order, the pattern is traced, and the value of the edge data that has been traced The threshold value is set from the above, and the contour data of the pattern is generated by changing the hierarchy when the edge data value of the contour candidate point is below the threshold value From the contour tracking program and (e) pattern contour data, At regular intervals A contour data correction processing program that extracts points corresponding to the contour of a pattern as representative points and converts them into smooth contours by dynamic contour model calculation, and (f) generates a continuous contour line by interpolation calculation from the corrected contour data An outline extraction program characterized by comprising:
[0030]
The invention according to claim 12 of the present invention is the contour tracking program for generating the contour data of the pattern using the (d) hierarchical edge data.
(A) a tracking range setting program for presetting a tracking range from a tracking direction and a tracking distance;
(B) a candidate contour point search program for searching candidate contour points using hierarchical edge data corresponding to a direction from the tracking range;
(C) a usage hierarchy / tracking distance update program for increasing the usage hierarchy of hierarchical edge data when no contour candidate point is found and initializing the usage hierarchy to increase the tracking distance when the upper limit of the hierarchy is exceeded; ,
(D) a contour data addition program for adding a contour candidate point to contour data when a contour candidate point is found, updating a tracking direction, and initializing a use hierarchy and a tracking distance;
(E) Check the angle of the contour every time contour data is added, and if the angle exceeds a certain threshold value, delete the contour data of that portion and set another tracking direction A verification program;
(F) an iterative program that repeats all the above steps until it goes out of the area or returns to the tracking start point;
The contour extraction program according to claim 11, comprising:
[0031]
According to a thirteenth aspect of the present invention, in the contour extraction program according to the eleventh or twelfth aspect, a representative point is extracted from the contour data of the pattern (e) according to the eleventh aspect, and a dynamic contour model calculation is performed. The contour data correction processing program for converting to a smooth contour by appropriately setting a weighting factor for the degree of coincidence between the smoothness of the pattern and the original image when the contour data is corrected to a smooth contour by dynamic contour model calculation. An outline extraction program characterized in that an optimum outline can be extracted regardless of noise in an image comprising the program.
[0032]
According to a fourteenth aspect of the present invention, in the contour extraction program according to any one of the eleventh to thirteenth aspects, the representative point is extracted from the contour data of the pattern (e) according to the eleventh aspect, The contour data correction processing program that converts to a smooth contour by dynamic contour model calculation, if the edge of the original pattern image has a thickness,
(A) a program for selecting whether to extract the inside, outside or center of the edge of the original pattern image as a contour;
(B) a contour data conversion program for converting the contour data according to the selection;
An outline extraction program characterized in that an arbitrary edge having a thickness can be extracted as an outline.
[0033]
According to a fifteenth aspect of the present invention, in the contour extraction program according to any one of the eleventh to fourteenth aspects, the (f) corrected contour data according to the eleventh aspect is continuously performed by interpolation calculation. In the contour line generation program for generating the contour line, if there are multiple patterns in the selected area after the contour line generation program,
(A) a program for determining whether there is another pattern in the area;
(B) a pattern presence / absence determination program that repeats contour extraction until there are no more patterns;
Thus, the contour extraction program is capable of extracting a plurality of patterns at once.
[0034]
According to a sixteenth aspect of the present invention, there is provided a contour extracting apparatus equipped with the contour extracting program according to any one of the eleventh to fifteenth aspects.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
The contents of the present invention will be described below.
[0036]
FIG. 1 shows a processing flow of contour extraction according to the present invention. A photomask pattern or wafer pattern color or monochrome observation image taken by an optical microscope, SEM, or the like is read into a computer and converted into a gray multi-tone image, which is called a pattern image.
[0037]
First, which region of the pattern image is to be subjected to contour extraction is set by region selection (S1). This is performed using a pointing device such as a mouse while viewing the pattern image displayed on the computer display.
[0038]
Next, hierarchical edge data creation processing (S2) is performed based on the grayscale data of the selected image area.
[0039]
The generation of the hierarchical edge data is performed according to the flow shown in FIG. Hierarchical edge data is obtained by multiplexing edge data obtained from differences between pixels of grayscale data.
[0040]
Figure 2 begins with
(A) Smoothing processing is performed for the purpose of removing noise included in the selected image area (101).
(B) Next, horizontal edge data is calculated while changing the level k from 1 to 5 (103).
(C) Subsequently, vertical edge data is calculated (104).
[0041]
A specific method for calculating the hierarchical edge data is shown in FIG. In FIG. 3, when the density data of the image area is bmp (width: Width, height: Height), the position in the width direction is i, and the position in the height direction is j, the hierarchical layer edge data in the vertical direction is expressed by Equation (1), The horizontal layer edge data is calculated by the equation (2). The hierarchy k is a distance between pixels for calculating a difference when calculating edge data. If the array subscript exceeds the range of grayscale data (1 to Width, 1 to Height) during the calculation, the subscript value is appropriately converted so as to be within the range. The layer edge data is represented by a three-dimensional array by three parameters of the layer k, the horizontal position i, and the vertical position j. In order to reduce the influence of image noise in each equation, a difference between pixels in a portion indicated by a dotted arrow is also calculated, and an average thereof is calculated. The vertical layer edge data has a large value when there is an edge in the vertical direction, and the horizontal layer edge data has a large value when there is an edge in the horizontal direction.
[0042]
Processing Flow of the Present Invention Returning to the flow of FIG.
[0043]
Next, a tracking start point extraction process (S3) is performed.
[0044]
The tracking start point is a coordinate point at which the contour of the pattern starts to be tracked. The pattern for which contour extraction is performed may be a case where a part of the entire pattern is cut out depending on how the region is selected, or a case where the entire pattern is included in the selected region. Here, the former is called a partial pattern, and the latter is called an overall pattern. The partial pattern has a form in which the outline starts at any point on the four sides of the selection area rectangle and ends at another point on the four sides. Therefore, the tracking start point is searched from the four sides. On the other hand, since the pattern of the entire pattern is closed, any point on the pattern is set as the tracking start point, and finally returns to the original start point by the tracking process. Therefore, when extracting the entire pattern, the start point is searched from an arbitrary position in the selected area.
[0045]
FIG. 4 shows the flow of the tracking start point extraction process.
[0046]
The following describes FIG. Note that the hierarchical edge data used in the flow of FIG.
[0047]
FIG.
(A) A start point determination threshold value for determining whether it is a tracking start point is calculated (201). As the starting point determination threshold value, the maximum value and the minimum value are extracted from the layer edge data in both the vertical and horizontal directions, and set as the average value.
(B) Next, the maximum value and its coordinates are extracted from the hierarchical edge data on the four sides of the selected area (202). In the case of a partial pattern, it seems that each side and the edge of the cut pattern are locally orthogonal. Therefore, the maximum value is extracted from the vertical layer edge data (including a lot of vertical edge information) on the top and bottom sides and the horizontal layer edge data of the left side and the right side (including a lot of horizontal edge information). .
(C) Then, the maximum value is compared with the start point determination threshold value (203).
(D) If it is larger than the start point determination threshold, the extracted coordinates are set as the tracking start point (204).
(E) On the other hand, when the threshold value is equal to or less than the start point determination threshold value, it is determined that there is no partial pattern in the selected area, and this time, in order to extract the tracking start point of the entire pattern, The maximum value is extracted for the hierarchical edge data (205).
(F) Then, the maximum value is compared with the starting point determination threshold value (206).
(G) If larger than the threshold value, the extracted coordinates are set as the tracking start point of the entire pattern (207).
(H) Further, if this is also less than or equal to the start point determination threshold value, it is determined that there is no pattern in the selected area, and error processing (208) is performed.
[0048]
Processing Flow of the Present Invention Returning to the flow of FIG.
[0049]
Returning again to the flow of FIG. 1, the contour tracking process (S4) is performed.
[0050]
FIG. 5 shows a flow of the contour tracking process, which will be described in detail below.
[0051]
As shown in FIG.
(A) First, the current point is initialized (301) with the tracking start point.
(B) Initializing (302), initializing (303), and initializing (304) the tracking direction and tracking distance, and the layer used for hierarchical edge data.
[0052]
Here, the tracking direction indicates the direction in which the edge of the pattern is tracked, and each of the eight neighboring directions is represented by a number (FIG. 6).
[0053]
When the pattern for tracking the contour is a partial pattern, the initial value of the tracking direction is set depending on which side of the selection area the tracking start point is on. This assumes that the side of the selected region and the end of the partial pattern are substantially orthogonal, and the initial tracking direction is determined so as to go from the end of the pattern toward the center. That is, it is 2 when the tracking start point is on the upper side of the selected area, 4 when it is on the right side, 6 when it is on the lower side, and 0 when it is on the left side. On the other hand, when the pattern for tracing the contour is the entire pattern, the direction in which the largest hierarchical edge data is present among the eight neighborhoods of the tracking start point is set as the initial value of the tracking direction.
[0054]
The initialization of the tracking distance represents a distance for tracking the next point of the contour, and the initial value is 1. The use hierarchy of the hierarchy edge data sets what hierarchy is used in the hierarchy edge data created in step (S2). The initial value is 2.
[0055]
next,
(C) A tracking range is set (305) from the tracking direction and the tracking distance. Here, since the image of the wafer pattern or photomask pattern by a microscope or SEM is an enlarged image of the pattern, if the pattern outline is decomposed into unit line segments constituting the pattern, two adjacent units are displayed. The line segment changes gently, and the angle formed by the two line segments is considered to be 0 degree to ± 45 degrees with respect to one line segment. Based on this idea, the contour tracking range is set as shown in FIG. 7 according to the tracking direction from the previous point (the tracking direction set in step (302) at the start) and the tracking distance as shown in FIG. Search from this tracking range (3 points). By limiting the tracking range to the direction from the previous point in this way, the tracking results up to that point are used as information, so that the tracking of the contour diverges in a direction different from the pattern due to noise etc. of the pattern image There is an effect to prevent.
[0056]
continue,
(D) A point having the maximum hierarchical edge data in the tracking range is set as a contour candidate point (306). Although there are two types of hierarchical edge data in the vertical direction and the horizontal direction, the type of hierarchical edge data used for comparison is appropriately selected depending on the position of the tracking range. Specifically, when the tracking range is horizontal (left and right) with respect to the current point, horizontal layer edge data is used, and when vertical (up and down), vertical layer edge data is used. In this case, the larger one of the vertical and horizontal hierarchical edge data is used. The purpose of this is to use only more reliable information according to the direction in which the contour of the pattern is being tracked. The horizontal layer edge data containing a lot of horizontal edge information and the vertical edge By selecting and using hierarchical layer edge data including a large amount of information, contour tracing along the edges of the pattern can be reliably performed.
[0057]
next,
(E) The layer edge data of the contour candidate points is compared with the threshold value (307). The threshold value is obtained by dividing the sum of the values of the hierarchical edge data of each point tracked so far by the number of tracked points and multiplying by 1/3. This threshold value varies dynamically according to the contour tracking process. Therefore, even when the contrast of the density distribution of the original image is not clear or when there is density unevenness, the probability of the contour candidate point can be correctly confirmed by comparing with the calculated threshold value.
[0058]
As a result of comparison with the threshold value, if the layer edge data of the contour candidate point is less than or equal to the threshold value, (f) increase the use layer of the layer edge data by 1 (308), and if the use layer is 5 or less Returns to step 306 to search again for the contour candidate point. The method of redoing the search by increasing the hierarchy of hierarchical edge data is that when a person distinguishes a pattern edge from a pattern image, he / she makes a judgment based on a global change rather than a local change in the density distribution. In view of this. That is, when the hierarchy of the hierarchical edge data is increased, the inter-pixel distance that takes the difference between the light and shade data becomes longer, so that the edge data of that hierarchy represents a more global density change. Therefore, in the case of an edge whose contrast is unclear, the value of the edge data is likely to increase when the inter-pixel distance is increased. Therefore, even if the edge data at a contour candidate point in a certain hierarchy is below the threshold, if the higher-layer edge data is larger than the threshold, the contour candidate point is valid as a part of the edge. It can be judged that.
[0059]
If the level of the hierarchical edge data does not become larger than the threshold even if the hierarchical level of the hierarchical edge data is increased to 5 or more, the contour candidate point is not valid as an edge, and the tracking range set in step (305) has no contour point. Consider it a thing. In this case, (g) the usage layer is initialized to 1, the tracking distance is increased by 1 (310), and the tracking range is set again (305). By extending the tracking distance in this way, it becomes possible to skip the position where the edge information is ambiguous and to continue tracking the contour from the next point.
[0060]
In step (307), when the hierarchical edge data of the contour candidate point is larger than the threshold value, the contour candidate point is determined as a part of the contour.
(H) Add to the contour data (311).
(I) Then, the current point is updated with the contour candidate point (312), and the contour tracking is advanced.
(J) At that time, the tracking direction is updated (313).
(K) The tracking distance and usage hierarchy are initialized (314).
[0061]
next,
(L) The angle of the contour data is confirmed for the confirmed contour data (315), and monitoring is performed so that the contour line in the middle of tracking does not become an abnormal shape due to the influence of noise or unevenness in the pattern image. Many wafer patterns and photomask patterns whose contours are to be extracted according to the present invention are composed of a combination of rectangles. Most of the corners of the pattern are considered to be right angles. It is not expected to bend suddenly. Therefore, in step (315), the bending angle is calculated from a plurality of confirmed latest contour data, and it is confirmed whether or not a certain angle is exceeded.
[0062]
as a result,
(M) If the angle is too large and the result is NG, it is determined that the tracking path is incorrect. In this case, the current point is returned to the normal angle, and the contour data up to that point is deleted (316).
(N) Set another tracking direction (317) and start again from step (305). On the other hand, if the angle is OK, the process proceeds as it is.
[0063]
Each of the above steps
(O) Repeat until the current point goes out of the selected area (in the case of a partial pattern) or return to the tracking start point (in the case of the entire pattern) (318).
(P) When this condition is satisfied, the tracking process is terminated (319).
[0064]
Processing Flow of the Present Invention Returning to the flow of FIG.
[0065]
Returning again to the flow of FIG. Next, a contour data correction process (S5) for converting the extracted contour line into a smooth shape is performed.
[0066]
The contour data correction process is as shown in FIG.
(A) First, representative points are extracted from the contour data (401).
(B) This is performed by correcting (402) the representative point by the active contour model. The extraction of the representative points is performed simply to thin out the contour data, and data is extracted from the contour data at regular intervals. The correction of the representative points by the active contour model uses the active contour model, which is an energy minimization problem, and aims to improve the smoothness of the contour without destroying the shape of the pattern.
[0067]
Here, the details of the active contour model will be described. The dynamic contour model (Snakes) is a method for extracting the contour of an object in an image proposed by Kass et al. In 1988. The energy contour model is derived from the features of the image and the shape of the model. snakes The contour of the object is extracted in the process of minimizing this energy function. Energy function E snakes Is the internal energy E related to the model shape such as smoothness and distance between nodes int , The image energy E, where the model is attracted to the image features image , And external energy E that suppresses the shape change of the model from the outside con And is expressed as the following equation (1). V i (I = 1, 2, 3,..., N) are nodes of the contour model, and correspond to the representative points of the contour data in the present invention.
E snakes (V i ) = E int (V i ) + E image (V i ) + E con (V i ―――――― (1)
As the internal energy, the sum of the first and second derivatives of the contour is often used and is calculated as in the following equation (2). The first derivative represents the distance between the nodes, and the second derivative represents the smoothness of the curve connecting the nodes. Α and β are weighting parameters for the respective terms.
E int (V i ) = Α | V i − V i-12 + Β | V i-1 −2V i + V i + 12 ――― (2)
The image energy is generally calculated as an image density gradient represented by the following equation (3).
[0068]
In the present invention, the sum of the vertical edge data and the horizontal edge data in the hierarchy 1 of the hierarchy edge data shown in FIG. 3 is used as data representing the density gradient. It should be noted that the data value representing the density gradient takes a value of 0 to 255 in the case of 256 gradations, and if it becomes larger than 255 as a result of the addition, it is converted to 255. In the equation (3), γ is a weighting parameter for image energy.
E image (V i ) = -Γ | ▽ I (V i ) | ――― (3)
External energy is generally used to suppress the model shape change, and mainly to maintain the contraction direction of the model and the characteristics of the model shape. In the present invention, there is no need for such a model constraint. con (V i ) Is 0.
[0069]
Energy function E defined in this way snakes Are evaluated in the neighborhood region of each point, and the contour is corrected by moving each representative point to a position where the energy is the smallest. FIG. 9 shows a state of correction by the active contour model.
[0070]
At this time, by inputting the correction parameter (S6) of the flow in FIG. 1, the weighting parameters of the equations (2) and (3) are changed according to the image quality (noise and unevenness state) of the pattern image, thereby changing the pattern. It is possible to change the feature of the contour of the. For example, when there is a lot of noise in the image and the backlash of the contour extracted by the contour tracking process (S4) is large, the weighting parameter of the equation (2) for calculating the internal energy is increased to reduce the backlash and smooth. The contour can be corrected. In addition, when there are minute protrusions and distortions in the original pattern and it is desired to obtain an outline that faithfully represents them, the original pattern can be obtained by increasing the weighting parameter in Equation (3) for calculating the image energy. It is possible to correct the contour closer to the image.
[0071]
Here, it returns to the flow of FIG.
[0072]
Next, contour data conversion processing (S7) is performed. This is to cope with a case where a pattern edge image (mainly SEM image) of a wafer or photomask has a thickness as shown in FIG.
[0073]
If the edge of the pattern has a thickness, it is not known which part of the inside, outside, or center should be extracted as a true contour. Therefore, in the present invention, the user can select any one of the inside, the outside, and the center by the side input (S8) of the edge in FIG. 1, and the desired contour is extracted by the contour data conversion processing (S7). I made it.
[0074]
In addition, since the expression “inside / outside” cannot be applied to a case of a linear pattern or the like, in the present invention, the darker and darker one is the darker edge and the opposite side is the brighter part than the thick white edge. The center of both edges is called the center edge, and one of them is selected. Further, since the edge data of the dark part is larger than that of the bright part, the edge data of the dark part is first extracted by the processing up to (S6) in FIG.
[0075]
FIG. 11 shows a flow of contour data conversion processing, and FIG.
[0076]
First, a description will be given along the flowchart of the contour data conversion process shown in FIG.
(A) The type of edge input in S8 of FIG. 1 is confirmed (501). If it is a dark edge, the process ends as it is, and if not (bright edge, center edge), contour data conversion processing is performed.
(B) First, in order to confirm whether the edge of the pattern has a thickness and a bright edge exists, the presence or absence of the bright edge is confirmed (502). This is performed by using the layer edge data of an arbitrary layer and examining the vicinity region of the start point of the contour data and confirming the presence / absence of edge data above a certain threshold.
(C) If a bright edge is not found, a message indicating that only a dark edge can be extracted is output as error processing (503). If it is confirmed that a bright edge exists, a reference vector connecting the start point of the contour data and the next point is created.
(D) It is examined whether the edge of the bright part exists in the direction in which the reference vector is rotated to the right or left, and the conversion direction (+ or-) is calculated (504). The right rotation direction is +. In the example of FIG. 12, since the edge of the bright part is in the direction in which the reference vector is rotated to the left, the conversion direction is −.
[0077]
Next, the following processing is sequentially performed for all the contour data.
(E) First, a vector d (i) that connects the previous (i-1) and the next (i + 1) contour data is generated (506).
(F) A normal vector n (i) of the vector d (i) is generated starting from the i-th contour data (507). The direction of the normal vector n (i) is the direction in which the vector d (i) is rotated in the conversion direction, that is, the direction in which the bright part edge exists. The normal vector n (i) sets the direction in which each contour data is moved.
(G) Next, the end point of the normal vector n (i) is found, and the length is calculated (508). As for the end point of the normal vector n (i), the normal vector n (i) is expanded or contracted to search for a point where the hierarchical edge data at the end point position becomes maximum. That is, the position of the bright edge is set as the end point of the normal vector n (i).
(H) If the center edge is selected as the edge to be extracted, the normal vector n (i) is halved (510). This is because the central edge is considered to be located between the dark edge and the bright edge.
(I) After generating the normal vector n (i) for all the contour data, the average length of the normal vector n (i) is calculated (513).
(J) Finally, the entire contour data is converted by each normal vector n (i) (514) to generate contour data of the bright edge or the central edge. At this time, as a conversion method, there are a method of moving the contour data to the end point position of each normal vector n (i) and a method of moving the average data in the direction of each normal vector n (i). The former case is effective when the width of the edge having the thickness is not constant, and a contour faithful to the pattern image can be obtained, but there is a possibility that the noise of the contour increases. In the latter case, the contour obtained as a result of the conversion has little noise and can maintain smoothness. However, if the width of the edge having a thickness is not constant, there is a possibility that a deviation from the pattern image occurs. Therefore, it is necessary to determine which method is used based on the state of the edge of the pattern image and the image quality.
[0078]
Returning again to the flow of FIG.
[0079]
Since the contour data obtained by the processing so far is a discrete value, the contour data is generated by interpolation calculation so as to be a continuous value (S9). As an interpolation method, there are a method of simply connecting each point of the contour data with a straight line, a method of interpolating with a spline function, and the like.
[0080]
Next, in order to collectively extract a plurality of patterns in the selected area, a remaining pattern determination process (S10) for confirming whether or not there is a remaining pattern is performed.
[0081]
This flow is shown in FIG.
(A) First, the average of the maximum value and the minimum value is calculated in the edge data in the vertical and horizontal directions of a certain hierarchy to obtain the remaining pattern determination threshold value (601).
(B) Next, the data of the outline area is set to 0 for the edge data in the vertical and horizontal directions of each layer (602). The contour area is a certain width of the contour line. Considering the case where the edge of the original pattern has a thickness, all the data near the contour line is set to 0. It is aimed.
(C) Then, the vertical and horizontal edge data of a certain hierarchy is scanned for each row, and it is confirmed whether or not edge data equal to or greater than the remaining pattern determination threshold exists continuously in the horizontal or vertical direction (603). .
[0082]
As a result of step (603), if there is data continuously exceeding the threshold value, it is determined that another pattern still exists, and the flow proceeds to “with pattern” in the flow of FIG. Repeatedly extracts the contour of another pattern. On the other hand, if it does not exist, it is determined that another pattern does not exist in the selected area, and the flow proceeds to “no pattern” in the flow of FIG. 1 and ends.
[0083]
【Example】
Here, an example of contour extraction according to the present invention will be described.
[0084]
FIG. 17 shows an example of a pattern image with shading unevenness. It can be seen that the left side of the pattern image is brighter than the right side. In the case of such a pattern image, the conventional method of extracting the contour after binarizing the image does not work.
[0085]
(A) of FIG. 18 is obtained by extracting a contour by setting a threshold value and binarizing by a mode method. In this case, since only one threshold value is set, it can be seen that the contour line is broken in the middle. FIG. 18B shows an image obtained by dividing an image, obtaining a threshold value by a discriminant analysis method in each region, binarizing, and extracting an outline. In this case, although there is no distortion of the contour line as in (a), noise is extracted where there is only a pattern portion or a background portion in each divided region, and only the pattern contour cannot be extracted.
[0086]
Therefore, contour extraction is performed according to claim 1 of the present invention.
[0087]
First, a pattern area is selected (S1), and hierarchical edge data is created from the grayscale data of the selected area (S2). Next, a contour tracking start point is extracted (S3), and a contour tracking process (S4) is performed therefrom. FIG. 19 shows contour data obtained by the contour tracking process. Compared with the result by the conventional method, it can be seen that only the outline of the pattern can be extracted as the original image.
[0088]
However, since the outline of the pattern includes a rattling noise, a process for removing this is performed next. Representative points are extracted from the contour data, and contour data correction processing (S5) is performed using an active contour model. Thereafter, the corrected contour data is connected by a straight line or a spline curve to generate a contour line (S9). The generated outline is shown in FIG. From this figure, it can be seen that a smooth contour line almost identical to the pattern of the original image and free from noise is obtained.
[0089]
Another embodiment of the present invention will be described with respect to contour extraction of grayscale unevenness images.
[0090]
In the case of a SEM image of a photomask, the shooting conditions greatly affect the image quality. In particular, as shown in FIG. 21, in the case where shading unevenness occurs for each portion of the pattern due to the charge-up of the glass portion of the photomask, it is impossible to extract the contour line by the conventional method. However, the contour extraction method according to the first aspect of the present invention enables optimal contour extraction even in such a pattern image. The result of contour extraction is shown in FIG.
[0091]
Next, when there is a lot of noise in the extracted contour due to noise in the pattern image or lack of contrast, the weighting factor is adjusted during the contour data correction process using the dynamic contour model. An example of extracting the optimum contour line will be described.
[0092]
In the pattern image shown in FIG. 23, the contrast between the pattern portion and the background portion is not so clear, and the noise of the image is large. For such a pattern image, after the contour data is extracted, a correction parameter having the same weighting coefficient for adjusting the degree of coincidence between the weighting coefficient for adjusting the smoothness of the contour and the image is input (S6), and the contour data correcting process (S5) is performed. FIG. 24 shows the result of the above. It can be seen that the outline in FIG. 24 contains minute noise. This minute noise appears because the image quality of the pattern image is not good, and is considered not to be included in the original pattern. Such noise becomes an adverse effect when measuring the feature amount of the pattern from the contour line.
[0093]
Therefore, the correction parameter is changed, the weighting factor for adjusting the smoothness of the contour is increased, the weighting factor for adjusting the degree of coincidence with the image is decreased, and the contour data correction processing (S5) is performed as before. Is shown in FIG. In this outline, it can be seen that the minute noise is lost. Moreover, it can be confirmed that the uneven shape seen near the center of the right edge of the original pattern image is left without being deleted as noise. This result shows that this method is very effective as a method for faithfully expressing the features of the pattern itself as an outline and deleting only unnecessary noise.
[0094]
Next, if the edge of the pattern image has a thickness that shines white, select one of the edges inside, outside, or center (in the present invention, the edge of the dark part, the edge of the bright part, or the edge of the center). An example of extraction will be described.
[0095]
FIG. 26 shows an example of a pattern image having a thick edge. In such a pattern image, an arbitrary edge having a thickness is extracted as a contour line.
[0096]
In the present invention, when the pattern image is subjected to contour extraction processing, the edge having the larger contrast is first extracted first. In the case of FIG. 26, the processing up to S5 in FIG. Is extracted. Therefore, if the edge selected and input in S8 is a dark edge, nothing is done in the contour data conversion process (S7). On the other hand, in the case of the bright part edge or the central edge, the contour data is converted, and the contour corresponding to each edge is moved by moving the coordinates of each contour data to the position of the bright part edge or the central edge. Generate a line.
[0097]
FIG. 27 shows the results of extracting the contour lines of the dark edge, the bright edge, and the central edge in the pattern image of FIG. It can be seen that each contour line is correctly extracted in accordance with each edge.
[0098]
【The invention's effect】
As described above, in the contour extraction method of the present invention, a wafer pattern image or photomask having noise or shading unevenness is obtained by performing correction processing using the dynamic contour model on the contour data extracted by the contour tracking processing. Also in the pattern image, it is possible to extract a smooth contour line that matches the original pattern image. Further, by adjusting the correction parameter during the contour data correction processing, it is possible to extract a contour line that faithfully represents the pattern feature without being influenced by the image quality even when the image quality of the pattern image is poor. Further, in a pattern having a thick edge, it is possible to extract a contour line of an arbitrary edge by converting the contour data according to the selected edge.
[Brief description of the drawings]
FIG. 1 is a flowchart showing a processing procedure for contour extraction according to the present invention.
FIG. 2 is a creation flow diagram of hierarchical edge data.
FIG. 3 is a diagram illustrating a calculation method of hierarchical edge data.
FIG. 4 is a flowchart of tracking start point extraction processing;
FIG. 5 is a flowchart showing a procedure of a contour tracking processing method.
FIG. 6 is a diagram illustrating numerical values corresponding to directions of neighboring data.
FIG. 7 is a schematic diagram for determining a tracking range from a tracking direction and a tracking distance in contour tracking processing.
FIG. 8 is a flowchart for contour data correction processing;
FIG. 9 is a schematic diagram showing a state of contour data correction processing using an active contour model.
FIG. 10 is an example of a pattern image when the edge portion of the pattern shines white and has a thickness.
FIG. 11 is a flowchart showing a procedure for converting contour data.
FIG. 12 is an explanatory diagram of a contour data conversion processing method.
FIG. 13 is a flowchart of remaining pattern determination processing;
FIG. 14 is a schematic diagram showing a histogram of an image in which a pattern portion and a background portion exist.
FIG. 15 is an example of a threshold image processing result for a pattern image with shading unevenness and the entire image.
FIG. 16 is an example of a result obtained by dividing a pattern image having shading unevenness and an image and performing threshold processing.
FIG. 17 is an example of a pattern image with shading unevenness.
FIG. 18 is a diagram illustrating a result of contour extraction processing by a conventional method.
FIG. 19 is a diagram illustrating a result of a contour tracking process.
FIG. 20 is a diagram illustrating a result of contour data correction processing.
FIG. 21 is an example of a pattern image having shading unevenness due to charge-up.
FIG. 22 is a result of contour extraction of a pattern image having shading unevenness due to charge-up.
FIG. 23 is an example of a pattern image with large noise and low contrast.
FIG. 24 is a contour line extracted when the weighting factor for adjusting the smoothness of the contour and the weighting factor for adjusting the degree of coincidence between images in the contour data correction processing are the same.
FIG. 25 is a contour line extracted when the weighting coefficient for adjusting the smoothness of the contour is increased and the weighting coefficient for adjusting the degree of coincidence with the image is decreased in the contour data correction processing.
FIG. 26 is a pattern image in which the edge portion of the pattern shines white and has a thickness.
FIG. 27 is a contour line of a bright part edge, a dark part edge, and a center edge extracted by a contour data conversion process;

Claims (16)

半導体ウェハ及びフォトマスクの多階調を有するパターン画像からパターンの輪郭を抽出する輪郭抽出方法において、
(a)輪郭を抽出する画像の範囲を選択する領域選択ステップと、
(b)選択された領域の画像情報から、エッジデータを算出する際の差分を計算する画素間の距離を階層とし、縦横方向のエッジデータと階層構造を持ち、エッジデータを多重化した階層エッジデータを作成するエッジデータ作成ステップと、
(c)パターンの輪郭を追跡し始める点を抽出する追跡開始点抽出ステップと、
(d)階層エッジデータについて、用いる階層を設定し、該階層におけるエッジデータの値を比較し、エッジデータの最大値を順に辿ることにより、パターンを輪郭追跡し、
輪郭追跡してきたエッジデータの値からしきい値を設定し、輪郭候補点のエッジデータの値がしきい値以下のとき階層を変更することにより、
パターンの輪郭データを生成する輪郭追跡ステップと、
(e)パターンの輪郭データから、一定間隔毎にパターンの輪郭にあたるポイントを、代表点として抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理ステップと、
(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成ステップと、
からなるステップを実行することによりパターン画像の輪郭を抽出すること
を特徴とする輪郭抽出方法。
In a contour extraction method for extracting a contour of a pattern from a pattern image having multiple gradations of a semiconductor wafer and a photomask,
(A) a region selection step for selecting a range of an image from which a contour is extracted;
(B) Hierarchical edges that have a hierarchical structure of distances between pixels for calculating differences when calculating edge data from image information of a selected area, have edge data in the vertical and horizontal directions, and have multiplexed edge data Edge data creation step to create data;
(C) a tracking start point extracting step for extracting a point at which the pattern outline starts to be tracked;
(D) For the layer edge data, set the layer to be used, compare the edge data values in the layer, and trace the pattern by tracing the maximum value of the edge data in order,
By setting the threshold value from the edge data value that has been contour-tracked, and changing the hierarchy when the edge data value of the contour candidate point is below the threshold value,
A contour tracking step for generating pattern contour data;
(E) a contour data correction processing step for extracting points corresponding to the contour of the pattern at regular intervals as representative points from the contour data of the pattern, and converting them to a smooth contour by dynamic contour model calculation;
(F) a contour generation step for generating a continuous contour line by interpolation calculation from the corrected contour data;
A contour extraction method comprising: extracting a contour of a pattern image by executing a step consisting of:
前記(d)階層エッジデータを利用してパターンの輪郭データを生成する輪郭追跡ステップにおいて、(a)追跡方向と追跡距離から追跡する範囲を予め設定する追跡範囲設定ステップと、(b)追跡範囲の中から方向に対応した階層エッジデータを利用して輪郭候補点を探す輪郭候補点探索ステップと、(c)輪郭候補点が見つからない場合に階層エッジデータの使用階層を増加させるとともに、階層の上限を超えた場合には使用階層を初期化して追跡距離を増加させる使用階層・追跡距離更新ステップと、(d)輪郭候補点がみつかった場合に輪郭候補点を輪郭データに追加し、追跡方向を更新するとともに使用階層と追跡距離を初期化する輪郭データ追加ステップと、(e)輪郭データが追加される毎に輪郭の角度を確認し、角度が一定のしきい値以上となる場合にはその部分の輪郭データを削除し、別の追跡方向を設定する輪郭の角度確認ステップと、(f)領域外に出るか追跡開始点に戻るまで前記の全ステップを繰り返す繰返しステップと、からなるステップを実行することによりパターン画像の輪郭を抽出することを特徴とする請求項1記載の輪郭抽出方法。(D) a contour tracking step for generating pattern contour data using hierarchical edge data; (a) a tracking range setting step for presetting a tracking range from a tracking direction and a tracking distance; and (b) a tracking range. A contour candidate point search step for searching for contour candidate points using hierarchical edge data corresponding to the direction from among the above, and (c) increasing the use hierarchy of the hierarchical edge data when no contour candidate point is found, A usage hierarchy / tracking distance update step for initializing the usage hierarchy to increase the tracking distance when the upper limit is exceeded, and (d) adding a contour candidate point to the contour data when a contour candidate point is found, and tracking direction (E) Check the angle of the contour every time the contour data is added and update the angle. If the threshold value exceeds the threshold value, the contour data of the portion is deleted, and the step of confirming the angle of the contour to set another tracking direction, and (f) all the above described until going out of the area or returning to the tracking start point. The contour extracting method according to claim 1, wherein the contour of the pattern image is extracted by executing a step consisting of repeating steps. 請求項1、又は請求項2記載の輪郭抽出方法において、請求項1記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理ステップにあって、輪郭データ補正処理ステップは、動的輪郭モデル計算によって輪郭データを滑らかな輪郭に補正する際に、パターンの滑らかさと元画像との一致度についての重み係数を適宜設定するステップと、からなるステップを実行することにより、画像のノイズによらずに最適な輪郭が抽出できることを特徴とする輪郭抽出方法。The contour extraction method according to claim 1 or 2, wherein a representative point is extracted from the contour data of the pattern according to claim 1 and converted into a smooth contour by dynamic contour model calculation. In the step, the contour data correction processing step appropriately sets a weighting factor for the degree of coincidence between the smoothness of the pattern and the original image when the contour data is corrected to a smooth contour by dynamic contour model calculation; An outline extraction method characterized in that an optimum outline can be extracted regardless of image noise by executing the steps consisting of: 請求項1、乃至請求項3のいずれか1項記載の輪郭抽出方法において、請求項1記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理ステップにあって、元パターン画像の縁が太さを持っている場合は、(a)元パターン画像の縁の内側か外側か中心のいずれを輪郭として抽出するかを選択するステップと、(b)選択に応じて輪郭データを変換する輪郭データ変換ステップと、からなるステップを実行することにより、太さのある縁の任意のエッジを輪郭線として抽出できることを特徴とする輪郭抽出方法。4. The contour extraction method according to claim 1, wherein representative points are extracted from the contour data of (e) pattern according to claim 1 and converted into a smooth contour by dynamic contour model calculation. When the edge of the original pattern image has a thickness in the contour data correction processing step to be performed, (a) whether to extract the inside, outside or center of the edge of the original pattern image as the contour is selected. A contour characterized in that an arbitrary edge of a thick edge can be extracted as a contour line by executing a step consisting of a step, and (b) a contour data converting step for converting contour data in accordance with selection. Extraction method. 請求項1、乃至請求項4のいずれか1項記載の輪郭抽出方法において、請求項1記載の(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成ステップにあって、輪郭線生成ステップ後、選択された領域内に複数のパターンが存在する場合は、(a)領域内に別のパターンがあるかを判定するステップと、(b)パターンが無くなるまで輪郭抽出を繰り返すパターンの有無判定ステップと、からなるステップを実行することにより、複数パターンの一括輪郭抽出が可能となることを特徴とする輪郭抽出方法。5. The contour extraction method according to claim 1, wherein (f) a contour generation step of generating a continuous contour line by interpolation calculation from the corrected contour data according to claim 1. After the contour generation step, when there are a plurality of patterns in the selected region, (a) a step of determining whether there is another pattern in the region, and (b) contour extraction until there is no pattern. A contour extraction method characterized in that a batch contour extraction of a plurality of patterns can be performed by executing a step comprising: 半導体ウェハ及びフォトマスクの多階調を有するパターン画像からパターンの輪郭を抽出する輪郭抽出装置において、
(a)輪郭を抽出する画像の範囲を選択する領域選択手段と、
(b)選択された領域の画像情報から、エッジデータを算出する際の差分を計算する画素間の距離を階層とし、縦横方向のエッジデータと階層構造を持ち、エッジデータを多重化した階層エッジデータを作成するエッジデータ作成手段と、
(c)パターンの輪郭を追跡し始める点を抽出する追跡開始点抽出手段と、
(d)階層エッジデータについて、用いる階層を設定し、該階層におけるエッジデータの値を比較し、エッジデータの最大値を順に辿ることにより、パターンを輪郭追跡し、
輪郭追跡してきたエッジデータの値からしきい値を設定し、輪郭候補点のエッジデータの値がしきい値以下のとき階層を変更することにより、
パターンの輪郭データを生成する輪郭追跡手段と、
(e)パターンの輪郭データから、一定間隔毎にパターンの輪郭にあたるポイントを、代表点として抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理手段と、
(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成手段と、
からなることを特徴とする輪郭抽出装置。
In an outline extraction apparatus for extracting the outline of a pattern from a pattern image having multiple gradations of a semiconductor wafer and a photomask,
(A) region selection means for selecting a range of an image from which a contour is extracted;
(B) Hierarchical edge that has a hierarchical structure of distances between pixels for calculating the difference when calculating edge data from the image information of the selected area, has edge data in the vertical and horizontal directions, and has multiplexed the edge data Edge data creation means for creating data;
(C) a tracking start point extracting means for extracting a point at which the pattern outline starts to be traced;
(D) For the layer edge data, set the layer to be used, compare the edge data values in the layer, and trace the pattern by tracing the maximum value of the edge data in order,
By setting the threshold value from the edge data value that has been contour-tracked, and changing the hierarchy when the edge data value of the contour candidate point is below the threshold value,
Contour tracking means for generating pattern contour data ;
(E) contour data correction processing means for extracting points corresponding to the contour of the pattern at regular intervals as representative points from the contour data of the pattern, and converting them into smooth contours by dynamic contour model calculation;
(F) contour generation means for generating a continuous contour from the corrected contour data by interpolation calculation;
An outline extracting apparatus characterized by comprising:
前記(d)階層エッジデータを利用してパターンの輪郭データを生成する輪郭追跡手段が、(a)追跡方向と追跡距離から追跡する範囲を予め設定する追跡範囲設定手段と、(b)追跡範囲の中から方向に対応した階層エッジデータを利用して輪郭候補点を探す輪郭候補点探索手段と、(c)輪郭候補点が見つからない場合に階層エッジデータの使用階層を増加させるとともに、階層の上限を超えた場合には使用階層を初期化して追跡距離を増加させる使用階層・追跡距離更新手段と、(d)輪郭候補点がみつかった場合に輪郭候補点を輪郭データに追加し、追跡方向を更新するとともに使用階層と追跡距離を初期化する輪郭データ追加手段と、(e)輪郭データが追加される毎に輪郭の角度を確認し、角度が一定のしきい値以上となる場合にはその部分の輪郭データを削除し、別の追跡方向を設定する輪郭の角度確認手段と、(f)領域外に出るか追跡開始点に戻るまで前記の全ステップを繰り返す繰返し手段と、からなることを特徴とする請求項6記載の輪郭抽出装置。(D) contour tracking means for generating pattern contour data using hierarchical edge data; (a) tracking range setting means for presetting a tracking range from the tracking direction and tracking distance; and (b) tracking range. A contour candidate point searching means for searching for contour candidate points using hierarchical edge data corresponding to the direction from among the above, and (c) increasing the use hierarchy of the hierarchical edge data when no contour candidate point is found, A usage hierarchy / tracking distance update means for initializing the usage hierarchy to increase the tracking distance when the upper limit is exceeded, and (d) a contour candidate point is added to the contour data when a contour candidate point is found, and the tracking direction Data update means that updates the usage hierarchy and tracking distance, and (e) the contour angle is checked each time contour data is added, and the angle exceeds a certain threshold Comprises a contour angle checking means for deleting the contour data of the part and setting another tracking direction, and (f) a repeating means for repeating the above steps until it goes out of the area or returns to the tracking start point. The contour extracting apparatus according to claim 6. 請求項6、又は請求項7記載の輪郭抽出装置において、請求項6記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理手段は、動的輪郭モデル計算によって輪郭データを滑らかな輪郭に補正する際に、パターンの滑らかさと元画像との一致度についての重み係数を適宜設定する手段を備え、画像のノイズによらずに最適な輪郭が抽出できることを特徴とする輪郭抽出装置。8. A contour data correcting process according to claim 6, wherein a representative point is extracted from the contour data of the pattern according to claim 6 and converted into a smooth contour by dynamic contour model calculation. The means comprises means for appropriately setting a weighting factor for the degree of coincidence between the smoothness of the pattern and the original image when the contour data is corrected to a smooth contour by the dynamic contour model calculation, regardless of the noise of the image. An outline extraction apparatus characterized in that an optimum outline can be extracted. 請求項6、乃至請求項8のいずれか1項記載の輪郭抽出装置において、請求項6記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理手段は、元パターン画像の縁が太さを持っている場合は、(a)元パターン画像の縁の内側か外側か中心のいずれを輪郭として抽出するかを選択する手段と、(b)選択に応じて輪郭データを変換する輪郭データ変換手段と、からなり、太さのある縁の任意のエッジを輪郭線として抽出できることを特徴とする輪郭抽出装置。9. The contour extracting apparatus according to claim 6, wherein representative points are extracted from the contour data of the pattern according to claim 6 and converted into a smooth contour by dynamic contour model calculation. The contour data correction processing means for selecting, when the edge of the original pattern image has a thickness, (a) means for selecting whether the inside, the outside or the center of the edge of the original pattern image is extracted as a contour; (B) Contour data conversion means for converting contour data in accordance with selection, and can extract an arbitrary edge having a thickness as a contour line. 請求項6、乃至請求項9のいずれか1項の輪郭抽出装置において、請求項6記載の(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成手段は、輪郭線生成手段後、選択された領域内に複数のパターンが存在する場合は、(a)領域内に別のパターンがあるかを判定する手段と、(b)パターンが無くなるまで輪郭抽出を繰り返すパターンの有無判定手段と、からなり、複数パターンの一括輪郭抽出が可能となることを特徴とする輪郭抽出装置。10. The contour extracting apparatus according to claim 6, wherein the contour generating means for generating a continuous contour line by interpolation calculation from the corrected contour data according to claim 6 comprises: After the line generation means, when there are a plurality of patterns in the selected area, (a) means for determining whether there is another pattern in the area, and (b) a pattern for repeating contour extraction until there is no pattern. A contour extracting device, wherein a plurality of patterns can be collectively extracted. 半導体ウェハ及びフォトマスクの多階調を有するパターン画像からパターンの輪郭を抽出する輪郭抽出プログラムにおいて、
(a)輪郭を抽出する画像の範囲を選択する領域選択プログラムと、
(b)選択された領域の画像情報から、エッジデータを算出する際の差分を計算する画素間の距離を階層とし、縦横方向のエッジデータと階層構造を持ち、エッジデータを多重化した階層エッジデータを作成するエッジデータ作成プログラムと、
(c)パターンの輪郭を追跡し始める点を抽出する追跡開始点抽出プログラムと、
(d)階層エッジデータについて、用いる階層を設定し、該階層におけるエッジデータの値を比較し、エッジデータの最大値を順に辿ることにより、パターンを輪郭追跡し、
輪郭追跡してきたエッジデータの値からしきい値を設定し、輪郭候補点のエッジデータの値がしきい値以下のとき階層を変更することにより、
パターンの輪郭データを生成する輪郭追跡プログラムと、
(e)パターンの輪郭データから、一定間隔毎にパターンの輪郭にあたるポイントを、代表点として抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理プログラムと、
(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成プログラムと、
からなることを特徴とする輪郭抽出プログラム。
In a contour extraction program for extracting a contour of a pattern from a pattern image having multiple gradations of a semiconductor wafer and a photomask,
(A) an area selection program for selecting a range of an image from which a contour is extracted;
(B) Hierarchical edge that has a hierarchical structure of distances between pixels for calculating the difference when calculating edge data from the image information of the selected area, has edge data in the vertical and horizontal directions, and has multiplexed the edge data An edge data creation program for creating data;
(C) a tracking start point extraction program for extracting a point at which the pattern outline starts to be traced;
(D) For the layer edge data, set the layer to be used, compare the edge data values in the layer, and trace the pattern by tracing the maximum value of the edge data in order,
By setting the threshold value from the edge data value that has been contour-tracked, and changing the hierarchy when the edge data value of the contour candidate point is below the threshold value,
An outline tracking program for generating pattern outline data ;
(E) a contour data correction processing program that extracts points corresponding to the contour of the pattern at regular intervals as representative points from the contour data of the pattern, and converts them into smooth contours by dynamic contour model calculation;
(F) a contour line generation program for generating a continuous contour line by interpolation calculation from the corrected contour data;
An outline extraction program characterized by comprising:
前記(d)階層エッジデータを利用してパターンの輪郭データを生成する輪郭追跡プログラムにおいて、(a)追跡方向と追跡距離から追跡する範囲を予め設定する追跡範囲設定プログラムと、(b)追跡範囲の中から方向に対応した階層エッジデータを利用して輪郭候補点を探す輪郭候補点探索プログラムと、(c)輪郭候補点が見つからない場合に階層エッジデータの使用階層を増加させるとともに、階層の上限を超えた場合には使用階層を初期化して追跡距離を増加させる使用階層・追跡距離更新プログラムと、(d)輪郭候補点がみつかった場合に輪郭候補点を輪郭データに追加し、追跡方向を更新するとともに使用階層と追跡距離を初期化する輪郭データ追加プログラムと、(e)輪郭データが追加される毎に輪郭の角度を確認し、角度が一定のしきい値以上となる場合にはその部分の輪郭データを削除し、別の追跡方向を設定する輪郭の角度確認プログラムと、(f)領域外に出るか追跡開始点に戻るまで前記の全ステップを繰り返す繰返しプログラムと、からなることを特徴とする請求項11記載の輪郭抽出プログラム。(D) a contour tracking program for generating pattern contour data using hierarchical edge data; (a) a tracking range setting program for presetting a tracking range from a tracking direction and a tracking distance; and (b) a tracking range. A candidate contour point search program that searches for candidate contour points using hierarchical edge data corresponding to the direction from among the above, and (c) when the candidate contour points are not found, increases the use hierarchy of the hierarchical edge data, A usage hierarchy / tracking distance update program that initializes the usage hierarchy and increases the tracking distance when the upper limit is exceeded, and (d) adds a contour candidate point to the contour data when a contour candidate point is found, and the tracking direction (E) Check the angle of the contour every time contour data is added, and update the usage hierarchy and tracking distance. If the angle exceeds a certain threshold value, the contour data of that portion is deleted, and a contour angle confirmation program for setting another tracking direction, and (f) until it goes out of the area or returns to the tracking start point The contour extraction program according to claim 11, comprising: a repetitive program that repeats all the steps. 請求項11、又は請求項12記載の輪郭抽出プログラムにおいて、請求項11記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理プログラムは、動的輪郭モデル計算によって輪郭データを滑らかな輪郭に補正する際に、パターンの滑らかさと元画像との一致度についての重み係数を適宜設定するプログラムと、からなる画像のノイズによらずに最適な輪郭が抽出できることを特徴とする輪郭抽出プログラム。13. A contour extraction program according to claim 11 or 12, wherein a representative point is extracted from the contour data of (e) pattern according to claim 11 and converted into a smooth contour by dynamic contour model calculation. When correcting contour data to a smooth contour by dynamic contour model calculation, the program appropriately sets a weighting factor for the degree of coincidence between the smoothness of the pattern and the original image, regardless of image noise. A contour extraction program characterized by being able to extract the most suitable contour. 請求項11、乃至請求項13のいずれか1項記載の輪郭抽出プログラムにおいて、請求項11記載の(e)パターンの輪郭データから代表点を抽出し、動的輪郭モデル計算によって滑らかな輪郭に変換する輪郭データ補正処理プログラムは、元パターン画像の縁が太さを持っている場合は、(a)元パターン画像の縁の内側か外側か中心のいずれを輪郭として抽出するかを選択するプログラムと、(b)選択に応じて輪郭データを変換する輪郭データ変換プログラムと、からなり、太さのある縁の任意のエッジを輪郭線として抽出できることを特徴とする輪郭抽出プログラム。The contour extraction program according to any one of claims 11 to 13, wherein representative points are extracted from the contour data of the pattern (e) according to claim 11, and converted into a smooth contour by dynamic contour model calculation. The contour data correction processing program to be executed is, when the edge of the original pattern image has a thickness, (a) a program for selecting whether the inside, the outside or the center of the edge of the original pattern image is extracted as the contour; And (b) a contour data conversion program for converting contour data in accordance with selection, and can extract an arbitrary edge having a thickness as a contour line. 請求項11、乃至請求項14のいずれか1項記載の輪郭抽出プログラムにおいて、請求項11記載の(f)補正された輪郭データから補間計算によって連続した輪郭線を生成する輪郭線生成プログラムにあって、輪郭線生成プログラムの後、選択された領域内に複数のパターンが存在する場合は、(a)領域内に別のパターンがあるかを判定するプログラムと、(b)パターンが無くなるまで輪郭抽出を繰り返すパターンの有無判定プログラムと、からなることにより、複数パターンの一括輪郭抽出が可能となることを特徴とする輪郭抽出プログラム。The contour extraction program according to any one of claims 11 to 14, wherein (f) the contour generation program for generating a continuous contour line by interpolation calculation from the corrected contour data according to claim 11 is provided. After the contour generation program, when there are a plurality of patterns in the selected area, (a) a program for determining whether there is another pattern in the area, and (b) the contour until there is no pattern. A contour extraction program characterized by comprising a pattern presence / absence determination program that repeats extraction, thereby enabling collective contour extraction of a plurality of patterns. 請求項11、乃至請求項15のいずれか1項記載の輪郭抽出プログラムを搭載することを特徴とする輪郭抽出装置。An outline extraction apparatus, comprising the outline extraction program according to any one of claims 11 to 15.
JP2002012397A 2002-01-22 2002-01-22 Outline extracting method and apparatus and program thereof Expired - Fee Related JP4085635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002012397A JP4085635B2 (en) 2002-01-22 2002-01-22 Outline extracting method and apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002012397A JP4085635B2 (en) 2002-01-22 2002-01-22 Outline extracting method and apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2003216959A JP2003216959A (en) 2003-07-31
JP4085635B2 true JP4085635B2 (en) 2008-05-14

Family

ID=27649617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002012397A Expired - Fee Related JP4085635B2 (en) 2002-01-22 2002-01-22 Outline extracting method and apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4085635B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197120A (en) * 2010-03-17 2011-10-06 Toppan Printing Co Ltd Pattern evaluation method and pattern evaluation device
WO2018012704A3 (en) * 2016-07-11 2018-08-02 삼성전자 주식회사 Image processing device and image processing method

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4502645B2 (en) * 2004-01-20 2010-07-14 富士通株式会社 Person image extraction apparatus and computer program
JP4491714B2 (en) * 2004-04-28 2010-06-30 独立行政法人科学技術振興機構 Contour extraction system
JP4008934B2 (en) * 2004-05-28 2007-11-14 株式会社東芝 Image data correction method, lithography simulation method, program, and mask
JP4846635B2 (en) 2007-03-22 2011-12-28 株式会社東芝 Pattern information generation method
JP5182228B2 (en) * 2009-06-02 2013-04-17 コニカミノルタエムジー株式会社 Outline extraction apparatus and program
JP5423286B2 (en) * 2009-09-29 2014-02-19 凸版印刷株式会社 Pattern data conversion method
KR101971622B1 (en) 2012-01-04 2019-08-13 삼성전자주식회사 The method and apparatus for measuring biometrics of object
CN111275827B (en) * 2020-02-25 2023-06-16 北京百度网讯科技有限公司 Edge-based augmented reality three-dimensional tracking registration method and device and electronic equipment
CN115837701B (en) * 2023-02-22 2023-05-12 青岛环球重工科技有限公司 Shield segment automatic precise plastering control system with automatic identification function

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011197120A (en) * 2010-03-17 2011-10-06 Toppan Printing Co Ltd Pattern evaluation method and pattern evaluation device
WO2018012704A3 (en) * 2016-07-11 2018-08-02 삼성전자 주식회사 Image processing device and image processing method
US10733709B2 (en) 2016-07-11 2020-08-04 Samsung Electronics Co., Ltd. Image processing device and image processing method

Also Published As

Publication number Publication date
JP2003216959A (en) 2003-07-31

Similar Documents

Publication Publication Date Title
CN110866924B (en) Line structured light center line extraction method and storage medium
JP3485052B2 (en) Reference image creation method, pattern inspection apparatus, and recording medium recording reference image creation program
JP2984633B2 (en) Reference image creation method and pattern inspection device
US7440605B2 (en) Defect inspection apparatus, defect inspection method and program
US7162071B2 (en) Progressive self-learning defect review and classification method
JP3028945B2 (en) Multi-tone rounding correction processing method and pattern inspection apparatus
US8355562B2 (en) Pattern shape evaluation method
US20130010100A1 (en) Image generating method and device using scanning charged particle microscope, sample observation method, and observing device
JP6099479B2 (en) Crack detection method
JP4085635B2 (en) Outline extracting method and apparatus and program thereof
JP2002516440A (en) Image recognition and correlation system
TWI773063B (en) Image generation system and image generation method
US11410300B2 (en) Defect inspection device, defect inspection method, and storage medium
CN111354047B (en) Computer vision-based camera module positioning method and system
US20010012390A1 (en) Pattern inspection equipment, pattern inspection method, and storage medium storing pattern inspection program
CN111383759A (en) Automatic pneumonia diagnosis system
US8977034B2 (en) Pattern shape evaluation method and pattern shape evaluation apparatus
CN114612412A (en) Processing method of three-dimensional point cloud data, application of processing method, electronic device and storage medium
JP2005285898A (en) Pattern image determination method and pattern image determination apparatus using the same
JP4100056B2 (en) Photomask appearance inspection method
CN110553581B (en) Critical dimension measuring method and image processing device for measuring critical dimension
TWI807346B (en) Dimension measuring device, semiconductor manufacturing device and semiconductor device manufacturing system
JP2871601B2 (en) Character string detecting apparatus and method
JP4604582B2 (en) Pattern image measurement method
JP4417763B2 (en) Method for extracting white area of SEM image and method for calculating feature amount in SEM image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070906

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071107

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080211

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4085635

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140228

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees