JP4404276B2 - Image information processing apparatus, image information processing method, and recording medium - Google Patents

Image information processing apparatus, image information processing method, and recording medium Download PDF

Info

Publication number
JP4404276B2
JP4404276B2 JP08992499A JP8992499A JP4404276B2 JP 4404276 B2 JP4404276 B2 JP 4404276B2 JP 08992499 A JP08992499 A JP 08992499A JP 8992499 A JP8992499 A JP 8992499A JP 4404276 B2 JP4404276 B2 JP 4404276B2
Authority
JP
Japan
Prior art keywords
square
image
line detection
detection component
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08992499A
Other languages
Japanese (ja)
Other versions
JP2000285236A (en
Inventor
和幸 丸尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advantest Corp
Original Assignee
Advantest Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advantest Corp filed Critical Advantest Corp
Priority to JP08992499A priority Critical patent/JP4404276B2/en
Publication of JP2000285236A publication Critical patent/JP2000285236A/en
Application granted granted Critical
Publication of JP4404276B2 publication Critical patent/JP4404276B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Testing Or Measuring Of Semiconductors Or The Like (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、半導体ウェハやプリント基板などに発生する異物などの欠陥情報を認識・検出する画像情報処理装置に関する。
【0002】
【従来の技術】
プリント基板あるいは半導体ウェハの製造工程において発生あるいは混入する欠陥や異物は不良品の原因となる。従って欠陥/異物が発生した時点ですみやかに検出する必要がある。
【0003】
プリント基板の写真、あるいは半導体ウェハを光学顕微鏡などで撮影して入力した画像において、上に述べたような欠陥や異物を検出、認識あるいは判断を行う画像情報処理装置は従来から存在する。これらの方式は画像をデジタル的に取り扱うデジタル画像処理がほとんどで、コンピュータを用いて画像処理を行っている。
【0004】
従来、画像処理を用いた欠陥検出は主に(a)ゴールデンデバイスとの比較、(b)CADデータとの比較、(c)ダイトゥダイ比較、(d)FET法などが知られている。
【0005】
(a)ゴールデンデバイスとの比較では、予め欠陥の無い理想的な半導体ウェハ(以降ゴールデンデバイスと呼ぶ)の画像を用意しておき、このゴールデンデバイスの画像と検査対象の画像を比較して欠陥を検出する。画像を比較するとは2つの画像の対応する画素ごとに、画素値の差分画像をつくる処理をすることである。検査対象画像に全く欠陥が無い場合は、ゴールデンデバイスの画像データと同じ画像となるので、差分処理によって画面全体が画素値0をもつ全くフラットな画像となる。しかし、欠陥や異物があった場合は、その部分に0以外の値の画素が集中的にあらわれる。従って、この0以外の値をもつ画素の集まりを抽出して、大きさや重心を求めることにより、欠陥や異物を検出することができる。
【0006】
(b)CADデータとの比較では、検査対象デバイスを設計したCAD画像データと、製造したウェハの画像データを比較する。
【0007】
これにより(a)ゴールデンデバイスとの比較と同様に欠陥や異物を検出することができる。
【0008】
(c)ダイトゥダイ比較では、一枚のウェハ上には複数の同じチップ(以後ダイと呼ぶ)が配列していることを利用して、隣合うダイの画像データを比較する。これにより(a),(b)と同様に欠陥や異物を検出することができる。
【0009】
(d)FET法では、ウェハ上に発生する欠陥が局所的なのに対して、配線パターンが周期的である性質を利用して、配線パターンを除去して欠陥を検出する。すなわち、入力ウェハパターン画像を二次元FET(高速フーリエ変換)などにより、フーリエ変換し、空間周波数領域で配線パターンに対応する特定の空間周波数成分をバンドストップフィルタなどを利用して除去し、逆FETすることにより欠陥を検出することができる。
【0010】
【発明が解決しようとする課題】
(a)ゴールデンデバイスとの比較を利用する場合、予めゴールデンデバイスの画像を用意する必要がある。ゴールデンデバイスの画像をつくるには、欠陥のないサンプルをはじめに見つけておく必要がある。この欠陥の無いサンプルを見つける作業は人間の目で慎重に行われる必要がある。また、半導体ウェハのパターンは現在の多品種少量生産の傾向により、非常に多岐にわたっており、変更も多い。これら全ての品種、あるいは設計変更に対して逐一ゴールデンデバイスの画像をつくる必要があり、かなりの労力が必要となる。
【0011】
(b)CADデータとの比較では、(a)のようにゴールデンデバイスを探す必要がないので効率的である。ところで最近、半導体チップの高集積化が進み、ウェハパターンの詳細な画像を得るのに従来の光学顕微鏡では対応できなくなり、走査電子顕微鏡(SEM; Scanning Electron Microscope)などが利用されるようになってきている。SEM画像は、光学顕微鏡画像に比べてノイズが多い。従って、ノイズのないCADデータとSEM画像の差分画像を作成した場合、欠陥以外のノイズが大量に検出されてしまう。
【0012】
さらに、(a),(b)の方法とも、画像比較を行う際に、正確な位置合わせを最初に行う必要がある。
【0013】
(c)ダイトゥダイ比較では、隣合ったダイ同士を比較するので基本的に位置合わせを行う必要がない。しかし、偶然同じ場所に同じような欠陥があった場合検出できないという欠点がある。また、(b)と同様、SEM画像を適用した場合は、ノイズを検出してしまう。
【0014】
(d)FET法はSEM画像からでも欠陥を検出することが可能である。しかし、この手法は非常に長い処理時間を要する。例えば512×512画素で構成されるデジタル画像に二次元フーリエ変換を適用した場合、約1.31×(10の8乗)回の加減算と、8.39×(10の8乗)乗算が必要となる。また、MPUなどの複雑な配線パターンは、空間周波数領域のフィルタリングでは正確に除去することができない。
【0015】
この発明の第1の目的は、(a)、(b)、(c)の画像比較法ではノイズの影響が大きくて欠陥を正確に検出できないうような不鮮明なSEM画像からでも欠陥を検出することができる画像情報処理装置を提供することである。
【0016】
この発明の第2の目的は、(a)、(b)の画像比較法で必要であったゴールデンデバイスやCADデータを使わずに、単独の検査対象画像から欠陥を検出することができる画像情報処理装置を提供することである。
【0017】
この発明の第3の目的は、(d)FET法のように大量の処理時間を使わずに高速に検査対象画像から欠陥を検出することができる画像情報処理装置を提供することである。
【0018】
【課題を解決するための手段】
本発明は、円形の欠陥の画像データを有する入力デジタル画像データに対して、二次元ウェーブレット変換する二次元ウェーブレット変換手段と、二次元ウェーブレット変換によって得られた、縦線検出成分、横線検出成分に対してしきい値処理を適用して縦線検出成分と横線検出成分の二値画像を作成する二値化処理手段と、二値化処理手段によって得られた二値画像に対して、正方形を検出する正方形のハフ(Hough)変換を適用して対象物の位置と大きさとを求める正方形ハフ(Hough)変換手段と、を備えている。
【0019】
二次元ウェーブレット変換手段により縦線または横線の成分だけをもつ配線パターンと、いろいろな方向の成分をもつ欠陥とが分離される。そして、縦線、横線の検出成分を二値化処理手段により二値化処理して二値画像を得て、二値画像に正方形ハフ(Hough)変換手段が正方形ハフ(Hough)変換を適用して、欠陥を正方形として検出する。なお、円形の欠陥も正方形として検出される。
【0020】
よって、ゴールデンデバイスやCADデータを用いずに、単独の検査対象画像から欠陥を検出でき、FET法のように大量の処理時間を要しない(二次元ウェーブレット変換は、FET法よりも時間がかからない)。
【0021】
なお、本発明にかかる画像情報処理装置、前記正方形ハフ(Hough)変換手段によってえられたパラメータ空間にしきい値処理を適用して特定の図形情報を検出する二値化処理手段を備えているようにしてもよい
【0022】
なお、本発明にかかる画像情報処理装置、正方形のハフ(Hough)変換結果を二値化処理したパラメータ空間の二値画像において隣接する活性画素に同じラベルを付けてグループ化するラベリング手段と、ラベリング処理によって得られた前記各ラベルの重心座標を求める重心算出手段と、を備えているようにしてもよい
【0023】
なお、本発明にかかる画像情報処理装置、入力デジタル画像に対して、局所的な雑音除去を行う雑音除去手段を備えているようにしてもよい
【0024】
なお、本発明にかかる画像情報処理装置、二次元ウェーブレット変換結果に二値化処理手段を適用した後の前記縦線検出成分と前記横線検出成分の前記二値画像に対して、孤立している活性画素を除去する孤立点除去手段を備えているようにしてもよい
【0025】
なお、本発明にかかる画像情報処理装置、正方形ハフ(Hough)変換手段は正方形の中心のxy座標と一辺の長さを検出するハフ(Hough)変換を行うものであるようにしてもよい
【0026】
なお、本発明にかかる画像情報処理装置、正方形ハフ(Hough)変換手段は、二次元ウェーブレット変換の前記縦線検出成分と前記横線検出成分に対応する2つの前記二値画像を同じパラメータ空間にハフ(Hough)変換する手段であるようにしてもよい
【0027】
なお、本発明にかかる画像情報処理装置、正方形ハフ(Hough)変換手段は、二次元ウェーブレット変換の前記縦線検出成分と前記横線検出成分に対応する2つの前記二値画像のどちらか一方のみにハフ(Hough)変換する手段であるようにしてもよい
【0028】
なお、本発明にかかる画像情報処理装置、二次元ウェーブレット変換の前記縦線検出成分と前記横線検出成分のエネルギーを計算するエネルギー算出手段を備え、正方形ハフ(Hough)変換手段は、前記エネルギーの低い方の成分に対応する前記二値画像に対して正方形ハフ(Hough)変換を行うようにしてもよい
【0029】
なお、本発明にかかる画像情報処理装置、正方形ハフ(Hough)変換によるパラメータ空間にたいする前記二値化処理手段のしきい値が、正方形の一辺の長さパラメータの大きさに対応して変化するようにしてもよい
【0030】
なお、本発明にかかる画像情報処理装置、複数の対象物が位置的に重複したときに、重複を取り除く重複検出除去手段を備えているようにしてもよい
【0031】
本発明は、円形の欠陥の画像データを有する入力デジタル画像データに対して、二次元ウェーブレット変換する二次元ウェーブレット変換工程と、前記二次元ウェーブレット変換工程によって得られた、縦線検出成分、横線検出成分に対してしきい値処理を適用して前記縦線検出成分と前記横線検出成分の二値画像を作成する二値化処理工程と、前記二値化処理工程によって得られた二値画像に対して、正方形を検出する正方形のハフ(Hough)変換を適用して前記対象物の位置と大きさとを求める正方形ハフ(Hough)変換工程とを備えている。
【0032】
本発明は、円形の欠陥の画像データを有する入力デジタル画像データに対して、二次元ウェーブレット変換する二次元ウェーブレット変換処理と、前記二次元ウェーブレット変換処理によってえられた、縦線検出成分、横線検出成分に対してしきい値処理を適用して前記縦線検出成分と前記横線検出成分の二値画像を作成する二値化処理と、前記二値化処理によって得られた二値画像に対して、正方形を検出する正方形のハフ(Hough)変換を適用して前記対象物の位置と大きさをもとめる正方形ハフ(Hough)変換処理とをコンピュータに実行させるためのプログラムを記録したコンピュータによって読み取り可能な記録媒体である。
【0033】
【発明の実施の形態】
本発明は大きく分けると、ウェハパターン画像の配線パターンから欠陥成分を分離する二次元ウェーブレット変換手段と、欠陥成分を分離した二値画像から欠陥の位置と大きさを検出するハフ(Hough)変換手段で構成されており、以上の手段での欠陥検出性能を向上するためにその他の手段を補助的に利用する。
【0034】
(A)正方形ハフ(Hough)変換手段
ハフ(Hough)変換については「画像認識の基礎[ΙΙ]」(森、坂倉著、オーム社)のpp.3−19に詳しく説明されているが、ここで、ハフ(Hough)変換処理について簡単に説明する。ハフ(Hough)変換は二値画像から特定の図形を検出する画像処理である。ここでは、正方形を検出する方法を説明する。
【0035】
x−y平面において、図4に示すように、45度傾いた正方形は、(a,b)を正方形の中心座標、rを正方形の一辺の長さとすると、次の方程式で表現される。
【0036】
|x−a|+|y−b|=r/√2 (1)
つまり、x−y平面上の一つの正方形は(a,b,r)パラメータ空間では1点で表現される。x−y平面をパラメータ空間に変換するのがハフ(Hough)変換であり、この場合はx−y平面の正方形の特徴を示す(a,b,r)空間に変換するので正方形のハフ(Hough)変換と呼ぶ。正方形のハフ(Hough)変換は(1)式を変形した次式で実現する。
【0037】
b=±(r/√2−|x−a|)+y (2)
正方形のハフ(Hough)変換の具体例を図4を用いて示す。図4(a)の各観測点α(x1,y1)、β(x2,y2)、γ(x3,y3)を(2)式で(a,b,r)空間にマッピングする。r軸はa−b面に直交している。あるr0(ここではr0=24)でスライスしたa−b面が図4(b)である。それぞれのrでの平面については、観測点一点から、その観測点を中心とする一本のハフ(Hough)曲線(正方形)を得る。観測点が一辺の半分の距離(以下、半径という)がr0である正方形上にあると、正方形の(Hough)曲線は、点(a0,b0,r0)で交わる。すなわち、x−y平面上に正方形が存在する場合は、パラメータ空間でたくさんのハフ(Hough)曲線の交点として検出することができる。交点では、交わるハフ(Hough)曲線の数に比例して交点の輝度が高くなる。従って、パラメータ空間では輝度値の大きいパラメータを見つけることにより、x−y平面の正方形を検出することができる。図4(b)ではパラメータ(a0,b0,24)だけが輝度値3となっており、それ以外は輝度値2以下である。輝度値が大きい(a0,b0,24)を検出することにより、もとのx−y平面の3点が中心(a0,b0)、半径24の正方形が検出される。
【0038】
なお、正方形のハフ変換によっては、二値画像中の円が、その円に外接する正方形として検出できる。ディジタル画像処理は、画像データ、すなわち離散データを対象にしている。図16に示すように、半径rの円に同じ中心座標をもつ正方形が交差、または接する(以下、“交わる”と表現する)条件は正方形の半径rがr0/√2以上r0以下の区間である。この区間において、正方形が円に外接するとき、すなわちr=r0のときに、円と正方形の一辺が交わる区間が最も長いことを証明すればよい。これを数学的帰納法を用いて証明する。
【0039】
(1)r=r0のとき
円の半径は離散的に変化するので、半径r0のつぎに長い半径はr0+1となる。r=r0+1の正方形は半径r0の円とは接しないので、r=r0の正方形の方が、r=r0+1の正方形よりも円と交わる区間が長い。すなわち、半径rの正方形が一辺r0の円と交わる区間をG(r)とすると、G(r0)>G(r0+1)である。
【0040】
(2)r=riのとき
G(ri)<G(ri+1)であるとして、r=ri−1のときを考える。r=riのときの円と正方形の関係は図15のようになっている。円と正方形が交わるのは図15に示した8箇所になるので、G(ri)=8(α(ri)―β(ri))となる。
【0041】
α(ri)2=r02−ri2
β(ri)2=r02−(ri+1)2
よって、α(ri)2−β(ri)2=2ri+1
また、r=ri−1に対応する、α(ri−1)、β(ri−1)について同様の検討をすると、
(α(ri−1))2−(β(ri−1))2=2ri−1
となる。したがって自乗の差をとり、整理すると
α(ri)2−β(ri)2―{(α(ri−1))2−(β(ri−1))2}=2>0
よって、
α(ri)2−β(ri)2>(α(ri−1))2−(β(ri−1))2
となる。
【0042】
α(ri)>0、β(ri)>0、α(ri)−β(ri)>0、α(ri−1)−β(ri−1)>0より、
α(ri)−β(ri)>(α(ri−1))−(β(ri−1))
とすることができる。
【0043】
G(ri)=8(α(ri)―β(ri))
G(ri−1)=8(α(ri−1)―β(ri−1))なので、
G(ri)>G(ri−1)となる。
【0044】
(3) (1)(2)より、
…<G(r0−2)<G(r0−1)<G(r0)>G(r0+1)=G(r0+2)=…
となり、G(r0)が最大値、すなわちr=r0のときに円と正方形が交わる区間がもっとも長い。
【0045】
すなわち、この円に正方形のハフ変換を行うと、r=r0のa−bパラメータ空間でもっとも多くのハフ曲線が交差してピーク値をとるということになる。したがって、半径r0の円に正方形のハフ変換を適用すると半径r0、すなわち、円に外接する正方形が検出される。たとえば、図16(a)に示したような、半導体ウェハ上のパーティクル欠陥の二値画像に正方形ハフ変換を適用した結果を図16(b)に示す。r=78でピーク値をとり、正方形として検出している。同じ二値画像に円のハフ変換を適用した場合も、r=78の円を検出するので、正方形ハフ変換が円を正しく検出していることがわかる。
【0046】
(B)ウェーブレット変換手段
ウェーブレット変換については、CHUI、“An Introduction to WAVELETS”Academic Press, 1922に詳しく記載されているが、ここではウェーブレット変換処理について簡単に説明する。
【0047】
画像データに対するウェーブレット変換は二次元ウェーブレット変換になるが、これは画像のx軸方向に対する一次元ウェーブレット変換とy軸方向に対する一次元ウェーブレット変換とを組み合わせることにより実現するので、一次元ウェーブレット変換処理について説明する。ウェーブレット変換を行う際に使用する基底関数は多数存在するが、ここではその中で最も構造が単純なHarr Waveletを用いて説明する。他のウェーブレット基底関数についても関数の形が違うだけで、出力される情報はほぼ同様になる。ウェーブレット変換はスケーリング関数とウェーブレット関数の二つの直交する関数により構成される。スケーリング関数はデータの平滑情報(=ローパス情報)を出力する関数で、ウェーブレット関数はデータの詳細情報(=ハイパス情報)を出力する関数である。Harr Waveletの場合は、スケーリング関数がg0=g1=1/2で、ウェーブレット関数がh0=1/2、h1=−1/2である。
【0048】
入力信号s0〜s15があったとき、Harr Wavelet変換した出力信号t0〜t15は次のようになる。
【0049】
t0=g0・s0+g1・s1 、 t8=h0・s0+h1・s1
t1=g0・s2+g1・s3 、 t9=h0・s2+h1・s3
t2=g0・s4+g1・s5 、 t10=h0・s4+h1・s5
・・・
t7=g0・s14+g1・s15 、 t15=h0・s14+h1・s15
このHarr Wavelet変換に具体的な信号を入力してみる。例えば、次の入力信号sを与える。
【0050】
s(n)={0,0,0,0,0,0,0,2,2,2,2,2,2,2,2,2}
(3)
この信号は1箇所で信号が0から2と大きく変化している。このような信号が大きく変化するところをエッジと呼ぶ。(3)のように信号値が大きくなるエッジをエッジの立ち上がり、逆に信号値が小さくなるエッジをエッジの立ち下がりと呼ぶ。(3)の信号をHarr Wavelet変換すると、次の結果tを得る。
【0051】
N→0,1,2,3,4,5,6,7;8,9,10,11,12,13,14,15
t(N)={0,0,0,1,2,2,2,2;0,0,0,−1,0,0,0,0} (4)
(ローパス成分) (ハイパス成分)
ウェーブレット変換した結果をウェーブレット係数と呼ぶ。ハイパス成分のウェーブレット係数t(11)に入力信号sのエッジが検出されている。このように、ウェーブレット変換は入力信号のエッジ成分を検出することができる。
【0052】
このウェーブレット変換はウェハパターンのSEM画像のような二次元の画像データに対しても適用することができる。具体的に画像データにウェーブレット変換を適用した例を図5、図6に示す。この例では図5Aの原画像が512×512デジタルデータとなっている。この画像に対して、まずx軸方向に対して一次元ウェーブレット変換を施す。つまり、x軸(横軸)方向の512個の信号に対するウェーブレット変換をy軸(縦軸)方向に512回繰り返す。これにより図5Bの画像が得られる。図5Bは図5Aの原画像を縦に2分割し、左側にローパス情報(L)、右側にハイパス情報(H)が納められたものである。
【0053】
この図5Bに対して今度はy軸方向に同じウェーブレット変換を施す。これにより図6の画像が得られる。図6は図5Bを縦に2分割し、上側にローパス情報(L)、下側にハイパス情報(H)が納められた画像である。従って、図6には図5Aの原画像を4分割し、左上にx、y軸両方向のローパス情報(LL成分)、右上にx軸方向のハイパス情報とy軸方向のローパス情報を組み合わせた情報(HL成分)、左下にx軸方向のローパス情報とy軸方向のハイパス情報を組み合わせた情報(LH成分)、右下にはx、y軸両方向のハイパス情報(HH成分)が納められていることになる。つまり、右上の部分は原画像内に存在するY軸方向の線成分(縦線成分)、左下の部分は原画像内に存在するX軸方向の線成分(横線成分)、そして右下の部分には斜め方向の線成分を示していることになる。また、ここではまずx軸方向に変換処理を行ってからy軸方向に変換処理を行って図6を得ているが、x、yの変換の順序を入れ替えても、最終的な二次元ウェーブレット変換後は全く同じ図6の画像が得られる。
【0054】
以上の性質をもつ二次元ウェーブレット変換を、粒状の欠陥がある半導体ウェハ画像に適用すると、欠陥と背景の配線パターンを分離することができる。図7は半導体ウェハ画像を模したもので、水平に走る横線が配線パターン、中央にある黒丸が欠陥に対応している。このように半導体ウェハは、配線パターンが水平方向か垂直方向に整列している。このような画像に二次元ウェーブレット変換を適用すると図8の結果を得る。縦線検出成分、横線検出成分に着目すると、配線パターンは左下の横線を検出するLH成分のみに現れる。これに対していろいろな方向成分をもつ欠陥成分は右上のHL成分と、左下のLH成分に検出される。このように、二次元ウェーブレット変換を使うと、縦線または横線の成分だけをもつ配線パターンと、いろいろな方向の成分をもつ欠陥とを分離することが可能となる。
【0055】
以上説明した二次元ウェーブレット変換と、ハフ変換を組み合わせると、半導体ウェハ画像に存在する欠陥の位置と大きさを検出することができる。
【0056】
以下、本発明の実施の形態を図面を用いて説明する。まず、本発明の実施の形態に係る画像情報処理装置の構成を図11を参照して説明する。コンピュータ101は入出力や計算行うCPU31と、よく使う命令やデータを保持して処理の高速化を行うキャッシュ32、浮動小数点演算部33、ユーザ入力やデータを記憶するRAM34、システムプログラムを格納するROM36、ユーザの選択メニューや計算結果を表示する表示装置35、パラメータや命令を入力するキーボードやポインティングデバイス(マウスなど)の入力装置37、計算結果などを保存する磁気ディスク38を備えている。なお、これらの装置類はCPUバス30で接続されている。
【0057】
検査対象となる半導体ウェハなどのDUT(被試験デバイス)41は、ローダ・アンローダ46によりステージ45に対してロード・アンロードされる。ロードされたDUTは例えば電子顕微鏡などの画像入力装置42によって画像入力され、A/D変換器43によりデジタルデータ化され、フレームメモリ44に格納、あるいはコンピュータ上のRAM34に転送される。このデジタル画像は、例えば512×512画素の解像度で、256階調のグレースケール画像である。なお、フレームメモリ44はI/Oバス40を介してCPUバス30に接続される。また、制御装置47は、ステージ45、ローダ・アンローダ46によりその動作等が制御される。制御装置47は、コンピュータ101にI/Oバス40を介して接続されている。
【0058】
また、ウェーブレット変換手段51、ハフ変換手段53、二値化処理手段54、ラベリング処理手段55、雑音除去手段56、孤立点除去手段57、重心算出手段58、重複検出除去手段59は、フレームメモリ61、63、64、65、66、67、68,69によりCPUバス30に接続される。またエネルギ算出手段52は、フレームメモリ61およびCPUバス30に接続される。なお、ウェーブレット変換手段51、エネルギ算出手段52、正方形ハフ変換手段53、二値化処理手段54、ラベリング処理手段55、雑音除去手段56、孤立点除去手段57、重心算出手段58、重複検出除去手段59の動作については、実施の形態の動作の説明中に記載する。
【0059】
次に第1の実施の形態の動作について図1Aを参照して説明する。フレームメモリ44あるいはRAM34に格納された画像データを入力画像データとして、まずこれをフレームメモリ61に転送して、ウェーブレット変換手段51を適用して二次元ウェーブレット変換を行う(S1)。二次元ウェーブレット変換により縦線検出成分、横線検出成分を得る。これらの成分はエッジの部分で絶対値の大きいウェーブレット係数値をもち、それ以外の部分のウェーブレット係数は0か、0に近い値を持っている。
【0060】
次に、ウェーブレット係数の絶対値をフレームメモリ64に転送して、二値化処理を二値化処理手段54で行う(S2)。すなわち、二値化処理手段54は、縦線検出成分、横線検出成分に対して適当なしきい値を与えて二値化処理を行い、エッジ部分の係数値を1、それ以外を0とした二値画像を作成する。しきい値はここでは経験的に±5を設定した。
【0061】
最後に、二値画像をフレームメモリ63に転送して正方形ハフ変換を正方形ハフ変換手段53で行う(S3)。パラメータ空間は(a,b,r)の3次元になる。なお、第1実施形態の後に処理を追加することにより、欠陥の位置と大きさの特定を自動化することもできる。
【0062】
第1の実施の形態によれば以下のような効果が得られる。エッジ部分のウェーブレット係数の絶対値は大きいが、符号は正の場合と負の場合がある。通常の二値化処理では負の係数は0となるので、例えば図8の右上の縦線検出成分に通常のしきい値処理を行うと、図9のようにエッジの半分しか検出されない。しかし、ハフ変換は対象図形が欠けていても検出可能である。図9に対して、ハフ変換を利用すると、パラメータ空間では原画像に存在する正方形の成分、すなわちウェハパターンの画像であれば欠陥に対応するパラメータの輝度が高くなる。パラメータ空間を観察することにより、欠陥の位置と大きさを特定することが可能となる。
【0063】
第2の実施の形態の動作について図1Bを参照して説明する。ハフ変換後のパラメータ空間のデータはフレームメモリ64に送られ、二値化処理手段54が二値化処理を行う(S4)。なお、二値化のためのしきい値はrによって変化させる。x−y平面に中心(a0,b0)、半径r0の正方形が完全な形で存在する場合は、パラメータ(a0,b0,r0)の輝度が、8r0となるので、例えばしきい値を4r0に設定すると、半径r0の正方形の半分が欠けていてもパラメータの輝度がしきい値を越える。このしきい値でしきい値処理すると、輝度1、つまり白の画素の一つのグループが現れる。
【0064】
第3の実施の形態の動作について図1Cを参照して説明する。二値化処理(S4)された結果は、フレームメモリ65に転送される。そして、ラベリング処理手段65が、二値化処理(S4)された結果に隣接する輝度値1の画素をグルーピングするラベリング処理を行う(S5)。ハフ変換後のパラメータ空間では、検出大正の図形が存在するパラメータで輝度値が極大値となるが、それに隣接するパラメータの輝度値も高くなる。よって、二値化処理の結果では、検出対象の図形(例えば正方形)に対応するパラメータ付近に輝度値1のパラメータが集中的に存在する。ラベリング処理により(S5)、輝度値1のパラメータが集中している部分の一つの図形に対する特徴パラメータとみなす。
【0065】
そして、得られた各ラベルに属するパラメータのa座標とb座標をフレームメモリ68に送って、重心算出手段58がパラメータのa座標とb座標の平均値(a’,b’)を重心として算出する(S6)。これにより、入力画像から検出対象図形の位置と大きさを自動的に特定できる。
【0066】
第4の実施の形態の動作について図2Aを参照して説明する。二次元ウェーブレット変換(S1)の前に、入力ディジタル画像をフレームメモリ66に送り、例えばメディアンフィルタなどの雑音除去手段56により雑音を除去する。
【0067】
入力画像にスパイク状のノイズがあるとウェーブレット変換によりエッジとして検出される。検出対象図形以外のノイズを多数ハフ変換すると、検出対象以外ものを誤検出してしまう。原画像に雑音除去フィルタを適用することにより、誤検出を防ぐことができる。またハフ変換は二値画像の画素値1の画素数に比例して処理時間が増える。雑音除去手段56により、ウェーブレット変換手段+二値化処理手段で発生する画素値1のウェーブレット係数の数が減るので処理速度も向上する。
【0068】
第5の実施の形態の動作について図2Bを参照して説明する。誤検出の防止と処理速度の向上の目的で、ウェーブレット変換手段+二値化処理手段後の画像をフレームメモリ67に送り込み、孤立点除去手段57により孤立点を除去する(S2A)。これは二値画像の中で画素値1の画素で隣接する画素が全て画素値が0であるものを孤立点とみなし、かかる画素の画素値を0で置き換える画像処理手段である。
【0069】
ウェーブレット変換後の二値画像では、検出対象図形に対応する係数値1のウェーブレット係数は隣接して存在する。従って、係数値が1でも周囲がすべて係数値0であれば、この係数はノイズであるとみなして、係数値0とする。これにより、誤検出の防止と、処理速度の向上を実現する。
【0070】
第6の実施の形態の動作について図2Cを参照して説明する。第5の実施の形態における二値化処理(S2)を絶対値二値化処理(S2)に置き換えたものである。これは、ウェーブレット変換によってエッジ部分の係数値が負になることもあることを考慮して、通常の二値化処理のかわりにウェーブレット係数の絶対値に対して二値化処理を行うものである。
【0071】
この絶対値二値化処理を図8の右上の縦線検出成分に適用すると、図10のようにエッジ全体を検出することができる。これにハフ変換を適用することにより、通常の二値化処理を利用するよりも欠陥に対応するパラメータの輝度が大きくなり、検出が容易になる。
【0072】
第7の実施の形態の動作について図3Aを参照して説明する。これは、第5の実施形態と、正方形のハフ変換が異なる(S3)。すなわち、正方形ハフ変換手段53が、フレームメモリ63に送り込まれたウェーブレット変換結果の縦線検出成分と横線検出成分に対応する二値画像の両方をハフ変換するが、二つのハフ変換を同じパラメータ空間上に重ねて変換する。検出対象となる図形は縦線成分、横線成分両方にあらわれているので、この方法により確実に検出することが可能となる。
【0073】
第8の実施の形態の動作についても図3Aを参照して説明する。これは、第5の実施形態と、正方形のハフ変換が異なる(S3)。すなわち、正方形ハフ変換手段53が、フレームメモリ63に送り込まれたウェーブレット変換結果の縦線検出成分と横線検出成分に対応する二値画像の一方をハフ変換する。
【0074】
図7、図8に示すように、半導体ウェハ画像の配線パターンは水平あるいは垂直方向にそろっていて、縦線成分、横線成分のいずれかにのみあらわれる。配線パターンがあらわれていない成分に対してのみハフ変換を行うことにより、検出対象物だけをハフ変換することができ確実に検出することができる。配線パターンを検出対象物として誤検出することもない。
【0075】
第9の実施の形態の動作についても図3Bを参照して説明する。これは、第8の実施の形態に、縦線成分、横線成分のどちらかをハフ変換するかを自動的に決定するための手段を付加したものである。すなわち、フレームメモリ61に送り込まれたウェーブレット係数をもとにエネルギ算出手段52がエネルギを算出し(S1A)、エネルギが小さい方向を配線パターンが検出されていない方向として、その方向のみをハフ変換する。
【0076】
図8では画面の右下の横線検出成分には配線パターン+欠陥、画面の右上の縦線検出成分には欠陥だけがあらわれている。エッジを検出している部分はウェーブレット係数の絶対値が大きくなり、それ以外は0に近い係数値をもっている。従って、縦線成分、横線成分のエッジ成分検出の度合いを定量化して比較し、検出の度合いが少ない方が配線パターンが検出されていない成分とみなして、それをハフ変換することにより、図8の場合は画面の右上の縦線成分のみをハフ変換して検出対象図形を検出することができる。このエッジ検出の度合いを定量化する方法として、ウェーブレット係数のエネルギーを定義する、これは各ウェーブレット係数値をW(s,t)、二次元ウェーブレット係数の数をx軸方向にM個、y軸方向にN個として(5)式で定義する。
【0077】
E=(1/MN)Σs=1 MΣt=1 NW(s,t) (5)
第10の実施の形態の動作については図3Aを参照して説明する。これは、第5の実施形態と、二値化処理が異なる(S4)。すなわち、二値化処理(S4)のしきい値がrの大きさによって可変である。例えば、原画像に中心(a,b)、r=10の正方形C1と、中心(c,d)、r=100の正方形C2が存在したとする。パラメータ空間においてC1に対応するパラメータ(a,b,10)の輝度値は4×10=40となる。C2に対応するパラメータ(c,d,100)の輝度値はおよそ4×100=400となる。このようにrによってパラメータの輝度値が大きく変化する。二値化のしきい値をrに比例させて変化させることにより任意の大きさの正方形を検出することが可能となる。
【0078】
第11の実施の形態の動作については図3Cを参照して説明する。これは、第9の実施形態における重心算出(S6)の後に、重複検出除去(S7)があるものである。これは、重心算出(S6)により複数の正方形が検出された場合に、それらの正方形がx−y平面上で重複しないかどうかをチェックするものである。
【0079】
例えば、x−y平面に存在する正方形の一部の円弧にノイズ成分が加わって、それより少し小さい正方形が検出される場合がある。同じような位置に複数の欠陥を検出するのは誤検出であると判断して、大きい方の正方形だけを検出して、それに重複する小さい正方形が検出されても除外する。具体的には、複数の正方形が検出されたときに、小さい方の正方形の中心がそれより大きい正方形に入っていないかどうかをチェックし、正方形内に入っていれば除去するという処理を追加することにより実現する。
【0080】
なお、本発明の実施の形態では、処理手段ごとに専用のフレームメモリを持たせているが、図12に示すようにフレームメモリ61を共用することで、メモリの節約・効率化を図ることも可能である。
【0081】
また、図13のように装置41〜47を汎用の電子顕微鏡システム102に、各手段51〜59およびそれらに付属のフレームメモリをワークステーションなどのコンピュータ101に置き換えることも可能である。
【0082】
【発明の効果】
請求項1から3および請求項6から11は、本発明の第2の目的に対応するものである。これにより、従来の画像比較法で必要であったゴールデンデバイスやCADデータがなくても欠陥を検出することが可能となる。
【0083】
請求項4から5および請求項7から11は、本発明の第1の目的に対応するものである。実施の形態で説明したSEM画像のような画素値の時間変化が大きい画像の場合、従来の画像比較法ではノイズを大量に検出してしまう。これに対して本発明ではノイズをほとんど検出せずに欠陥を検出することが可能となる。
【0084】
請求項1,4,5,8及び9は、本発明の第3の目的に対応するものである。従来のFET法の場合、512×512画素の画像から周期的な配線パターンを除去するために、1.31×(10の8乗)回の加減算と8.39×(10の8乗)回の乗算が必要であったが、本発明の正方形ハフ変換を円ハフ変換に置き換えたものではウェーブレット変換手段の導入により、約5.5×(10の5乗)回の加減算と、1.1×(10の6乗)回の乗算で処理可能となる。他の画像処理もハフ変換以外はすべて10の7乗以下の演算量である。FET法でも画像の位置や大きさを自動検出するには、ハフ変換などの処理が必要になるので、本発明が不利にはならない。
【0085】
なお、円ハフ変換には、正方形ハフ変換には不要な、自乗処理や開平演算処理が含まれている。本発明は、ハフ変換を正方形ハフ変換に限定しているため、円ハフ変換よりも高速に演算できる。例えば、UltraSparc S-7/300U ワークステーション(170MHz)のCコンパイラでは、円ハフ変換は4650msecかかるのに対し、正方形ハフ変換は3441msecしかかからない。よって、FET法に比べて、さらに高速に演算できる。
【0086】
ハフ変換の演算量は、処理する二値画像の画素数に比例する。従って、ハフ変換対象の画素が少ない方が演算量が少ない。よって、請求項4および5に示した雑音除去、孤立点除去処理を行うことで、さらに演算速度を向上できる。
【0087】
以上詳細に説明したように、この発明は半導体ウェハパターンのような複雑な背景情報をもつ画像に対して、ハフ変換とウェーブレット変換を中心とした画像処理を組み合わせた装置を構成することにより、欠陥の位置と大きさを自動的に検出することが可能となり、欠陥検出性能の面からも、処理速度の面からもその効果は大である。
【図面の簡単な説明】
【図1】A,B及びCはそれぞれ第1、2及び3の実施の形態の動作を示すフローチャート。
【図2】A,B及びCはそれぞれ第4、5及び6の実施の形態の動作を示すフローチャート。
【図3】Aは第7、8及び10の実施の形態の動作、Bは第9の実施の形態の動作及びCは第11の実施の形態の動作を示すフローチャート。
【図4】正方形ハフ変換の説明図であり、Aは(x,y)画像空間上の正方形、Bは(a,b,r)パラメータ空間上のハフ曲線である。
【図5】Aはサンプル「家」の原画像、BはAの画像にx軸方向のウェーブレット変換を施した画像。
【図6】図5Bの画像にy軸方向のウェーブレット変換を施した画像。
【図7】半導体ウェハ画像を模したサンプル画像。
【図8】図7の画像に二次元ウェーブレット変換を施した画像。
【図9】図8の縦線検出成分(右上の部分)に二値化処理を適用した画像。
【図10】図8の縦線検出成分(右上の部分)に絶対値二値化処理を適用した画像。
【図11】本発明の実施の形態に係る画像情報処理装置の構成を示すブロック図。
【図12】本発明の実施の形態に係る画像情報処理装置の他の構成を示すブロック図。
【図13】本発明の実施の形態に係る画像情報処理装置のさらに他の構成を示すブロック図。
【図14】半径r0のときの円と正方形との関係を示す図である。
【図15】半径r=riのときの円と正方形との関係を示す図である。
【図16】半導体ウェハ上のパーティクル欠陥の二値画像とその正方形ハフ変換結果を示す図である。
【符号の説明】
51 ウェーブレット変換手段
52 エネルギ算出手段
53 ハフ変換手段
54 二値化処理手段
55 ラベリング処理手段
56 雑音除去手段
57 孤立点除去手段
58 重心算出手段
59 重複検出除去手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image information processing apparatus for recognizing and detecting defect information such as foreign matter generated on a semiconductor wafer, a printed circuit board, or the like.
[0002]
[Prior art]
Defects and foreign matter that are generated or mixed in the manufacturing process of printed circuit boards or semiconductor wafers cause defective products. Therefore, it is necessary to detect the defect / foreign matter as soon as possible.
[0003]
2. Description of the Related Art Conventionally, there has been an image information processing apparatus that detects, recognizes, or determines a defect or a foreign substance as described above in a photograph of a printed board or an image input by photographing a semiconductor wafer with an optical microscope or the like. Most of these methods are digital image processing that handles images digitally, and image processing is performed using a computer.
[0004]
Conventionally, defect detection using image processing is mainly known as (a) comparison with a golden device, (b) comparison with CAD data, (c) die-to-die comparison, (d) FET method, and the like.
[0005]
(A) In comparison with a golden device, an image of an ideal semiconductor wafer (hereinafter referred to as a golden device) having no defect is prepared in advance, and the image of this golden device is compared with the image to be inspected to detect defects. To detect. Comparing images means processing for creating a difference image of pixel values for each corresponding pixel of two images. When there is no defect in the image to be inspected, the image is the same as the image data of the golden device, so that the entire screen becomes a completely flat image having a pixel value of 0 by the difference processing. However, if there is a defect or foreign matter, pixels with values other than 0 appear intensively in that portion. Therefore, by extracting a group of pixels having values other than 0 and obtaining the size and the center of gravity, it is possible to detect a defect or a foreign object.
[0006]
(B) In the comparison with the CAD data, the CAD image data designed for the device to be inspected is compared with the image data of the manufactured wafer.
[0007]
As a result, defects and foreign matter can be detected as in (a) comparison with the golden device.
[0008]
(C) In die-to-die comparison, image data of adjacent dies are compared using the fact that a plurality of the same chips (hereinafter referred to as dies) are arranged on one wafer. As a result, defects and foreign matter can be detected as in (a) and (b).
[0009]
(D) In the FET method, the defect generated on the wafer is localized, whereas the defect is detected by removing the wiring pattern by utilizing the property that the wiring pattern is periodic. That is, the input wafer pattern image is Fourier-transformed using a two-dimensional FET (fast Fourier transform), etc., and a specific spatial frequency component corresponding to the wiring pattern is removed using a band stop filter or the like in the spatial frequency domain. By doing so, defects can be detected.
[0010]
[Problems to be solved by the invention]
(A) When using comparison with a golden device, it is necessary to prepare an image of the golden device in advance. To create an image of a golden device, you must first find a sample that is free of defects. The task of finding this defect-free sample must be done carefully with the human eye. In addition, the patterns of semiconductor wafers are very diverse due to the current trend of high-mix low-volume production, and there are many changes. It is necessary to create a golden device image for each of these varieties or design changes, which requires considerable effort.
[0011]
(B) Comparison with CAD data is efficient because it is not necessary to search for a golden device as in (a). Recently, as semiconductor chips have been highly integrated, a conventional optical microscope cannot be used to obtain a detailed image of a wafer pattern, and a scanning electron microscope (SEM) has been used. ing. The SEM image has more noise than the optical microscope image. Therefore, when a difference image between CAD data without noise and an SEM image is created, a large amount of noise other than defects is detected.
[0012]
Further, in both methods (a) and (b), when performing image comparison, it is necessary to perform accurate alignment first.
[0013]
(C) In die-to-die comparison, adjacent dies are compared with each other, so that it is basically unnecessary to perform alignment. However, there is a drawback that it cannot be detected if there is a similar defect in the same place by chance. Similarly to (b), when an SEM image is applied, noise is detected.
[0014]
(D) The FET method can detect defects even from an SEM image. However, this method requires a very long processing time. For example, when a two-dimensional Fourier transform is applied to a digital image composed of 512 × 512 pixels, approximately 1.31 × (10 8) additions / subtractions and 8.39 × (10 8) multiplication are required. It becomes. Further, complicated wiring patterns such as MPU cannot be accurately removed by filtering in the spatial frequency domain.
[0015]
The first object of the present invention is to detect a defect even from an unclear SEM image in which the image comparison methods (a), (b), and (c) are greatly affected by noise and cannot detect the defect accurately. It is to provide an image information processing apparatus capable of performing the above.
[0016]
A second object of the present invention is to provide image information capable of detecting a defect from a single image to be inspected without using a golden device or CAD data required in the image comparison methods (a) and (b). It is to provide a processing device.
[0017]
A third object of the present invention is to provide an image information processing apparatus capable of detecting a defect from an inspection object image at high speed without using a large amount of processing time as in the (d) FET method.
[0018]
[Means for Solving the Problems]
  The present inventionIs a two-dimensional wavelet transform means for performing two-dimensional wavelet transform on input digital image data having circular defect image data, and a vertical line detection component and a horizontal line detection component obtained by the two-dimensional wavelet transform. Threshold processing is applied to create a binary image of vertical line detection components and horizontal line detection components, and a square is detected from the binary image obtained by the binarization processing means. Square Hough transforming means for applying the square Hough transform to obtain the position and size of the object.
[0019]
The two-dimensional wavelet transform means separates a wiring pattern having only vertical or horizontal line components and defects having components in various directions. Then, binarization processing means binarizes the detected components of the vertical and horizontal lines to obtain a binary image, and the square Hough transform means applies a square Hough transform to the binary image. The defect is detected as a square. A circular defect is also detected as a square.
[0020]
Therefore, defects can be detected from a single inspection target image without using a golden device or CAD data, and a large amount of processing time is not required as in the FET method (two-dimensional wavelet transform takes less time than the FET method). .
[0021]
  The present inventionImage information processing deviceIsAnd binarization processing means for detecting specific graphic information by applying threshold processing to the parameter space obtained by the square Hough conversion means.You may do.
[0022]
  The present inventionImage information processing deviceIsA labeling means for grouping the active pixels adjacent to each other in the binary image of the parameter space obtained by binarizing the square Hough transformation result, and the center of gravity of each label obtained by the labeling process Centroid calculating means for obtaining coordinatesYou may do.
[0023]
  The present inventionImage information processing deviceIs, It is equipped with a noise removal means for performing local noise removal on the input digital imageYou may do.
[0024]
  The present inventionImage information processing deviceIsIsolated point removal means for removing isolated active pixels from the binary image of the vertical line detection component and horizontal line detection component after the binarization processing means is applied to the two-dimensional wavelet transform result. HaveYou may do.
[0025]
  The present inventionImage information processing deviceIsThe square Hough conversion means performs Hough conversion for detecting the xy coordinates of the center of the square and the length of one side.You may do.
[0026]
  The present inventionImage information processing deviceIsThe square Hough transform means is a means for Hough transforming the two binary images corresponding to the vertical line detection component and the horizontal line detection component of the two-dimensional wavelet transform into the same parameter space.You may do.
[0027]
  The present inventionImage information processing deviceIsThe square Hough transform means is a means for performing a Hough transform on only one of the two binary images corresponding to the vertical line detection component and the horizontal line detection component of the two-dimensional wavelet transform.You may do.
[0028]
  The present inventionImage information processing deviceIs, Energy calculating means for calculating the energy of the vertical line detection component and the horizontal line detection component of the two-dimensional wavelet transform, and a square Hough transform means, the binary image corresponding to the component having the lower energy Perform square Hough transform onYou may do.
[0029]
  The present inventionImage information processing deviceIsThe threshold value of the binarization processing means for the parameter space by the square Hough transform changes in accordance with the length parameter of one side of the square.You may do.
[0030]
  The present inventionImage information processing deviceIs, Equipped with a duplicate detection and removal means for removing duplicates when a plurality of objects overlap in positionYou may do.
[0031]
  The present inventionIs a two-dimensional wavelet transform process for performing two-dimensional wavelet transform on input digital image data having circular defect image data, and a vertical line detection component and a horizontal line detection component obtained by the two-dimensional wavelet transform process. A binarization processing step for creating a binary image of the vertical line detection component and the horizontal line detection component by applying threshold processing to the binary image obtained by the binarization processing step A square Hough transform step of obtaining a position and a size of the object by applying a square Hough transform for detecting a square.
[0032]
  The present inventionIs a two-dimensional wavelet transform process for performing two-dimensional wavelet transform on input digital image data having circular defect image data, and a vertical line detection component and a horizontal line detection component obtained by the two-dimensional wavelet transform process. A binarization process for creating a binary image of the vertical line detection component and the horizontal line detection component by applying a threshold processing to the binary image obtained by the binarization process. A computer-readable recording medium storing a program for causing a computer to execute a square Hough transform process for obtaining the position and size of the object by applying a square Hough transform to detect the object It is.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
The present invention can be broadly divided into a two-dimensional wavelet transform means for separating defect components from a wiring pattern of a wafer pattern image, and a Hough transform means for detecting the position and size of a defect from a binary image from which the defect components are separated. In order to improve the defect detection performance by the above means, other means are supplementarily used.
[0034]
(A) Square Hough conversion means
For the Hough transform, see “Basics of Image Recognition [ΙΙ]” (Mori, Sakakura, Ohm) pp. 3-19, the Hough conversion process will be briefly described. The Hough transform is image processing for detecting a specific figure from a binary image. Here, a method for detecting a square will be described.
[0035]
In the xy plane, as shown in FIG. 4, a square inclined 45 degrees is expressed by the following equation, where (a, b) is the center coordinate of the square and r is the length of one side of the square.
[0036]
| X−a | + | y−b | = r / √2 (1)
That is, one square on the xy plane is represented by one point in the (a, b, r) parameter space. The Hough transformation converts the xy plane into the parameter space. In this case, the transformation into the (a, b, r) space indicating the square features of the xy plane. ) Called conversion. The square Hough transform is realized by the following equation obtained by modifying equation (1).
[0037]
b = ± (r / √2− | x−a |) + y (2)
A specific example of a square Hough transform will be described with reference to FIG. Each observation point α (x1, y1), β (x2, y2), and γ (x3, y3) in FIG. 4A is mapped to the (a, b, r) space by equation (2). The r axis is orthogonal to the ab plane. FIG. 4B shows an ab plane sliced at a certain r0 (here r0 = 24). For each plane at r, a single Hough curve (square) is obtained from one observation point. If the observation point is on a square whose half distance (hereinafter referred to as radius) is r0, the square (Hough) curves intersect at a point (a0, b0, r0). That is, when a square exists on the xy plane, it can be detected as an intersection of many Hough curves in the parameter space. At the intersection, the luminance at the intersection increases in proportion to the number of intersecting Hough curves. Therefore, a square on the xy plane can be detected by finding a parameter having a large luminance value in the parameter space. In FIG. 4B, only the parameter (a0, b0, 24) has a luminance value of 3, and the others are luminance values of 2 or less. By detecting a large luminance value (a0, b0, 24), a square having a radius (24) and a center (a0, b0) at three points on the original xy plane is detected.
[0038]
Note that depending on the square Hough transform, a circle in the binary image can be detected as a square circumscribing the circle. Digital image processing targets image data, that is, discrete data. As shown in FIG. 16, a square having the same central coordinates intersects or touches a circle having a radius r (hereinafter referred to as “intersect”) is a section where the square radius r is r0 / √2 or more and r0 or less. is there. In this section, when the square circumscribes the circle, that is, when r = r0, it is sufficient to prove that the section where the circle and one side of the square intersect is the longest. This is proved using mathematical induction.
[0039]
(1) When r = r0
Since the radius of the circle varies discretely, the radius next to the radius r0 is r0 + 1. Since the r = r0 + 1 square does not touch the circle with the radius r0, the r = r0 square has a longer section where it intersects the circle than the r = r0 + 1 square. That is, G (r0)> G (r0 + 1), where G (r) is a section where a square with a radius r intersects with a circle with one side r0.
[0040]
(2) When r = ri
Assuming that G (ri) <G (ri + 1), consider the case of r = ri−1. The relationship between a circle and a square when r = ri is as shown in FIG. Since the circle and the square intersect at eight places shown in FIG. 15, G (ri) = 8 (α (ri) −β (ri)).
[0041]
α (ri)2= R02-Ri2
β (ri)2= R02-(Ri + 1)2
Therefore, α (ri)2-Β (ri)2= 2ri + 1
Further, when a similar study is performed on α (ri−1) and β (ri−1) corresponding to r = ri−1,
(Α (ri-1))2-(Β (ri-1))2= 2ri-1
It becomes. Therefore, taking the difference of squares and organizing
α (ri)2-Β (ri)2-{(Α (ri-1))2-(Β (ri-1))2} = 2> 0
Therefore,
α (ri)2-Β (ri)2> (Α (ri-1))2-(Β (ri-1))2
It becomes.
[0042]
From α (ri)> 0, β (ri)> 0, α (ri) -β (ri)> 0, α (ri-1) -β (ri-1)> 0,
α (ri) -β (ri)> (α (ri-1))-(β (ri-1))
It can be.
[0043]
G (ri) = 8 (α (ri) −β (ri))
Since G (ri−1) = 8 (α (ri−1) −β (ri−1)),
G (ri)> G (ri-1).
[0044]
(3) From (1) and (2),
... <G (r0-2) <G (r0-1) <G (r0)> G (r0 + 1) = G (r0 + 2) = ...
When G (r0) is the maximum value, that is, when r = r0, the section where the circle and the square intersect is the longest.
[0045]
That is, when a square Hough transform is performed on this circle, the most Hough curves intersect in the ab parameter space of r = r0 to obtain a peak value. Therefore, when a square Hough transform is applied to a circle with a radius r0, a radius r0, that is, a square circumscribing the circle is detected. For example, FIG. 16B shows the result of applying the square Hough transform to the binary image of the particle defect on the semiconductor wafer as shown in FIG. The peak value is taken at r = 78 and detected as a square. Even when the circle Hough transform is applied to the same binary image, the circle of r = 78 is detected, and it can be seen that the square Hough transform correctly detects the circle.
[0046]
(B) Wavelet transform means
The wavelet transform is described in detail in CHUI, “An Introduction to WAVELETS” Academic Press, 1922. Here, the wavelet transform process will be briefly described.
[0047]
The wavelet transform for image data is a two-dimensional wavelet transform, which is realized by combining the one-dimensional wavelet transform for the x-axis direction and the one-dimensional wavelet transform for the y-axis direction. explain. There are many basis functions used when performing wavelet transform, but here we will explain using the Harr Wavelet, which has the simplest structure. For other wavelet basis functions, the output information is almost the same except that the shape of the function is different. The wavelet transform is composed of two orthogonal functions, a scaling function and a wavelet function. The scaling function is a function that outputs data smoothing information (= low-pass information), and the wavelet function is a function that outputs detailed data information (= high-pass information). In the case of Harr Wavelet, the scaling function is g0 = g1 = 1/2, the wavelet function is h0 = 1/2, and h1 = −1 / 2.
[0048]
When there are input signals s0 to s15, Harr Wavelet converted output signals t0 to t15 are as follows.
[0049]
t0 = g0 · s0 + g1 · s1 t8 = h0 · s0 + h1 · s1
t1 = g0 · s2 + g1 · s3, t9 = h0 · s2 + h1 · s3
t2 = g0 · s4 + g1 · s5, t10 = h0 · s4 + h1 · s5
...
t7 = g0 · s14 + g1 · s15, t15 = h0 · s14 + h1 · s15
Try inputting a specific signal to this Harr Wavelet transform. For example, the following input signal s is given.
[0050]
s (n) = {0,0,0,0,0,0,0,2,2,2,2,2,2,2,2,2}
(3)
This signal changes greatly from 0 to 2 in one place. A place where such a signal greatly changes is called an edge. As in (3), an edge with a large signal value is called an edge rising edge, and an edge with a small signal value is called an edge falling edge. When the signal of (3) is Harr Wavelet transformed, the following result t is obtained.
[0051]
N → 0, 1, 2, 3, 4, 5, 6, 7; 8, 9, 10, 11, 12, 13, 14, 15
t (N) = {0, 0, 0, 1, 2, 2, 2, 2; 0, 0, 0, -1, 0, 0, 0, 0} (4)
(Low-pass component) (High-pass component)
The result of wavelet transform is called a wavelet coefficient. An edge of the input signal s is detected in the wavelet coefficient t (11) of the high pass component. In this way, the wavelet transform can detect the edge component of the input signal.
[0052]
This wavelet transform can also be applied to two-dimensional image data such as an SEM image of a wafer pattern. Specific examples in which the wavelet transform is applied to image data are shown in FIGS. In this example, the original image in FIG. 5A is 512 × 512 digital data. The image is first subjected to a one-dimensional wavelet transform in the x-axis direction. That is, the wavelet transform for 512 signals in the x-axis (horizontal axis) direction is repeated 512 times in the y-axis (vertical axis) direction. Thereby, the image of FIG. 5B is obtained. FIG. 5B shows the original image of FIG. 5A divided vertically into two pieces, in which low-pass information (L) is stored on the left side and high-pass information (H) is stored on the right side.
[0053]
This time, the same wavelet transform is applied to this FIG. 5B in the y-axis direction. Thereby, the image of FIG. 6 is obtained. FIG. 6 is an image in which FIG. 5B is vertically divided into two, and low-pass information (L) is stored on the upper side and high-pass information (H) is stored on the lower side. Accordingly, in FIG. 6, the original image of FIG. 5A is divided into four parts, low-pass information (LL component) in both the x and y axes in the upper left, and information combining the high pass information in the x axis and the low pass information in the y axis in the upper right. (HL component), information that combines low-pass information in the x-axis direction and high-pass information in the y-axis direction (LH component) is stored in the lower left, and high-pass information (HH component) in both the x and y axes is stored in the lower right. It will be. That is, the upper right part is a Y-axis direction line component (vertical line component) existing in the original image, the lower left part is an X axis direction line component (horizontal line component) existing in the original image, and the lower right part. Indicates a line component in an oblique direction. In addition, here, the conversion process is first performed in the x-axis direction and then the conversion process is performed in the y-axis direction to obtain FIG. 6, but the final two-dimensional wavelet can be obtained even if the x and y conversion order is changed. The completely same image of FIG. 6 is obtained after conversion.
[0054]
When the two-dimensional wavelet transform having the above properties is applied to a semiconductor wafer image having a granular defect, the defect and the background wiring pattern can be separated. FIG. 7 is a simulation of a semiconductor wafer image. Horizontal lines running horizontally correspond to wiring patterns, and black circles in the center correspond to defects. Thus, the semiconductor wafer has the wiring patterns aligned in the horizontal direction or the vertical direction. When the two-dimensional wavelet transform is applied to such an image, the result of FIG. 8 is obtained. When attention is paid to the vertical line detection component and horizontal line detection component, the wiring pattern appears only in the LH component for detecting the lower left horizontal line. On the other hand, defect components having various direction components are detected as an upper right HL component and a lower left LH component. As described above, when the two-dimensional wavelet transform is used, it is possible to separate a wiring pattern having only a vertical line or horizontal line component and a defect having components in various directions.
[0055]
By combining the two-dimensional wavelet transform described above and the Hough transform, it is possible to detect the position and size of a defect present in the semiconductor wafer image.
[0056]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, the configuration of the image information processing apparatus according to the embodiment of the present invention will be described with reference to FIG. The computer 101 includes a CPU 31 that performs input / output and calculation, a cache 32 that stores frequently used instructions and data and speeds up processing, a floating-point arithmetic unit 33, a RAM 34 that stores user inputs and data, and a ROM 36 that stores system programs. A display device 35 for displaying a user's selection menu and calculation results, a keyboard for inputting parameters and commands, an input device 37 for a pointing device (such as a mouse), and a magnetic disk 38 for storing the calculation results. These devices are connected by a CPU bus 30.
[0057]
A DUT (device under test) 41 such as a semiconductor wafer to be inspected is loaded / unloaded onto a stage 45 by a loader / unloader 46. The loaded DUT is input as an image by an image input device 42 such as an electron microscope, converted into digital data by an A / D converter 43, stored in a frame memory 44, or transferred to a RAM 34 on a computer. This digital image is, for example, a grayscale image of 256 gradations with a resolution of 512 × 512 pixels. The frame memory 44 is connected to the CPU bus 30 via the I / O bus 40. The operation of the control device 47 is controlled by the stage 45 and the loader / unloader 46. The control device 47 is connected to the computer 101 via the I / O bus 40.
[0058]
The wavelet transform unit 51, the Hough transform unit 53, the binarization processing unit 54, the labeling processing unit 55, the noise removal unit 56, the isolated point removal unit 57, the centroid calculation unit 58, and the duplicate detection removal unit 59 are included in the frame memory 61. , 63, 64, 65, 66, 67, 68, 69 are connected to the CPU bus 30. The energy calculating means 52 is connected to the frame memory 61 and the CPU bus 30. It should be noted that the wavelet transform unit 51, the energy calculation unit 52, the square Hough transform unit 53, the binarization processing unit 54, the labeling processing unit 55, the noise removal unit 56, the isolated point removal unit 57, the centroid calculation unit 58, and the duplicate detection removal unit The operation 59 is described in the description of the operation of the embodiment.
[0059]
Next, the operation of the first embodiment will be described with reference to FIG. 1A. The image data stored in the frame memory 44 or the RAM 34 is used as input image data, which is first transferred to the frame memory 61, and the two-dimensional wavelet transform is performed by applying the wavelet transform means 51 (S1). A vertical line detection component and a horizontal line detection component are obtained by two-dimensional wavelet transform. These components have wavelet coefficient values having a large absolute value in the edge portion, and the wavelet coefficients in other portions have values of 0 or close to 0.
[0060]
Next, the absolute value of the wavelet coefficient is transferred to the frame memory 64, and binarization processing is performed by the binarization processing means 54 (S2). That is, the binarization processing means 54 performs binarization processing by giving appropriate threshold values to the vertical line detection component and the horizontal line detection component, and sets the coefficient value of the edge portion as 1 and the other values as 0. Create a value image. Here, the threshold value is set to ± 5 empirically.
[0061]
Finally, the binary image is transferred to the frame memory 63, and the square Hough transformation is performed by the square Hough transformation means 53 (S3). The parameter space is three-dimensional (a, b, r). Note that the position and size of a defect can be automatically specified by adding a process after the first embodiment.
[0062]
According to the first embodiment, the following effects can be obtained. Although the absolute value of the wavelet coefficient at the edge portion is large, the sign may be positive or negative. Since the negative coefficient is 0 in the normal binarization process, for example, when normal threshold processing is performed on the vertical line detection component in the upper right of FIG. 8, only half of the edge is detected as shown in FIG. However, the Hough transform can be detected even if the target graphic is missing. In contrast to FIG. 9, when the Hough transform is used, in the parameter space, the brightness of the parameter corresponding to the defect is increased in the case of a square component existing in the original image, that is, a wafer pattern image. By observing the parameter space, the position and size of the defect can be specified.
[0063]
The operation of the second embodiment will be described with reference to FIG. 1B. The parameter space data after the Hough transform is sent to the frame memory 64, and the binarization processing means 54 performs binarization processing (S4). Note that the threshold for binarization is changed by r. When a square with a center (a0, b0) and a radius r0 exists in the xy plane, the brightness of the parameter (a0, b0, r0) is 8r0. For example, the threshold value is set to 4r0. When set, the brightness of the parameter exceeds the threshold even if half of the square with radius r0 is missing. When threshold processing is performed with this threshold value, one group of luminance 1, that is, white pixels appears.
[0064]
The operation of the third embodiment will be described with reference to FIG. 1C. The result of the binarization process (S4) is transferred to the frame memory 65. Then, the labeling processing unit 65 performs a labeling process for grouping pixels having a luminance value of 1 adjacent to the result of the binarization process (S4) (S5). In the parameter space after the Hough transform, the luminance value becomes a maximum value in the parameter in which the detected Taisho figure exists, but the luminance value of the parameter adjacent to it also increases. Therefore, in the result of the binarization process, the parameter of the luminance value 1 exists in the vicinity of the parameter corresponding to the figure to be detected (for example, a square). By the labeling process (S5), it is regarded as a feature parameter for one figure in a portion where the parameter of luminance value 1 is concentrated.
[0065]
Then, the a-coordinate and b-coordinate of the parameter belonging to each label obtained are sent to the frame memory 68, and the centroid calculating means 58 calculates the average value (a ′, b ′) of the a-coordinate and b-coordinate of the parameter as the centroid. (S6). Thereby, the position and size of the figure to be detected can be automatically specified from the input image.
[0066]
The operation of the fourth embodiment will be described with reference to FIG. 2A. Prior to the two-dimensional wavelet transform (S1), the input digital image is sent to the frame memory 66, and noise is removed by a noise removing means 56 such as a median filter.
[0067]
If spike noise is present in the input image, it is detected as an edge by wavelet transform. If a large number of noises other than the detection target graphic are subjected to the Hough transform, those other than the detection target are erroneously detected. By applying a noise removal filter to the original image, erroneous detection can be prevented. The Hough transform increases the processing time in proportion to the number of pixels having a pixel value of 1 in the binary image. Since the number of wavelet coefficients of the pixel value 1 generated by the wavelet transform unit + binarization processing unit is reduced by the noise removing unit 56, the processing speed is also improved.
[0068]
The operation of the fifth embodiment will be described with reference to FIG. 2B. In order to prevent erroneous detection and improve processing speed, the image after wavelet transform means + binarization processing means is sent to the frame memory 67, and the isolated points are removed by the isolated points removing means 57 (S2A). This is an image processing means in which a binary image having a pixel value of 1 and all adjacent pixels having a pixel value of 0 is regarded as an isolated point, and the pixel value of the pixel is replaced with 0.
[0069]
In the binary image after wavelet transform, there are adjacent wavelet coefficients having a coefficient value of 1 corresponding to the figure to be detected. Therefore, even if the coefficient value is 1, if all the surroundings are coefficient value 0, this coefficient is regarded as noise and is set to coefficient value 0. Thereby, prevention of erroneous detection and improvement of processing speed are realized.
[0070]
The operation of the sixth embodiment will be described with reference to FIG. 2C. The binarization process (S2) in the fifth embodiment is replaced with an absolute value binarization process (S2). In consideration of the fact that the coefficient value of the edge part may become negative due to the wavelet transform, the binarization process is performed on the absolute value of the wavelet coefficient instead of the normal binarization process. .
[0071]
When this absolute value binarization processing is applied to the vertical line detection component in the upper right of FIG. 8, the entire edge can be detected as shown in FIG. By applying the Hough transform to this, the brightness of the parameter corresponding to the defect is increased and the detection is facilitated as compared to using the normal binarization process.
[0072]
The operation of the seventh embodiment will be described with reference to FIG. 3A. This is different from the fifth embodiment in the square Hough transform (S3). That is, the square Hough transform means 53 performs Hough transform on both the vertical line detection component and the binary image corresponding to the horizontal line detection component of the wavelet transform result sent to the frame memory 63, but the two Hough transforms are converted into the same parameter space. Overlay and convert. Since the figure to be detected appears in both the vertical line component and the horizontal line component, it can be reliably detected by this method.
[0073]
The operation of the eighth embodiment will also be described with reference to FIG. 3A. This is different from the fifth embodiment in the square Hough transform (S3). That is, the square Hough transform unit 53 performs Hough transform on one of the binary images corresponding to the vertical line detection component and the horizontal line detection component of the wavelet transform result sent to the frame memory 63.
[0074]
As shown in FIGS. 7 and 8, the wiring pattern of the semiconductor wafer image is aligned in the horizontal or vertical direction, and appears only in either the vertical line component or the horizontal line component. By performing the Hough transformation only on the component where the wiring pattern does not appear, only the detection target can be Hough transformed and can be reliably detected. A wiring pattern is not erroneously detected as a detection target.
[0075]
The operation of the ninth embodiment will also be described with reference to FIG. 3B. In this embodiment, means for automatically determining whether to perform Hough transform on either the vertical line component or the horizontal line component is added to the eighth embodiment. That is, the energy calculating means 52 calculates energy based on the wavelet coefficient sent to the frame memory 61 (S1A), and the direction in which the energy is small is regarded as the direction in which no wiring pattern is detected, and only that direction is Hough transformed. .
[0076]
In FIG. 8, only the wiring pattern + defect appears in the horizontal line detection component at the lower right of the screen, and only the defect appears in the vertical line detection component at the upper right of the screen. The absolute value of the wavelet coefficient is large in the part where the edge is detected, and the other parts have coefficient values close to zero. Accordingly, the degree of detection of the edge component of the vertical line component and the horizontal line component is quantified and compared, and if the degree of detection is smaller, it is regarded as the component in which the wiring pattern is not detected, and it is subjected to Hough transform, whereby FIG. In the case of, only the vertical line component at the upper right of the screen can be Hough transformed to detect the figure to be detected. As a method for quantifying the degree of edge detection, the energy of the wavelet coefficient is defined. This means that each wavelet coefficient value is W (s, t), the number of two-dimensional wavelet coefficients is M in the x-axis direction, and the y-axis. It is defined by equation (5) as N in the direction.
[0077]
E = (1 / MN) Σs = 1 MΣt = 1 NW (s, t) (5)
The operation of the tenth embodiment will be described with reference to FIG. 3A. This is different from the fifth embodiment in binarization processing (S4). That is, the threshold value of the binarization process (S4) is variable depending on the magnitude of r. For example, it is assumed that a square C1 with a center (a, b) and r = 10 and a square C2 with a center (c, d) and r = 100 exist in the original image. In the parameter space, the luminance value of the parameter (a, b, 10) corresponding to C1 is 4 × 10 = 40. The luminance value of the parameter (c, d, 100) corresponding to C2 is approximately 4 × 100 = 400. In this way, the luminance value of the parameter changes greatly depending on r. By changing the binarization threshold in proportion to r, a square of any size can be detected.
[0078]
The operation of the eleventh embodiment will be described with reference to FIG. 3C. This is because there is overlap detection removal (S7) after the center of gravity calculation (S6) in the ninth embodiment. In this case, when a plurality of squares are detected by the centroid calculation (S6), it is checked whether or not these squares overlap on the xy plane.
[0079]
For example, there may be a case where a noise component is added to a partial arc of a square existing in the xy plane and a square slightly smaller than that is detected. It is determined that it is a false detection to detect a plurality of defects at the same position, and only the larger square is detected, and even if a small square overlapping therewith is detected, it is excluded. Specifically, when multiple squares are detected, a check is made to see if the center of the smaller square is not inside the larger square, and if it is inside the square, it is removed. This is realized.
[0080]
In the embodiment of the present invention, a dedicated frame memory is provided for each processing means. However, as shown in FIG. 12, the frame memory 61 can be shared to save memory and improve efficiency. Is possible.
[0081]
Further, as shown in FIG. 13, it is also possible to replace the devices 41 to 47 with a general-purpose electron microscope system 102, and replace each means 51 to 59 and a frame memory attached to them with a computer 101 such as a workstation.
[0082]
【The invention's effect】
Claims 1 to 3 and claims 6 to 11 correspond to the second object of the present invention. As a result, it is possible to detect a defect even without a golden device or CAD data required in the conventional image comparison method.
[0083]
Claims 4 to 5 and claims 7 to 11 correspond to the first object of the present invention. In the case of an image such as the SEM image described in the embodiment where the pixel value changes with time, the conventional image comparison method detects a large amount of noise. On the other hand, in the present invention, it is possible to detect a defect with almost no noise.
[0084]
Claims 1, 4, 5, 8 and 9 correspond to the third object of the present invention. In the case of the conventional FET method, 1.31 × (10 to the 8th power) addition and subtraction and 8.39 × (10 to the 8th power) times in order to remove the periodic wiring pattern from the 512 × 512 pixel image. However, in the case where the square Hough transform of the present invention is replaced with the circular Hough transform, addition and subtraction of about 5.5 × (10 5) times and 1.1 are performed by introducing wavelet transform means. Processing can be performed by multiplying x (10 6) times. All other image processings except for the Hough transform have a calculation amount of 10 7 or less. Even in the FET method, in order to automatically detect the position and size of an image, processing such as Hough transform is required, so the present invention is not disadvantageous.
[0085]
The circle Hough transform includes a square process and a square root extraction process that are not necessary for the square Hough transform. In the present invention, the Hough transform is limited to the square Hough transform, so that the calculation can be performed faster than the circular Hough transform. For example, in the C compiler of the UltraSparc S-7 / 300U workstation (170 MHz), the circular Hough conversion takes 4650 msec, whereas the square Hough conversion only takes 3441 msec. Therefore, the calculation can be performed at higher speed than the FET method.
[0086]
The calculation amount of the Hough transform is proportional to the number of pixels of the binary image to be processed. Therefore, the amount of calculation is smaller when the number of pixels to be subjected to the Hough transform is smaller. Therefore, the calculation speed can be further improved by performing the noise removal and isolated point removal processing described in claims 4 and 5.
[0087]
As described above in detail, the present invention is capable of producing a defect by composing an apparatus that combines image processing centering on Hough transform and wavelet transform on an image having complicated background information such as a semiconductor wafer pattern. It is possible to automatically detect the position and size of the image, and the effect is great both in terms of defect detection performance and processing speed.
[Brief description of the drawings]
FIG. 1 is a flowchart showing operations of first, second, and third embodiments, respectively.
FIGS. 2A and 2B are flowcharts showing the operations of the fourth, fifth and sixth embodiments, respectively.
FIG. 3 is a flowchart showing an operation of the seventh, eighth and tenth embodiments, B is an operation of the ninth embodiment, and C is an operation of the eleventh embodiment.
FIG. 4 is an explanatory diagram of square Hough transform, where A is a square in (x, y) image space, and B is a Hough curve in (a, b, r) parameter space.
FIG. 5A is an original image of a sample “house”, and B is an image obtained by performing wavelet transform in the x-axis direction on the image of A.
6 is an image obtained by performing wavelet transform in the y-axis direction on the image of FIG. 5B.
FIG. 7 is a sample image simulating a semiconductor wafer image.
8 is an image obtained by performing two-dimensional wavelet transform on the image of FIG.
9 is an image obtained by applying binarization processing to the vertical line detection component (upper right portion) of FIG.
10 is an image obtained by applying an absolute value binarization process to the vertical line detection component (upper right portion) in FIG. 8;
FIG. 11 is a block diagram showing a configuration of an image information processing apparatus according to an embodiment of the present invention.
FIG. 12 is a block diagram showing another configuration of the image information processing apparatus according to the embodiment of the present invention.
FIG. 13 is a block diagram showing still another configuration of the image information processing apparatus according to the embodiment of the present invention.
FIG. 14 is a diagram showing the relationship between a circle and a square when the radius is r0.
FIG. 15 is a diagram illustrating a relationship between a circle and a square when the radius is r = ri.
FIG. 16 is a diagram illustrating a binary image of particle defects on a semiconductor wafer and a square Hough transform result thereof.
[Explanation of symbols]
51 Wavelet transform means
52 Energy calculation means
53 Hough conversion means
54 Binarization processing means
55 Labeling processing means
56 Noise removal means
57 Isolated point removal means
58 Center of gravity calculation means
59 Duplicate detection removal means

Claims (8)

円形の欠陥の画像データを有する入力デジタル画像データに対して、二次元ウェーブレット変換する二次元ウェーブレット変換手段と、
前記二次元ウェーブレット変換によって得られた、縦線検出成分、横線検出成分に対してしきい値処理を適用して前記縦線検出成分と前記横線検出成分の二値画像を作成する二値化処理手段と、
前記二値化処理手段によって得られた二値画像に対して、正方形の中心のxy座標と一辺の長さを検出する正方形のハフ(Hough)変換を適用して、前記円形の欠陥に外接する正方形として前記円形の欠陥を検出して、前記円形の欠陥の位置と大きさとを求める正方形ハフ(Hough)変換手段と、
を備えている画像情報処理装置。
Two-dimensional wavelet transforming means for performing two-dimensional wavelet transform on input digital image data having circular defect image data;
A binarization process for creating a binary image of the vertical line detection component and the horizontal line detection component by applying threshold processing to the vertical line detection component and the horizontal line detection component obtained by the two-dimensional wavelet transform Means,
The binary image obtained by the binarization processing means is applied with a square Hough transform that detects the xy coordinates of the center of the square and the length of one side to circumscribe the circular defect. A square Hough conversion means for detecting the circular defect as a square and determining the position and size of the circular defect ;
An image information processing apparatus.
請求項1に記載の画像情報処理装置において、
入力デジタル画像に対して、局所的な雑音除去を行う雑音除去手段を備えている画像情報処理装置。
The image information processing apparatus according to claim 1 ,
An image information processing apparatus comprising noise removal means for performing local noise removal on an input digital image.
請求項2に記載の画像情報処理装置において、
二次元ウェーブレット変換結果に二値化処理手段を適用した後の前記縦線検出成分と前記横線検出成分の前記二値画像に対して、孤立している活性画素を除去する孤立点除去手段を備えている画像情報処理装置。
The image information processing apparatus according to claim 2 ,
Isolated point removing means for removing isolated active pixels from the binary image of the vertical line detection component and the horizontal line detection component after applying binarization processing means to the two-dimensional wavelet transform result Image information processing apparatus.
請求項1ないし3のいずれか1項に記載の画像情報処理装置において、
正方形ハフ(Hough)変換手段は、二次元ウェーブレット変換の前記縦線検出成分と前記横線検出成分に対応する2つの前記二値画像のどちらか一方のみにハフ(Hough)変換する手段である画像情報処理装置。
The image information processing apparatus according to any one of claims 1 to 3 ,
Square Hough transform means is image information that performs Hough transform on only one of the two binary images corresponding to the vertical line detection component and the horizontal line detection component of two-dimensional wavelet transform. Processing equipment.
請求項4に記載の画像情報処理装置において、
二次元ウェーブレット変換の前記縦線検出成分と前記横線検出成分のエネルギーを計算するエネルギー算出手段を備え、正方形ハフ(Hough)変換手段は、前記エネルギーの低い方の成分に対応する前記二値画像に対して正方形ハフ(Hough)変換を行う画像情報処理装置。
The image information processing apparatus according to claim 4 .
Energy calculating means for calculating the energy of the vertical line detection component and the horizontal line detection component of the two-dimensional wavelet transform is provided, and a square Hough transform means applies the binary image corresponding to the component having the lower energy to the binary image. An image information processing apparatus that performs square Hough transformation on the image.
請求項1ないし5のいずれか1項に記載の画像情報処理装置において、
複数の前記円形の欠陥が位置的に重複したときに、重複を取り除く重複検出除去手段を備えている画像情報処理装置。
The image information processing apparatus according to any one of claims 1 to 5 ,
An image information processing apparatus provided with an overlap detection and removal means for removing an overlap when a plurality of the circular defects overlap in position.
円形の欠陥の画像データを有する入力デジタル画像データに対して、二次元ウェーブレット変換する二次元ウェーブレット変換工程と、
前記二次元ウェーブレット変換工程によって得られた、縦線検出成分、横線検出成分に対してしきい値処理を適用して前記縦線検出成分と前記横線検出成分の二値画像を作成する二値化処理工程と、
前記二値化処理工程によって得られた二値画像に対して、正方形の中心のxy座標と一辺の長さを検出する正方形のハフ(Hough)変換を適用して、前記円形の欠陥に外接する正方形として前記円形の欠陥を検出して、前記円形の欠陥の位置と大きさとを求める正方形ハフ(Hough)変換工程と、
を備えている画像情報処理方法。
A two-dimensional wavelet transform process for performing two-dimensional wavelet transform on input digital image data having circular defect image data;
Binarization that creates a binary image of the vertical line detection component and the horizontal line detection component by applying threshold processing to the vertical line detection component and horizontal line detection component obtained by the two-dimensional wavelet transform step. Processing steps;
The binary image obtained by the binarization process is applied with a square Hough transform that detects the xy coordinates of the center of the square and the length of one side to circumscribe the circular defect. A square Hough conversion step of detecting the circular defect as a square and determining the position and size of the circular defect ;
An image information processing method comprising:
円形の欠陥の画像データを有する入力デジタル画像データに対して、二次元ウェーブレット変換する二次元ウェーブレット変換処理と、
前記二次元ウェーブレット変換処理によって得られた、縦線検出成分、横線検出成分に対してしきい値処理を適用して前記縦線検出成分と前記横線検出成分の二値画像を作成する二値化処理と、
前記二値化処理によって得られた二値画像に対して、正方形の中心のxy座標と一辺の長さを検出する正方形のハフ(Hough)変換を適用して、前記円形の欠陥に外接する正方形として前記円形の欠陥を検出して、前記円形の欠陥の位置と大きさとを求める正方形ハフ(Hough)変換処理と、
をコンピュータに実行させるためのプログラムを記録したコンピュータによって読み取り可能な記録媒体。
Two-dimensional wavelet transform processing for two-dimensional wavelet transform on input digital image data having circular defect image data;
Binary processing for creating a binary image of the vertical line detection component and the horizontal line detection component by applying threshold processing to the vertical line detection component and horizontal line detection component obtained by the two-dimensional wavelet transform process Processing,
A square circumscribing the circular defect is applied to the binary image obtained by the binarization process by applying a square Hough transform that detects the xy coordinates of the center of the square and the length of one side. A square Hough transform process for detecting the circular defect and determining the position and size of the circular defect ;
A computer-readable recording medium on which a program for causing a computer to execute is stored.
JP08992499A 1999-03-30 1999-03-30 Image information processing apparatus, image information processing method, and recording medium Expired - Fee Related JP4404276B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08992499A JP4404276B2 (en) 1999-03-30 1999-03-30 Image information processing apparatus, image information processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08992499A JP4404276B2 (en) 1999-03-30 1999-03-30 Image information processing apparatus, image information processing method, and recording medium

Publications (2)

Publication Number Publication Date
JP2000285236A JP2000285236A (en) 2000-10-13
JP4404276B2 true JP4404276B2 (en) 2010-01-27

Family

ID=13984260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08992499A Expired - Fee Related JP4404276B2 (en) 1999-03-30 1999-03-30 Image information processing apparatus, image information processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP4404276B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5936239B2 (en) 2014-08-19 2016-06-22 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Road surface degradation degree estimation method and algorithm (crack detection method using Gabor filter output image of multi-resolution image)

Also Published As

Publication number Publication date
JP2000285236A (en) 2000-10-13

Similar Documents

Publication Publication Date Title
JP3435684B2 (en) Image information processing device
CN108805023B (en) Image detection method, device, computer equipment and storage medium
JP4172761B2 (en) Defect inspection apparatus, defect inspection method and program
US7515764B2 (en) Image processing apparatus using morphology
JP4601134B2 (en) Method and apparatus for defect detection based on shape features
EP3176751B1 (en) Information processing device, information processing method, computer-readable recording medium, and inspection system
JP7274885B2 (en) Display device defect identification system and method
Ye et al. Inspection of printed circuit boards by connectivity preserving shrinking
KR20090066212A (en) Defect detection method and defect detection apparatus
JP2016115331A (en) Identifier generator, identifier generation method, quality determination apparatus, quality determination method and program
JP2006066478A (en) Pattern matching device and scanning electron microscope employing it
JP2006098152A (en) Apparatus and method for detecting defect
CN109584215A (en) A kind of online vision detection system of circuit board
JPH05209844A (en) Inspecting apparatus of wiring pattern
US9715724B2 (en) Registration of CAD data with SEM images
JP4801697B2 (en) Image forming method, image forming apparatus, and computer program
JP4404276B2 (en) Image information processing apparatus, image information processing method, and recording medium
JPH10171996A (en) Intra-image grained point detecting method
JP5067677B2 (en) Defect detection method, defect detection apparatus, and program
JP2006078300A (en) Flaw detection method of object by color image of the object
JP2004296592A (en) Defect classification equipment, defect classification method, and program
Sanguino et al. Computer-aided system for defect inspection in the PCB manufacturing process
CN112465047B (en) Industrial image visual identification method based on prior model
CN113487569B (en) Complex background image defect detection method and system based on combination of frequency domain and space domain
Ibrahim et al. Wavelet-based printed circuit board inspection algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121113

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131113

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees